Data Science

De snelheidseconomie in data science: blijf niet achter    

Sinds Gordon Moore in 1965 het verband legde tussen de toenemende complexiteit en capaciteit van geïntegreerde schakelingen en tijd, is het aantal transistors op een microchip elke twee jaar verdubbeld, wat een gestage toename van de rekenkracht per Central Processing Unit (CPU) laat zien.

Door de grenzen van technologie te verleggen, blijft Moore’s wet ook vandaag de dag staan. Maar hoe bereiken we kortere verwerkingstijden als de snelheid van een CPU begrensd is? Dit kan op softwareniveau met vectorisatie, parallellisatie en het gebruik van low-level programmeertalen zoals C/C++, of door het rekenwerk slim over de hardware te verdelen.

Uiteraard is het mogelijk om meerdere multicore-CPU’s tegelijk te gebruiken, maar de basale structuur van een CPU zet een limiet op zijn prestatievermogen als het aankomt op de snelheid van gegevensverwerking. Vandaar dat Graphical Processing Units (GPU’s) de afgelopen jaren zo populair zijn geworden. Dankzij de architectuur van GPU’s, die vele kleinere, efficiëntere kernen hebben en een hoge geheugenbandbreedte, kunnen berekeningen op enorme schaal parallel worden uitgevoerd, wat zorgt voor ongekend snelle doorvoer en verwerkingssnelheden.

GPU’s als drijvende kracht achter AI

Artificial Intelligence (AI) is in korte tijd enorm bekend geworden. Volgens Google Trends schoot het aantal keren dat de term “AI” werd gebruikt in een Google-zoekopdracht eind 2021 omhoog. Het concept van AI, met neurale netwerken, werd al in de jaren ’40 beschreven door Warren McCulloch en opnieuw bezocht door Geoffrey Hinton en Yann LeCun in de jaren ’80 en ’90. Maar de significante ontwikkelingen zijn pas de laatste 15 jaar echt op gang gekomen.

Dus, wat hield deze technologische vooruitgang tegen?

Ten eerste, de beschikbaarheid van data. De functionaliteit, precisie en effectiviteit van diepe neurale netwerken verbetert met toenemende hoeveelheden hoogwaardige data. Ten tweede zijn er verbeteringen in algoritmes voor backpropagation, activatiefuncties (ReLU) en gewichtsinitialisatie. Ten derde heeft industrieële adoptie door bijvoorbeeld Google (BERT), Meta/Facebook (LIAMA2), Microsoft (Copilot) en OpenAI (ChatGPT) die zwaar investeerden in de technologie en de algoritmen opensource maakten, het AI-veld een flinke boost gegeven.

Maar deze technologische vooruitgang blijft sterk afhankelijk van rekenkracht. Deze uitdaging is overwonnen door de ontwikkeling van hoogpresterende GPU’s. Eén van de GPU’s die als baanbrekend wordt beschouwd voor het veld van AI is de NVIDIA Tesla K40, die in november 2013 werd geïntroduceerd. Sindsdien zijn er vele verbeteringen in de hardware voor kunstmatige intelligentie gemaakt, waardoor de implementatie van

complexere AI-modellen zoals Grote Taalmodellen (LLMs), Generatieve Modellen (GANs) en Objectdetectiemodellen (ODMs) mogelijk werd.

Het benutten van de kracht van AI op publiekelijk beschikbare platforms heeft niet alleen de industrie, e-commerce, verzekeringsmaatschappijen, landbouw en vele andere sectoren overgenomen, maar versnelt ook wetenschappelijk onderzoek en verbetert de gezondheidszorg.

AI in de gezondheidszorg

Tijdens de uitdagingen van de coronapandemie heeft AI zich ontpopt als een echte innovator binnen de gezondheidszorg. Verschillende toepassingen van AI kwamen naar voren als sleutelspelers in het managen van de crisis:

Epidemiologisch toezicht: AI speurde sociale media en zoekopdrachten af op vroege indicaties van het virus, waarmee het de verspreiding in kaart bracht.

**Handhaving van sociale afstand**: Met behulp van computer vision-technologieën werd toegezien op de naleving van de afstandsregels.

Voorspelling van uitbraken: AI bood waardevolle prognoses over de verspreiding en potentiële impact van COVID-19.

Screening en detectie: AI versnelde het opsporen van infecties, een essentieel onderdeel van de respons.

Genoomsequentiebepaling: Belangrijk voor de ontwikkeling van vaccins; AI hielp bij het sneller in kaart brengen van het DNA, wat leidt tot inzichten in de eiwitstructuren en mogelijke aangrijpingspunten voor medicijnen.

Voorspellen van eiwitstructuren: Google Deepmind’s AI werd ingezet om deze complexe structuren van het virus te ontrafelen.

Versnellen van wetenschappelijk onderzoek: Door LLM’s te gebruiken om wetenschappelijke publicaties te analyseren, werd het onderzoek naar het virus en de bestrijding ervan aanzienlijk versneld.

Deze veelzijdige toepassingen van AI hebben niet alleen de respons op de pandemie versterkt, maar hebben ook de deuren geopend voor nieuwe methoden en technieken binnen de gezondheidszorg die zullen bijdragen aan de innovatie en ontwikkeling op lange termijn. AI in de gezondheidszorg is geen toekomstmuziek meer, het is hier en nu en speelt een centrale rol in hoe we naar gezondheidsmanagement en pandemiebestrijding kijken.

factsheet cover

E-book

Download 'Data Science Insights into AI Processing', het e-book voor startende datawetenschappers en analisten, nu gratis.

Download!

E-book download

Vul het formulier in om het e-book te downloaden.
  • Dit veld is bedoeld voor validatiedoeleinden en moet niet worden gewijzigd.

AI in de cloud

Iedereen die een AI-model heeft getraind, weet dat dit aanzienlijke rekenkracht en tijd kost. Dit neemt toe met de complexiteit van het model en de hoeveelheid beschikbare data.

De kosten voor aanschaf en de kennis die nodig is om zo’n hoogwaardige rekenomgeving in stand te houden zijn aanzienlijk. Veel cloudproviders, zoals Amazon,

Bytesnet, Google en Microsoft, bieden deze rekenkracht aan als commercieel product, waardoor iedereen op flexibele wijze de benodigde rekenbronnen ter beschikking krijgt.

Echter, het is belangrijk om de verschillen tussen deze cloudproviders goed te bekijken. Zoals kosten, privacy, locatie, flexibiliteit, CO2-voetafdruk, ondersteuning en natuurlijk iemands eigen kennis over MLOPS-software. Als je weinig interesse of kennis hebt in het onderhouden van een lokale of cloud computing-omgeving, zijn er andere softwareplatforms beschikbaar. Een oplossing zoals het AI-infrastructuurplatform van UbiOps stelt je in staat om zonder enige infrastructuurkennis snel een AI- & ML-workload uit te voeren. Eigenlijk maakt het van elke computer een supercomputer.

Veel ML- en AI-tools zijn het afgelopen decennium ontwikkeld en spelen al een grote rol in ons dagelijks leven, als integraal onderdeel van de samenleving.

Al deze nieuwe ontwikkelingen kunnen overweldigend zijn, maar zijn waarschijnlijk slechts het begin. Er liggen spannende tijden in het verschiet en het is waarschijnlijk niet de vraag óf je AI gaat gebruiken, maar hóe. Dus stap aan boord en zorg dat je niet achterblijft.

Meer weten?

Neem contact met ons op voor meer informatie over ons unieke aanbod op het gebied van Data Science.