Anno 2024 is het al AI, wat de klok slaat. Je kan geen computer, smartphone, televisie of zelfs wasmachine meer kopen, of je wordt met die afkorting van twee letters om de oren geslagen. Opmerkelijk, want een tiental jaar geleden klonken slimme computers nog als toekomstmuziek uit een of andere sciencefictionfilm die nog moest verschijnen. Hoe is het allemaal zo snel kunnen gaan?
Eerst en vooral is het nuttig om een belangrijke vraag uit de weg te helpen: wat moet je precies verstaan onder artificiële of kunstmatige intelligentie? Volgens onderzoekers doelt de term op de simulatie van cognitieve processen, die we doorgaans met mensen associëren, door machines. Anders gezegd: AI houdt in dat we machines leren om te denken als mensen. Echt ‘menselijk’ zijn die AI-systemen natuurlijk niet. Het gaat erom dat de systemen in staat zijn om te leren en redeneren, maar ook om fouten te herkennen en deze recht te zetten. De meeste van die AI-systemen worden ontwikkeld met slechts één doel voor ogen, zoals het herkennen van spammails in je mailbox. Dat is ook het geval voor generatieve AI: programma’s zoals ChatGPT, Gemini en Copilot die, op basis van een prompt, zelf teksten kunnen schrijven of afbeeldingen kunnen maken. Ook die systemen werden ontwikkeld met dat ene doel voor ogen: het maken van nieuwe dingen. Uiteindelijk is het de bedoeling om een ‘Algemeen AI-systeem’ te ontwikkelen, dat verschillende aspecten van het menselijk denken moet samenbrengen. De technologie heeft echter nog een flinke weg af te leggen voor het zover is.
Dartmouth College
Wie naar de wortels van AI wil graven, komt onvermijdelijk in Amerikaanse grond terecht. Als er al iets bestaat als de geboorte van AI, dan vond die plaats in de zomer van 1956, aan Dartmouth College. Een groep jonge academici hadden toen het idee om twee maanden lang workshops te organiseren, om een actueel probleem aan te pakken. Op verschillende universiteiten was er namelijk veel te doen rond cybernetica, automata’s en complexe informatieverwerking. De theorieën gingen, op een of andere manier, allemaal over dezelfde vraag: kunnen machines denken? Het enige probleem was dat de wetenschappers achter die ideeën allemaal andere achtergronden hadden: wiskundigen, computerwetenschappers, cognitieve psychologen en nog andersgediplomeerden kwamen allemaal met hun eigen invalshoek. Om geen theorieën voor te trekken, werd besloten om de workshops over ‘artificiële intelligentie’ te laten gaan. Op die manier werd noch de automatatheorie of cybernetica bevooroordeeld. Aanvankelijk bleek het niet erg makkelijk om budget te krijgen voor het seminarie, dat toen nog als ‘visionair’ beschreven werd. Notities van de workshops zijn amper bewaard gebleven. Er is zelfs discussie over hoe lang het zomerproject precies duurde: de één spreekt over zes weken, de ander over acht. Gedurende die tijd discussieerden 20 wetenschappers over hoe het studiedomein van de artificiële intelligentie er precies zou moeten uitzien. De uitkomst is duidelijk: alles wat met computers, natuurlijke taalverwerking, neurale netwerken, computatietheorie, abstractie en creativiteit te maken heeft, is relevant. Anno 2024 zijn het nog steeds die thema’s die het AI-onderzoek domineren, al zorgt de technologische ontwikkeling ervoor dat er telkens nieuwe vragen gesteld dienen te worden.
Een kleine ijstijd
Aan Dartmouth werd dus bepaald welke vormen het onderzoek naar artificiële intelligentie allemaal zou aannemen. In de jaren daarna, werkten de onderzoekers dan ook enthousiast aan allerlei toepassingen. Zo zag ELIZA, een computerprogramma dat door Joseph Weizenbaum gebouwd werd, in 1966 het levenslicht. ELIZA geldt als een van de eerste chatbots, een voorloper van de ChatGPT’s en Gemini’s van vandaag. Zo slim als ChatGPT was ELIZA echter niet: het systeem werkte louter dankzij patroonvergelijking. De chatbot herkende een bepaald patroon en koppelde daar een antwoord aan. Voor Weizenbaum was ELIZA eigenlijk als grap bedoeld: hij bouwde de chatbot om de oppervlakkigheid van menselijke communicatie aan te kaarten. Wie de technologie mocht uitproberen, was echter flink onder de indruk: Weizenbaums secretaresse zou het programma uitgeprobeerd hebben, maar de onderzoeker mocht dat niet observeren. Daarvoor waren de gesprekken “te persoonlijk”, klonk het. Daarnaast werden er heel wat AI-systemen ontwikkeld voor specifieke toepassingen. Zo ontwikkelde Arthur Samuel in 1962 al een computer die het spel dammen kon spelen. Wellicht werden de eerste spelletjes door Samuel zelf gewonnen en niet door de damcomputer. Daar ging het echter niet om: de computer was namelijk in staat om uit elk spelletje dammen een les te trekken, zodat die steeds beter kon spelen. Pas midden in de jaren 70 zou het damprogramma slim genoeg zijn om een spelletje op café te winnen. Ook andere vormen van specifieke AI vonden in de jaren 60 ingang: zo gebruikt General Motors al sinds 1961 robots om de meest repetitieve taken uit te voeren. Ook deze robots werden aangedreven door een vorm van AI. In de wetenschap was het DENDRAL-AI-systeem in staat om, vanaf 1965, de structuur van moleculen te bepalen dankzij massaspectrometrie.
Al die AI-systemen waren zogenoemd ‘symbolische systemen’. Ze werkten doordat de computer een symbolische voorstelling van kennis had, en die symbolen kon manipuleren om tot een uitkomst te komen. Onderzoekers werkten daarvoor aan symbolische voorstelling van kennis. Dat werkt in duidelijk afgebakende domeinen, zoals de chemie of damspelletjes, maar is heel wat minder efficiënt in algemene toepassingen. Aan het eind van de jaren 70 botsten AI-onderzoekers dan ook op een muur. Plots was het geld op en de gestelde doelen, die eigenlijk veel te ambitieus waren, werden niet gehaald. Onderzoek naar artificiële intelligentie werd op een laag pitje gezet, en werd in de late jaren 80 pas terug opgepikt.
Neurale netwerken en deep learning
In de laten jaren 80 en het begin van de jaren 90 lukte het onderzoekers weer om aan financiering te geraken. Dat had een aantal redenen. Technologische ontwikkeling was er daar één van: in plaats van een ponskaart in een kamergrote computer te steken, konden de onderzoekers nu alles intypen op een computer die veel kleiner én sneller was. Tegelijkertijd vonden er doorbraken plaats op het vlak van machine learning en neurale netwerken. Het is ook op dat moment dat natuurlijke taalverwerking, spraakherkenning en computerzicht haalbaar worden. Kortom: redenen genoeg om te investeren, en dat deden overheden en bedrijven dan ook volop.
Stilaan begonnen ook bedrijven het nut van AI in te zien. Zo werd AI in den beginne vooral ingezet om spammails tegen te houden, fraude te detecteren bij belastingaangiftes, maar ook in de op dat moment kersverse zoekmachines van Google en Yahoo!. Ook dokters zouden de technologie beginnen gebruiken om snel ziektes op te sporen, zoals kanker. Dat was al langer mogelijk, maar verbeterde prestaties zorgden ervoor dat ook dokters uiteindelijk over de streep getrokken werden. In 1997 schaakte Deep Blue, een schaakcomputer op basis van AI, de wereldkampioen zelfs naar huis.
Big data en datacenters
Aan het begin van de 21ste eeuw werd duidelijk dat er meer en meer data voorhanden was. Snellere computers zorgden ervoor dat meer gegevens verwerkt kon worden, waardoor ook AI-systemen ingewikkelder werden. Dit gaat samen met een verhuis naar de cloud: steeds meer bedrijven zouden hun servers en rekenkracht bij cloudaanbieders zoals Google, Microsoft of Amazon Web Services onderbrengen. Dat brengt, ook voor AI, heel wat voordelen met zich mee: het wordt namelijk veel goedkoper om grote hoeveelheden rekenkracht te gebruiken. Dat werd ook stilaan nodig, aangezien de grote dataverzamelingen stilaan te groot werden om goed door mensen te laten verwerken. Niet alleen datacenters, maar ook de manier waarop die servers in elkaar steken maakt verdere AI-ontwikkeling mogelijk. Zo ontdekte Nvidia dat hun apparatuur niet enkel geschikt is om computerspelletjes te spelen. De grafische kaarten of GPU’s van het merk werden aanvankelijk aangeprezen om mee te gamen, maar maken dankzij speciale hardwarefuncties de weg vrij voor AI. Toen Google in 2017 de zogenaamde Transformer-architectuur uit de doeken deed, zorgde dat opnieuw voor heel wat mogelijkheden. Het zijn technieken die AI-systemen zoals ChatGPT en Gemini vandaag nog steeds gebruiken.
Ethische bezwaren
Opvallend is dat, in 60 jaar AI-ontwikkeling, het thema ethiek raar of zelden ter sprake kwam. Voor dokters, die er kankers en andere ziektes mee opsporen, speelt het thema uiteraard al langer. Voor de gewone gebruiker was dat pas het geval toen AI-toepassingen breed beschikbaar werden. Zo is er het probleem van deepfakes, waarbij videobeelden door middel van AI aangepast worden. Dat kan beelden opleveren, gaande van een Donald Trump in kippenpak tot minder zedige zaken. Was het aanvankelijk nog redelijk duidelijk dat Donald Trump niet elke zondag in een kippenpak rondparadeert, dan is dat steeds minder het geval. Niet omdat de wereld steeds gekker wordt, maar omdat AI-tools alsmaar beter worden in het nabootsen van de werkelijkheid. Anno 2024 kan het oprecht moeilijk zijn om het verschil tussen echt en vals te bepalen. Daarnaast zijn er heel wat chatbots die met je kunnen praten “alsof het echte mensen zijn”. Wat blijkt? Die AI-systemen hebben eerst moeten leren hoe de wereld eruitziet. Daarvoor trainden ze op data, vaak afkomstig van sociale media, nieuwswebsites en boeken. Voor heel wat AI-bedrijven leveren die trainingsdata nu problemen op. In veel gevallen is dat materiaal namelijk auteursrechtelijk beschermd, waardoor de bedrijven toestemming moeten vragen om het te gebruiken. Vaak gebeurde dat niet, waardoor auteurs, fotografen en kunstenaars de AI-bedrijven nu aanklagen. Dat leren gebeurt trouwens niet altijd vanzelf: daarvoor moet de data eerst ‘gelabeld’ worden. Dat is een taak die AI-bedrijven zoals OpenAI maar al te graag uitbesteden aan landen als Kenya, waar het pakken goedkoper kan.
Om nog maar te zwijgen over de mogelijkheden van AI-systemen. Verschillende beeldgenerators werken, met de vele verkiezingen in 2024 in het achterhoofd, momenteel met een verbod op politieke figuren. Volgens sommigen is dat essentieel om de rechtstaat te verdedigen, terwijl anderen het regelrechte censuur vinden. Chatbots hebben bovendien ook de neiging om gedragingen uit de trainingsdata over te nemen. Trainde zo’n chatbot op de boeken van Jef Geeraerts? Dan zal je dat geweten hebben. Voor bedrijven als Google is het een reden om de chatbot wat af te stellen, zodat die zeker niet racistisch kan overkomen. Ook dat kan echter te ver gaan: Google deed de mogelijkheid om afbeeldingen generen tijdelijk op slot, nadat het systeem nazi’s met een donkere huidskleur genereerde. Het genereren van zo’n afbeelding kost bovendien heel wat CO2, wat van de zaak niet alleen een ethische ramp maakt, maar ook een kleine milieuramp.
Naar de toekomst toe
Voor de industrie is vooral dat laatste probleem belangrijk. AI-systemen hebben heel wat rekenkracht nodig en door dat efficiënter te maken, kunnen de AI-bedrijven heel wat geld besparen. Mooi meegenomen is dat de CO2-uitstoot dan ook meteen daalt. Daarnaast plaatst AI onze samenleving voor heel wat belangrijke vraagstukken: hoe kunnen we AI op een verantwoorde manier gebruiken en op welke manieren wíllen we AI gebruiken? Wat vinden we wenselijk, of misschien net te menselijk om aan AI over te laten? Dat zijn vragen die niet alleen belangrijk zijn voor computer- of AI-wetenschappers, maar die de hele samenleving aangaan. De antwoorden die we vandaag en morgen op die vragen formuleren, zullen namelijk niet alleen bepalen hoe de digitale wereld eruitziet, maar zullen meer dan ooit ook een weerslag hebben op onze dagelijkse leefomgeving.