De genAI bubbel zal barsten, maar geef AI niet op!

Generatieve AI zoals ChatGPT lijkt te overtuigen met mooie beelden en welluidende teksten. ‘Maar mensen blijven maar zeggen dat generatieve AI een universele tool is die veel meer kan,’ zegt Michael Biehl, hoogleraar Machine Learning. ‘Vroeg of laat zal de genAI-bubbel barsten,’ stelt hij. Maar dat betekent niet dat we alle AI maar met het badwater moeten weggooien.
FSE Science Newsroom | Tekst Charlotte Vlek
‘Het lijkt zo mooi wat generatieve AI (genAI) ons voorschotelt: applicaties zoals ChatGPT of Dall-E genereren welluidende teksten, prachtige plaatjes en indrukwekkende video’s,’ beschrijft Biehl. ‘Maar er is een aantal elementaire problemen, zoals feitelijke onjuistheden in tekst, onlogische plaatjes en fysiek onmogelijke video’s. Dit zijn inherente eigenschappen van het system. Niet fouten die er bij de volgende versie uit zullen zijn.’
Biehl maakt zich zorgen over de hype die momenteel gaande is rond genAI: ‘Men voorspelt een marktwaarde van miljarden voor AI-bedrijven, mensen maken zich zorgen over het verlies van banen, en soms zelfs over het einde van de mensheid.’ Er wordt geclaimd dat chatGPT de Turing test haalt (zie kader), dat genAI in staat is om teksten echt te begrijpen, problemen te analyseren en logisch te redeneren.
De Turing test bestaat deze maand 75 jaar – haalt genAI de test?
In een beroemd artikel uit oktober 1950 stelde computerwetenschapper Alan Turing de vraag: kunnen machines denken? In plaats van antwoord te geven op deze vraag, beschreef hij in dit artikel een gedachte-experiment, waarin menselijk jurylid via chatberichten een gesprek voert met een computer en met een ander mens. Als het onderscheid tussen mens en machine niet meer te maken is, en de computer dus succesvol een mens heeft nagebootst, heeft het de test gehaald. In alle praktische opzichten lijkt het te denken als een mens.
Zo nu en dan wordt geclaimd dat grote taalmodellen zoals chatGPT de Turing test hebben gehaald. Biehl legt uit: ‘Zulke claims over de Turing test of over hoge scores op academische tests zijn meestal gebaseerd op dubieuze evaluatiemethodes en zijn vaak weinig transparant over de training die eraan voorafgegaan is.’ Dan krijgt ChatGPT bijvoorbeeld eerst een prompt waarin staat dat het zich op een bepaalde manier moet gedragen, en lukt het pas daarna om de Turing test te halen. Bovendien is er vaak geen duidelijke definitie van hoelang de test moet duren, en hoe vaardig de menselijke beoordelaar moet zijn.
Verder kun je je afvragen of het halen van de Turing test ook betekent dat een systeem intelligent is. Veel onderzoekers in het vakgebied vinden van niet. AI-expert en criticus Gary Marcus vat samen: ‘De Turing test is vooral een test in hoe goed je mensen om de tuin kunt leiden.’
Ethische problemen
‘Vroeg of laat zal men inzien dat generatieve AI een illusie is die hen is voorgespiegeld door de grote tech-bedrijven,’ stelt Biehl. ‘Het is goed dat mensen zich nu in elk geval bewust beginnen te worden van de vele ethische problemen rond genAI.’ Het is een indrukwekkende lijst, waaronder de enorme verspilling van energie en grondstoffen, de uitbuiting van goedkope arbeid om fouten eruit te halen, het ongeautoriseerde gebruik van materialen met copyright, het verzamelen van gebruikersgegevens zonder toestemming, en de kritiekloos versterking van vooroordelen in de trainingsdata. En tenslotte is er een groeiend bewustzijn van mogelijkheden tot manipulatie door autoritaire regimes of grote tech-bedrijven die controle over deze systemen hebben.
Vroeg of laat zal men inzien dat generatieve AI een illusie is die hen is voorgespiegeld door de grote tech-bedrijven
Biehl: ‘Mensen lijken te denken dat de term Artificial Intelligence gelijk staat aan de huidige gehypete generatieve AI.’ Maar er is een uitgebreid vakgebied met een lange bestaansgeschiedenis, dat aan heel andere dingen werkt dan het produceren van welluidende woordenreeksen. Onderzoekers van de RUG werken bijvoorbeeld aan computerprogramma’s die artsen kunnen helpen om medische beelden te analyseren, zelfs wanneer er weinig trainingsdata beschikbaar is, of programma’s die dokters kunnen gebruiken om te sparren over een medische beslissing. De nadruk ligt vaak op de samenwerking tussen mens en machine, en op computersystemen die kunnen onderbouwen waarom het doet wat het doet.
Wanneer de bubbel knapt
‘Uiteindelijk zullen mensen zich realiseren dat zelfs de grootste taalmodellen precies zijn wat er op het etiket staat: taalmodellen,’ legt Biehl uit. Ze stellen zinnen samen, imiteren of reproduceren en husselen schaamteloos stukken tekst uit hun trainingsdata. Wanneer de genAI bubbel knapt (en dat zal gebeuren) zal de media en de publieke opinie zich keren tegen alles met het label AI.’ Daarom roept hij collega’s uit zijn vakgebied op: val niet voor de hype, stook het niet verder op, en ga er niet op meeliften.’ Biehl suggereert zelfs om de term “AI” zoveel mogelijk te vermijden. ‘Het zal een averechts effect hebben.’
Laatst gewijzigd: | 07 oktober 2025 16:05 |
Meer nieuws
-
01 oktober 2025
In de Wetenschap-podcast: Ajay Kottapalli over zeehondensnorharen en ultragevoelige sensoren
'In de Wetenschap' is de podcast van de Rijksuniversiteit Groningen. In deze aflevering hebben we Ajay Kottapalli te gast, universitair hoofddocent aan het Engineering and Technology Institute Groningen en medeoprichter van de start-up Sencilia.
-
25 september 2025
RUG onderzoeker brengt invloed geluid Waddenzee in kaart
Met een subsidie van het Waddenfonds en het ministerie van Landbouw, Visserij, Voedselzekerheid en Natuur gaat RUG professor Britas Klemens Eriksson onderzoek doen naar de invloed van geluid op het onderwaterleven in de Waddenzee.
-
23 september 2025
Minder werken om je CO2 voetafdruk te verkleinen?
Klaus Hubacek berekent of de groene alternatieven die we hebben bedacht om minder CO2 uit te stoten eigenlijk wel zo’n goed plan zijn. Zoals bomen planten, auto’s delen of minder werken. Spoiler: bijna alles heeft een keerzijde, ja, in sommige...