Kom bij Emily M. Bender niet aan met doemscenario’s over „zogenaamde kunstmatige intelligentie”, zoals ze AI bij voorkeur noemt. Daarvoor is de linguïst en hoogleraar aan de Universiteit van Washington in Seattle veel te nuchter. Ze is wel uitgesproken kritisch over – haar woorden – „de AI-hype”, maar tegen waarschuwingen dat AI-systemen intelligenter worden dan de mens, en dat de mensheid door AI zelfs met uitsterven bedreigd wordt, neemt de Amerikaanse scherp stelling.
Grote bedrijven die kunstmatige intelligentie ontwikkelen waarschuwen zélf voor de gevaren ervan. Ze vergelijken het met de risico’s van kernwapens en pandemieën. Moeten we dat dan niet serieus nemen?
„Nee, dat vind ik niet. Die doemscenario’s berusten op het idee dat machines op een of andere manier bewustzijn kunnen ontwikkelen. Dat zijn ideeën uit de sciencefiction, uit de wereld van het amusement. Dat machines wakker worden en gaan proberen ons uit te moorden. Er is geen enkele reden om aan te nemen dat dat de volgende stap in de ontwikkeling is. Zogenaamde kunstmatige intelligentie is niets anders dan een vorm van automatisering en synthetisering. Kunnen mensen daarmee veel schade aanrichten? Zeker. Maar van een heel andere soort. Zo kunnen chatbots als ChatGPT informatie-ecosystemen vervuilen met onjuiste teksten. Als iemand op basis daarvan handelt, kan dat in de echte wereld ernstige schade veroorzaken.
„Die apocalyptische schrikbeelden dienen als afleiding. Als mensen zich dáár zorgen over maken, letten ze niet op de echte problemen met dit soort systemen. Het is ook marketing: door te roepen dat deze technologie een existentiële bedreiging is, wek je de indruk dat het iets heel krachtigs is. Dat maakt het waardevol, makkelijker om aan de man te brengen.”
Sinds de opwinding over AI die losbarstte na de lancering van ChatGPT, pleit Bender er onverstoorbaar voor de verbeelding niet op hol te laten staan en bij de feiten te blijven. Een chatbot is geen mens. Spreken is interactie tussen mensen. Begrijpen en intelligentie zijn iets menselijks.
Daarbij helpt niet alleen haar wetenschappelijke achtergrond in de ‘computationele taalkunde’, maar ook haar gevoel voor metaforen uit het dierenrijk. Nee, Euler, haar zwarte kat die even door het beeld loopt en die vernoemd is naar de achttiende-eeuwse wiskundige Leonhard Euler, speelt daarbij geen rol, verzekert ze. Maar een octopus en een papegaai leveren wél een belangrijke bijdrage aan de verspreiding van haar ideeën.
De octopus voerden zij en een collega in 2020 op in een artikel over zogeheten Large Language Models (LLM’s), die de basis vormen van systemen die in reactie op vragen tekst kunnen voortbrengen, zoals ChatGPT van Open-AI, en Bard van Google. Om te illustreren wat die technologie wel en niet kan, bedachten ze een fabel over twee mensen die elk op een ander onbewoond eiland zijn gestrand. Ze spreken allebei Engels. En ze ontdekken allebei dat op hun eiland ooit een telegraaf-apparaat is achtergelaten, waarmee ze met elkaar kunnen communiceren via een kabel op de zeebodem.
Daar in de diepte leeft een bijzonder intelligente octopus, die een manier ontdekt om de gesprekken af te tappen en mee te luisteren. Het dier verstaat geen Engels, maar kan wel statistische patronen ontdekken in wat er over en weer wordt gezegd. Zo kan het na een tijdje heel precies voorspellen wat de ene persoon zal zeggen op een opmerking van de ander.
Dan wordt het spannend. De octopus begint zich eenzaam te voelen, snijdt de kabel door en gaat zich mengen in het gesprek door zich voor te doen als één van de twee mensen. De ander heeft niets in de gaten, en zet de dialoog voort. Zo lijken er nog steeds zinnen uitgewisseld te worden die van beide kanten met een bepaalde betekenis en bedoeling worden geuit.
Tot op een dag de menselijke spreker in paniek meldt: „Ik word aangevallen door een beer! Help, ik heb alleen een paar stokken, hoe kan ik me verdedigen?” De octopus heeft geen idee wat een beer is, of wat stokken zijn, en kan dus wel iets terugzenden, maar hoogstwaarschijnlijk niet iets dat de eilandbewoner zal helpen.
De parallel mag duidelijk zijn. Net als de octopus kunnen programma’s als ChatGPT wel zinnen samenstellen die voortgebracht lijken door een mens, maar ze zijn alleen gebaseerd op statistische patronen en welk woord in welke context waarschijnlijk is. Ze zijn niet gegrond in de werkelijkheid.
Toch is „niet de octopus het beroemdste hypothetische dier op Benders cv”, schreef New York Magazine in een uitgebreid portret van de linguïst, maar de eveneens door haar bedachte ‘stochastische papegaai’. Stochastisch betekent hier dat woorden louter op basis van waarschijnlijkheid achter elkaar gezet worden. De denkbeeldige vogel van Bender is dus, net als ChatGPT, een naprater die zelf niet weet wat hij zegt. Sinds Bender en drie collega’s in 2021 een wetenschappelijk artikel schreven Over de gevaren van stochastische papegaaien is de ‘stochastische papegaai’ uitgegroeid tot een veelgebruikt begrip.
„Voor de duidelijkheid zou het denk ik helpen als we niet zeggen: ik vraag iets aan Chat-GPT en ChatGPT antwoordde dit of dat”, zegt Bender. „Maar: ik heb er deze tekst in gestopt en die tekst kwam eruit. Want het lijkt wel alsof ChatGPT antwoord geeft op vragen, maar het brengt alleen aannemelijk klinkende tekst voort.”
Toch zijn er veel mensen die het een handig en nuttig instrument vinden.
„Ik heb me afgevraagd: in wat voor gevallen zou er iets te zeggen zijn voor het gebruik van ChatGPT? Bijvoorbeeld als de inhoud er niet toe doet, of de persoon die het gebruikt echt kan nagaan of de inhoud wel klopt. Als je een formele brief schrijft, maar je het moeilijk vindt om de juiste toon te treffen en daarom ChatGPT de boodschap opnieuw laat formuleren. Maar dat kan alleen in een taal die je goed beheerst, zodat je kan controleren of het correct is. Dat is het eerste criterium.
„Het tweede criterium is dat je vooroordelen kan herkennen en neutraliseren. Als je een zakelijke brief schrijft, gaat de chatbot er mogelijk vanuit dat die aan een man gericht is. Terwijl je misschien wel schrijft aan een onbekende en je je dus beter kunt onthouden van vooronderstellingen over de aangeschreven persoon.
„Ten derde moet je niets geven om originaliteit en herkomst van de inhoud als je ChatGPT gebruikt. Want de chatbot baseert zich op heel veel teksten, mogelijk ook van jouw krant, en kan komen aanzetten met ideeën waarvoor iemand anders de eer zou moeten krijgen. Je zou kunnen zeggen dat het diefstal is van oorspronkelijke data. ChatGPT geeft niet de mogelijkheid na te gaan waar wat precies vandaan komt.
„Ten vierde zou je het ook voor lief moeten nemen dat instrumenten als ChatGPT ontwikkeld zijn met een enorme verkwisting van natuurlijke hulpbronnen als water en energie. Dat gewerkt wordt met deels slecht betaalde arbeidskrachten, die onder belastende arbeidsomstandigheden moeten zorgen dat allerlei gruwelijke of zelfs traumatiserende inhoud niet per ongeluk opduikt in de output van de chatbot. Wie zich ervan wil vergewissen dat zijn chocola niet tot stand is gekomen met behulp van kinderarbeid, zou ook kunnen besluiten om ChatGPT niet te gebruiken.”
Zelf gebruikt u ChatGPT niet?
„Nee, en ik probeer ook te voorkomen dat ik output van de chatbot lees die mensen me toesturen. Ik wil m’n tijd niet besteden aan synthetische teksten.”
Wat bedoelt u met vervuiling van het informatie-ecosysteem?
„Dit soort bots kunnen artikelen voortbrengen die eruitzien als een artikel van Wikipedia, maar niets met de realiteit te maken hebben. Zo’n tekst kan dan weer opgepikt worden door een zoekmachine, en verder worden verspreid. Daarom spreek ik van vervuiling van ons informatie-ecosysteem: de non-informatie kan zich verspreiden als een olievlek.
„Dat is niet alleen gevaarlijk omdat mensen een onwaarheid kunnen aanzien voor feitelijke informatie. Het ondergraaft ook in het algemeen ons vermogen om betrouwbare informatie te vinden. En, áls we die gevonden hebben, om er nog op te vertrouwen dat het klopt.
„Google is al vóór ChatGPT begonnen behalve de bekende lijsten met links naar artikelen, ook korte tekstjes, ‘snippets’, te presenteren. Die zijn gebaseerd op websites of herformuleringen van oorspronkelijke teksten, maar kunnen heel misleidend zijn.
„Als je een paar jaar geleden intikte: ‘mijn vriend heeft een epileptische aanval, wat moet ik doen?’, kreeg je in een snippet dingen die je juist níét moet doen volgens het artikel waar het op gebaseerd was. Maar dat zag je pas als je doorklikte naar dat achterliggende artikel van de Universiteit van Utah.
„De universiteit viel niets te verwijten. Maar Google presenteerde de automatisch gegenereerde informatie los van de context, en daarbij was het woordje ‘niet’ weggevallen.”
AI-ontwikkelaars zeggen: we leren van onze fouten, zo kunnen we onze systemen steeds scherper afstellen en fouten voorkomen.
„Maar een fundamenteel probleem blijft dat de technologie niet aansluit op de taak waarvoor die wordt ingezet. De technologie is niet gebaseerd op begrip, maar wordt wel verkocht als een soort machine waaraan je alles kan vragen. Het blijft een systeem dat slechts het ene plausibele woord achter het andere plakt. Daar verander je niets aan door finetuning.
„Op sommige terreinen kan je het aantal fouten waarschijnlijk wel terugbrengen, zodat de output vaker correct is. Maar als iets in 95 procent van de gevallen klopt, lijkt me dat gevaarlijker dan wanneer het maar in 50 procent van de gevallen correct is. Want in het eerste geval ga je er toch meer op vertrouwen, in het tweede geval blijf je op je hoede.”
Bender stoort zich aan wat ze ziet als misleidend taalgebruik in artikelen en gesprekken over AI. Vriendelijk maar beslist corrigeert ze in dit interview ook af en toe de vragensteller. Het begint al bij de term ‘kunstmatige intelligentie’, die volgens haar ten onrechte bewustzijn en begrip veronderstelt, terwijl alleen sprake is van automatisering van het voortbrengen van tekst.
Op een vraag over de staking van scenarioschrijvers in Hollywood omdat AI hun banen overbodig dreigt te maken, zegt Bender: „Ik vind het preciezer om te zeggen: ze staken tegen het mánagement dat dreigt automatisering te gebruiken om hun banen overbodig te maken. Niet de machine handelt, maar het management.”
Ook ‘hallucinatie’, een term die vaak gebruikt wordt voor een chatbot die onzin uitkraamt, wijst Bender af. „Hallucinatie impliceert dat het systeem dingen waarneemt, voorstellingen heeft en helaas soms ook waanvoorstellingen. Maar het systeem neemt helemaal niets waar. Daarom gebruik ik liever het woord ‘non-informatie’ – ook al moet ik toegeven dat dat niet erg aanslaat.
De chatbot ‘begrijpt’ ook niets, en ‘antwoordt’ evenmin. En dan is er de ‘AI Bill of Rights’, waarvoor de regering-Biden eind vorig jaar een ontwerp presenteerde om Amerikaanse burgers in het tijdperk van kunstmatige intelligentie te beschermen tegen discriminatie en inbreuk op de privacy door AI. „Ik haat de term AI Bill of Rights”, zegt Bender lachend, „want het klinkt alsof AI zélf rechten heeft.”
Vicepresident Harris sprak dit voorjaar met de grote AI-ontwikkelaars over de risico’s van de technologie. Twee maanden later kondigde Biden aan dat onder meer Google, Meta, Amazon, Open AI en Microsoft vrijwillige waarborgen voor veilige AI-ontwikkeling zijn overeengekomen. Een stap in de goede richting?
„Mogelijk, maar het is in elk geval niet genoeg. Het kan een poging van die ceo’s zijn om echte regulering te voorkomen: we beloven nu braaf te zorgen dat AI veilig is, laat ons verder met rust. Regulering moet niet van de bedrijven komen, maar van de overheid. Die bedrijven willen ons wijsmaken dat de technologische ontwikkelingen zo hard gaan, dat de regulering het toch niet kan bijhouden. Maar overheden moeten niet defaitistisch worden. Ze moet de rechten van burgers beschermen, en die veranderen niet zo snel.
„Op den duur zullen we ook nieuwe rechten ontwikkelen. Synthetische teksten zouden herkenbaar moeten zijn, bijvoorbeeld met een soort watermerk. Daarmee kan je dan zien wat door een mens geschreven is en wat niet. En je kan ermee voorkomen dat de tekst van een chatbot verschijnt in de resultaten van een zoekmachine.
„En wat zou het goed zijn als OpenAI, dat ChatGPT heeft ontwikkeld en op de markt heeft gebracht, aansprakelijk gesteld kan worden voor de output van ChatGPT. Bijvoorbeeld als het informatie verstrekt die neerkomt op een medische fout, of op smaad.”
We zien dat AI, ik bedoel automatisering, de beantwoording van e-mails begint over te nemen, door antwoorden te suggereren, waarmee het persoonlijke, intermenselijke verdwijnt. Vindt u dat problematisch?
„Ik erger me er vooral aan wanneer ik iemand schrijf: ‘Vandaag kan ik niet, maar wat dacht je van…’ en dan verschijnt er opeens het woord ‘vrijdag’. Ja, dat is best een aannemelijk woord, maar het heeft niets te maken met mijn plannen of mijn agenda.
„Dat er antwoorden op een e-mail voorgesteld worden kan leiden tot een vervlakking van de taal, als we steeds diezelfde voorgebakken zinnetjes herhalen. Maar het kan ook dat mensen van de weeromstuit juist alternatieve formuleringen bedenken, uit irritatie met de suggesties die ze voorgeschoteld krijgen of om authentiek te klinken. Dat kan leiden tot een bloei van innovatieve variaties in het taalgebruik. Zoiets is in China gebeurd, waar mensen woorden verzinnen om langs de geautomatiseerde censors te komen.”
Dringt de kritiek van u en uw medestanders door tot het publieke debat?
„Ik en anderen die ingaan tegen de hype rond de zogenaamde AI beginnen meer gehoor te vinden. Maar OpenAI, het bedrijf dat ChatGPT beschikbaar heeft gesteld aan de hele wereld, of althans aan iedereen die een internetverbinding heeft en een taal spreekt die ChatGPT kan verwerken, heeft het heel slim aangepakt. Miljoenen mensen die het programma gebruiken verzorgen als het ware de marketing voor ze. En dat is nogal een massa om tegen in te gaan.”