In een nieuwe studie over het gedrag van AI-systemen en -chatbots komen wetenschappers tot een bijzondere conclusie. Kunstmatige intelligentie kan mensen namelijk misleiden en zelfs manipuleren. Dit komt voort uit een aantal experimenten waarbij wetenschappers kunstmatige intelligentie gebruiken voor bepaalde activiteiten. Zo bluft KI tijdens een kaartspelletje om de tegenstander om de tuin te leiden. Ook is er een AI-chatbot die een bepaalde afspraak met een vriendin verzint om onder een andere afspraak uit te komen.
Onderzoekers wijden dit gedrag aan de manier waarop AI-systemen worden getraind. Hier leren de AI systemen waarschijnlijk dat misleiding de beste manier is om goed te presteren. In andere woorden: een AI-systeem denkt dat gebruikers om de tuin leiden helpt zijn doel beter te bereiken.
Niet zo onschuldig als het lijkt
Veelal kwamen de misleidingen en manipulaties voort uit experimenten waarin eenvoudige spelletjes werden gespeeld. Op het eerste gezicht vrij onschuldig dus. Maar de onderzoekers zien wel degelijk gevaren. Zo schrijft Hoofdonderzoeker Peter Park van de Amerikaanse technische universiteit MIT in een persbericht dat “dit in de toekomst kan leiden tot doorbraken in AI, die kunnen ontaarden in vergevorderde vormen van misleiding”.
Ook andere wetenschappers – die niet hebben meegewerkt aan dit onderzoek – hebben hun zorgen gedeeld. Computerwetenschapper Roman Yampolskiy van de Universiteit van Louisville reageert: “AI-systemen die leren om te misleiden en manipuleren zijn absoluut een bron van zorg”. Hij ziet vooral de effecten die “mogelijk leiden tot schadelijke manipulaties en misleidingen in de politieke arena, bij economische onderhandelingen of persoonlijke interacties”.
Intentie of niet?
Nederlandse wetenschappers hebben ook gereageerd. Pim Haselager, hoogleraar kunstmatige intelligentie aan het Nijmeegse Donders instituut, geeft aan dat AI-systemen niet werkelijk misleidend zijn. De reden die hij geeft, is dat deze software niet de intentie hebben om te bedriegen”. “Misleiden doe je met een bedoeling. Deze systemen zijn gewoon gereedschappen die opdrachten uitvoeren”.
Dit perspectief komt overeen met de conclusie van Yampolskiy: “AI-systemen hebben geen verlangens of bewustzijn. Het is beter om hun acties te zien als uitkomsten van hoe ze geprogrammeerd of getraind zijn”. Stuart Russel onderstreept daarbij dat in het onderzoek blijkt dat de AI-systemen daadwerkelijk bezig zijn met misleiding. “Als een systeem redeneert over wat het gaat zeggen en daarbij rekening houdt met het effect op de luisteraar, en het voordeel dat het kan opleveren om valse informatie te geven, dan kunnen we net zo goed zeggen dat het zich bezighoudt met misleiding”.
Ondanks de uiteenlopende reacties van wetenschappers, heeft dit onderzoek niet voor niks plaatsgevonden. Haselager geeft aan dat er “in de nabij toekomst veel fouten en ‘misleidingen’ door AI zullen voorkomen” maar dat het vooral “goed is om ons daar bewust van te zijn. Immers, een gewaarschuwd mens telt voor twee”.