In het verre midden tot laat 2022 was het nog zo simpel om beelden die door “AI” waren gegenereerd te herkennen. Gewoon een kwestie van vingers tellen! Maar de ontwikkelingen gaan hard. Je moet steeds beter opletten om je niet te laten foppen door “AI”. Vaak staat er bij het product van een zogenaamde kunstmatige intelligentie duidelijk aangegeven dat dit het geval is. Echter, is dat uiteraard geen waterdichte of universeel toegepaste standaard. Niet voor niets zijn bedrijven hard bezig om software te ontwikkelen die “AI” gegenereerde media kan herkennen.
“Wat we gezien hebben is nog maar het tipje van de ijsberg.”
Naast de visuele gekheden zijn er voorlopig nog voldoende manieren waarop “AI” door de mand valt. “AI” doet namelijk niet wat op het blikje staat, het denkt niet na. “AI” berekent simpelweg de meest waarschijnlijke volgende zet gebaseerd op trainingsdata. De volledig door “AI” gegenereerde Seinfeld kloon op Twitch is er een goed voorbeeld van. Zowel het plot als de dialogen zijn volledig non-sequitur. In één opzicht deed de serie wel denken aan de echte wereld, het was immens populair tot “AI” Jerry Seinfeld transphobisch bleek te zijn.
Ook een recente afbeelding waarop een brandend Pentagon, of in ieder geval een brand nabij het Pentagon, te zien was werd ondanks het veelvuldige delen door ‘Blue-checkmarks’ snel onthuld als nep. Maar volgens Truepic CEO Jeffrey McGregor is het dus allemaal nog maar het begin. Volgens hem zal het “AI” gegenereerde aandeel van op social media gedeelde content sterk toe gaan nemen. Iets waar we volgens hem simpelweg niet op zijn voorbereid.
McGregor zijn bedrijf wil dit probleem aan gaan pakken. Met hun Truepic Lens beweert Truepic media te kunnen voorzien van een kenmerk tijdens het produceren. Deze gegevens, waaronder de datum, tijd, locatie en het apparaat dat gebruikt is, worden met een soort van digitale handtekening opgenomen in het mediabestand. Deze kan ten alle tijden gelezen worden en zal desgevraagd aangeven of het bestand organisch gemaakt is of met behulp van “AI”.
“Wanneer alles vervalst kan worden…”
“Dan kan ook alles wat je ziet nep zijn.” Het is een simpele waarheid, maar McGregor heeft wel een punt door het ter sprake te brengen. Een menselijke samenleving draait op vertrouwen. Gelukkig leven we voorlopig nog voornamelijk in de echte wereld (er even vanuit gaande dat de Matrix geen docu is) waar je ogen niet zomaar voor de gek gehouden worden. Maar de huidige proliferatie van “AI” content zal wanneer deze steeds meer aanwezig wordt onherroepelijk leiden tot wantrouwen. Mensen die werkelijk wat op de kerfstok hebben kunnen belastend materiaal afdoen als nep, en bewijs maar eens het tegendeel. Anderzijds kunnen zij die onschuldig zijn flink last krijgen van valse claims die worden ondersteund met “AI” materiaal.
Volgens McGregor is het dan ook expliciet de missie van Truepic om online desinformatie tegen te gaan. Volgens eigen zeggen krijgt het bedrijf om die reden veel aandacht van bijvoorbeeld NGO’s, media bedrijven en verzekeringsmaatschappijen die natuurlijk allemaal een belang hebben als het gaat om het achterhalen van de waarheid achter een claim.
Voorkomen of genezen?
Er is een heuse wapenrace in wording. Eentje die in de nabije toekomst nog wel eens serieuze gevolgen kan gaan hebben. Bedrijven als Truepic zetten in op het stoppen van desinformatie bij de bron. Als het aan hun ligt wordt alle media voorzien van een kenmerk die duidelijk aangeeft of het stuk media is gemaakt met “AI” of niet. Op die manier wordt online misbruik van “AI” content onmogelijk gemaakt. Wel moet dan iedereen mee doen.
Daar maakt de Coalition for Content Provenance and Authenticity (C2PA) zich hard voor. Sinds de oprichting in 2021 met de samensmelting van twee vergelijkbare projecten van Adobe en Microsoft houdt de coalitie zich bezig met het opstellen van richtlijnen en het ontwikkelen van specialistische tools. Met deze tools kunnen content creators hun creaties voorzien van een watermerk. Op deze manier weten consumenten van media met een dergelijk watermerk waar ze aan toe zijn. Wel is de medewerking van content creators vereist.
En dus is een dergelijke aanpak onvoldoende. Zoals de Pentagon afbeelding duidelijk maakte zijn er mensen die het, in het minst schadelijke geval, niet interesseert of een “AI” gegenereerde afbeelding onrust veroorzaakt. Het zal in de toekomst essentieel zijn om ten alle tijden een willekeurig stuk media te kunnen toetsen. Er zijn bedrijven die dergelijke software aanbieden, maar deze zijn niet 100% nauwkeurig.
Voorlopig niet waterdicht
Gezien het snel groeiende aantal bedrijven dat op een of andere manier gebruikmaakt van “AI” technologie is bijblijven met de laatste ontwikkelingen moeilijk. “Het gaat hier om beperking van de gevolgen, niet om het elimineren ervan”, vertelt Hany Farid, een digitale forensische expert verbonden aan de Universiteit van California, Berkeley, aan CNN.
Ook Open AI, ontwikkelaar van Dall-E en ChatGPT, gaf eerder dit jaar toe dat hun eigen pogingen om technologie te ontwikkelen die “AI” content kan herkennen verre van perfect is. Verscheidene bedrijven en overheden geven aan dat er snel stappen moeten worden ondernomen om de ontwikkelingen op “AI” gebied voor te blijven. Er wordt dus zeker aan gewerkt, maar of het genoeg is? Ondanks de brief van laatst, lijken de ontwikkelingen rondom “AI” alleen maar harder te gaan. Tot er een degelijke manier op tafel ligt om “AI” gegenereerde content te herkennen is het waarschijnlijk verstandig om op social media gedeelde content met een korrel zout te nemen. Voor zover we dat al niet deden.