Kunstmatige Intelligentie (AI) is niet meer weg te denken uit de moderne wereld. De mogelijkheden lijken eindeloos met Chat GPT, virtuele assistenten als Siri en zelfrijdende auto’s. Maar AI heeft ook een keerzijde, waarschuwt João Fernando Ferreirea Gonçalves (mediawetenschapper en docent statistiek aan ESHCC). Hij ontving dit jaar een Veni-beurs van 280.000 euro van het NWO (Nederlandse Organisatie voor Wetenschappelijk Onderzoek) voor zijn onderzoek naar het ‘minder kunstmatig’ maken van AI, dat in november start. We spraken met João om inzicht te krijgen in zijn onderzoek en wat hij ermee wil bereiken.
Wat AI is en hoe kwam je ermee in aanraking?
AI is een algoritme dat zichzelf leert een taak uit te voeren op basis van datasets, dat noemen we ook wel machine learning. Het algoritme komt tot een reeks instructies die leidt tot een resultaat, meestal iets wat wij mensen normaal gesproken doen en waar intelligentie voor nodig is. Het voordeel is dat een computer dat natuurlijk veel sneller kan.
Tijdens mijn promotieonderzoek analyseerde ik nieuwscomments op grof taalgebruik en haatzaaien. Toen leerde ik machine learning kennen en gebruikte ik AI om sneller door de data heen te gaan. Daarna ben ik me meer en meer gaan verdiepen in de technische aspecten van AI en zag de mogelijkheden die het biedt, niet alleen voor onderzoekers of statistici. Maar toen ik me bewust werd van de keerzijde van AI, bedacht ik me dat dit anders kon.
Wat is die keerzijde van AI?
Algoritmes zijn vaak gebaseerd op datasets die losstaan van de echte wereld. Dat zorgt voor een ‘disconnect’ ten opzichte van menselijk gedrag en context. Datasets zijn niet altijd representatief wat betreft geslacht, culturele achtergronden, taalgebruik van mensen, maatschappelijke context, onverwachte situaties, noem maar op. En als een AI vervolgens een resultaat moet geven dat besluiten over mensen maakt, levert dat problemen op. Een typisch voorbeeld is het toeslagenschandaal in Nederland.
Een AI kan niet beoordelen of iemand per ongeluk een fout heeft gemaakt of wat iemands achtergrond is. Machine learning werkt op basis van een ‘loss function’; de verliesfunctie meet hoe goed je model is in het voorspellen van de verwachte uitkomst. Stel, een algoritme is voor 96% nauwkeurig in het goed opsporen van fraude, dan lijkt dat heel goed. De overige 4% is een foutmarge. Maar wat soms over het hoofd wordt gezien is dat dat om mensen gaat. Als die 4% bijvoorbeeld altijd wordt toegepast op een bepaalde bevolkingsgroep, is dat discriminerend. Het algoritme doet wat het moet doen, maar als we er volgens maatschappelijke maatstaven of menselijke waarden naar kijken, klopt het niet.
"Ik wil mijn kennis van de techniek achter AI mixen met iets relevants voor de maatschappij. Dus waarom niet de sociale wetenschappen toepassen op computerwetenschappen?"
Hoe gaat jouw onderzoek daar verandering inbrengen?
Ik ben van mening dat AI de ‘human touch’ mist. Ik wil mijn kennis van de techniek achter AI mixen met iets relevants voor de maatschappij. Dus waarom niet de sociale wetenschappen toepassen op computerwetenschappen? Dat kan zo simpel zijn als het labelen van nieuwscommentaar, om daar op terug te komen. De programmeur geeft een instructie, AI geeft een label. Alleen weten we dat bijvoorbeeld de achtergrond, het taalgebruik en de culturele achtergrond van een persoon ertoe doen om te bepalen wat haatzaaien of beledigen is en dat ook in een context te plaatsen.
Dat is wat we in de sociale wetenschappen doen, we houden rekening met de mogelijkheid op vertekening. De mogelijkheid dat een kleine groep afwijkt, wordt in de sociale wetenschappen niet bestraft. Als we methodes vinden om dat te integreren in een algoritme kunnen we daar beter op voorbereid zijn en ik denk dat we veel problemen kunnen beperken met deze statistieken.
Welke uitdagingen zijn er?
Die zijn er genoeg natuurlijk, maar dat zijn voornamelijk de technische mogelijkheden en mensen. Op technisch gebied moeten we goed kijken of de sociaalwetenschappelijke methoden goed werken met grote datasets. Ze werken goed voor ons met kleinere steekproeven en kleinere groepen, maar hoe vertalen ze zich naar big data? En hoe zit het met middelen, kosten, ethiek, privacy en de ecologische voetafdruk?
Daarnaast hebben we mensen nodig om de algoritmen te gebruiken, dat is echt een uitdaging natuurlijk. Het kan de perfecte methode zijn, maar misschien wil niemand het gebruiken. Vinden computerwetenschappers het bijvoorbeeld te veel tijd kosten of zien mensen de maatschappelijke waarde eigenlijk wel?
Hoe kan AI ‘minder kunstmatig’ zijn?
De meeste problemen in machine learning zijn eigenlijk niet eens allemaal technisch. AI kan al zoveel ongelooflijk complexe dingen, maar dat is allemaal gebaseerd op menselijk gedrag. En sociale vertekeningen in de data komen vaak van vertekeningen in mensen. Het maakt verschil waar een AI vandaan komt. Komt het van mensen die in een lab, losstaand van de realiteit, een dataset bouwen, dan is het kunstmatiger dan wanneer je een grote groep mensen vraagt waar je een algoritme voor wilt gebruiken en hoe menselijk ze de gegevens willen gebruiken. Het zullen nog steeds machine learning-modellen met verliesfuncties zijn, maar ze worden wel bepaald en beoordeeld volgens sociaalwetenschappelijke methoden. Er is een meer open, humane ontwikkeling en daardoor zou ik zeggen dat AI minder kunstmatig en meer menselijk kan zijn.
Welke concrete uitwerking verwacht je van het onderzoek om impact mee te maken?
Het onderzoek bestaat uit twee fasen. De eerste is een specifieke casestudy, namelijk over online haatzaaien en grof taalgebruik. Ik hoop dat we door het gebruik van sociaalwetenschappelijke methoden in algoritmen contentmoderatie op platforms zoals Facebook en Instagram kunnen realiseren. Dat zou direct een verschil kunnen maken op het gebied van content die mensen online zien. Het zou mooi zijn als we dus impact zien en we bedrijven als Meta en Google kunnen betrekken bij ons onderzoek.
"Het potentieel is heel groot. Als dit van de grond komt kan het worden gebruikt door overheden, banken, gezondheidszorgsystemen en techbedrijven."
Fase twee is het ontwikkelen van een machine-learning pakket dat iedereen kan downloaden en gebruiken. In theorie kunnen deze methoden worden toegepast op elke AI. Dus je kunt bijvoorbeeld ook Chat GPT, de populairste AI van het moment, zeggen welke content goed of niet goed is. Als je een AI in de leerfase voedt vanuit een sociaal bewustzijn, heb je misschien een Chat GPT die beter aansluit bij de behoeften van de maatschappij.
Het potentieel is heel groot. Als dit van de grond komt kan het worden gebruikt door overheden, banken, gezondheidszorgsystemen en techbedrijven zoals Open AI, Meta en Google. We moeten wel realistisch zijn en klein beginnen. Hopelijk kunnen we stap voor stap groeien en steeds meer partijen overhalen om mee te doen en hen te overtuigen om de overstap te maken van kunstmatige AI naar AI waarin de mens centraal staat.
- Onderzoeker
- Gerelateerde links
- Twelve Veni grants for Rotterdam researchers