João Gonçalves (ESHCC), Sonia de Jager (ESPhil) en Nick Jelicic (Future Library Lab) hebben een Academic Grant van 20.000 GPU-uren ontvangen van techbedrijf NVIDIA om het eerste generatieve large language model voor de Sociale en Geesteswetenschappen (SGW) te trainen. Het team verwacht dat dit gespecialiseerde model zal leiden tot doorbraken in de sociale en geesteswetenschappen en ons beter zal laten begrijpen in hoeverre AI menselijke redeneringen kan nabootsen op gebieden als filosofie, communicatie en psychologie.
Het model zal uitsluitend worden getraind met databronnen van de SGW, waardoor het heel anders is dan de huidige state-of-the-art modellen zoals OpenAI's o1 of DeepSeek-R1, die zich specialiseren in gebieden als wiskunde en codering. Het ambitieuze doel om doorbraken in GSW te bereiken is alleen mogelijk door een donatie van rekenkracht van NVIDIA, de grootste wereldwijde leverancier van AI-chips. Ondanks de grote hoeveelheden rekenkracht die nodig zijn, blijft Joao Gonçalves zich bewust van het belang van duurzaamheid. “De rekenkracht die we hebben gekregen is nog steeds maar een fractie van wat commerciële taalmodellen zoals ChatGPT, Grok of Gemini gebruiken. Op de lange termijn hopen we ook aan te tonen dat kleinere, duurzame, gespecialiseerde taalmodellen even goed of zelfs beter kunnen presteren dan de grotere modellen.”
Het hoofddoel van dit project is onderzoek, dus het kan mogelijk helpen bij aspecten zoals de analyse van historische documenten of de interpretatie van situaties vanuit een sociologische lens. De ontdekkingen en innovaties van een SSH-model zullen waarschijnlijk resulteren in algemene taalmodellen die beter in staat zijn om kritisch te redeneren en kennis op te halen. Het model wordt de komende zes maanden getraind.
- Onderzoeker
- Onderzoeker
- Onderzoeker
- Gerelateerde content