BLOG

Inald Lagendijk

Inald Lagendijk

Voormalig bestuursllid (2022-2024)

Opwinding

In de wereld van Kunstmatige Intelligentie heeft generatieve AI, vooral vertegenwoordigd door Large Language Models zoals ChatGPT, een opmerkelijke opmars gemaakt. Deze technologieën worden allang niet alleen toegepast voor het produceren van creatieve content zoals teksten en foto’s, en talige toepassingen zoals het samenvatten van lange documenten. Ze breiden zich ook steeds meer uit naar vele andere toepassingsgebieden. Terwijl deze ontwikkeling gepaard gaat met opwinding over de mogelijkheden, roept het ook belangrijke vragen op over de grenzen van innovatie in de context van engineeringstoepassingen.

Omzetten trainingsdata

Om deze grenzen te kunnen duiden, moeten we tot de kern van hedendaagse AI doordringen. Een belangrijke stap is het omzetten van de trainingsdata naar hoog-dimensionale vectoren. Deze omzetting gebeurt zodanig dat essentiële structuren en informatie in de data wordt behouden. Door de positionering van de soms honderden miljarden vectoren in een hoog-dimensionale ruimte leert het AI algoritme hoe de structuur van de werkelijkheid er uit ziet. Het getrainde generatieve AI model kan vervolgens op basis van een vraag –de prompt genoemd – in deze ruimte sequentieel vectoren selecteren die tezamen het antwoord vormen.

Valt het in de werkelijkheidsruimte?

Bij ‘normaal’ functioneren zullen de door het AI systeem gekozen vectoren representatief zijn voor de trainingsdata. Het makkelijkste is dat voor te stellen als interpolatie van de trainingsdata binnen de werkelijkheidsruimte. Het antwoord valt in dat deel van de ruimte die door de trainingsvectoren is opgespannen. Het antwoord van het AI systeem is dan betekenisvol, erg handig en spaart veel tijd uit.
Maar het kan tegelijkertijd niet echt verrassend zijn omdat het binnen de door ons bekende werkelijkheidsruimte valt.

AI-hallucinaties

Wat gebeurt er wanneer het AI-model antwoorden produceert op basis van vectoren die buiten de werkelijkheidsruimte vallen? Keuzen gaat maken die in de werkelijkheid nog nooit gezien zijn. En dus geen interpolatie van de honderden miljarden trainingsvectoren zijn, maar extrapolatie naar het onbekende? Wat er dan aan antwoorden uitkomt, is op zijn zachts gezegd onvoorspelbaar. Dit fenomeen, bekend als ‘hallucineren’ van de AI, roept zowel fascinatie als zorg op. Hallucineren van AI wordt ongewenst gevonden – tenzij je op zoek bent naar het digitale variant van LSD of lachgas – en wordt gezien als één van de belangrijkste risico’s van generatieve AI. Allerlei aanpakken en termen zijn bedacht om dit gedrag te vermijden, zoals human-centric AI, guard rails, en AI-alignment.

Great minds nodig

Echte doorbraken komen juist door buiten de gebaande paden te treden. Door antwoorden te zoeken die buiten de bekende werkelijkheidsruimte liggen. En waarvoor we simpelweg geen trainingsdata hebben omdat nog nooit iemand eraan gedacht heeft. Is dat niet wat ‘great minds’ doen? Is dat niet wat de recent overleden Peter Higgs met zijn ene brain wave heeft bijgedragen aan de moderne deeltjesfysica? Is dat ook niet wat we verwachten van disrupties in engineering om oplossingen te vinden voor de grote maatschappelijke uitdagingen waar we voor staan in deze wereld?

37ste zet tegen Lee Sedol

Heeft AI al niet de eerste tekenen laten zien daartoe in staat te zijn door de beroemde 37e zet in partij 2 tegen Lee Sedol? De paradox is daarom: moeten we generatieve AI in engineeringstoepassingen aan de leiband leggen, of moeten we ruimte laten voor grenzeloze creativiteit en innovatie? Zijn we bereid om AI voorbij de grenzen van de werkelijkheid te laten dwalen, wetende dat dit zowel kansen als risico’s met zich meebrengt?