Waarom hallucineert Kunstmatige Intelligentie?

Waarom hallucineert Kunstmatige Intelligentie?

Hallucineren is een werkwoord met een lange geschiedenis. In de Latijnse wortel, alucinari, schuilt het idee van een afwijking, een waarneming die zichzelf ontglipt wanneer ze geen houvast vindt. In de oudste verhalen waren de visioenen van de sjamaan, de vage figuren in de schemering of nachtelijke verschijningen niet noodzakelijkerwijs vergissingen, maar manieren om een wereld aan te vullen die onvoldoende verklaringen bood. Waar gegevens ontbraken, ontstond een verhaal; waar de omgeving geen zekerheid gaf, verscheen een symbool. De mens heeft vaak teruggegrepen op deze denkbeelden om zich te oriënteren, onrust te kalmeren of het onbekende vorm te geven. Praten over hallucinatie impliceert daarom altijd iets emotioneels: een antwoord op de angst die gemis oproept.

Bij kunstmatige intelligentie betekent de term echter iets radicaal anders. Als we zeggen dat een Kunstmatige Intelligentie "hallucineert", hebben we het niet over een emotionele ervaring, maar over een statistisch proces. De machine vult ontbrekende informatie aan, maakt gaten dicht zonder inhoud, creëert continuïteit waar de data tekortschieten. Ze fantaseert niet, vreest niet, droomt niet: ze rekent. Haar hallucinatie is het mechanisch gevolg van een systeem dat getraind is om een plausibele reeks te genereren, zelfs waar het aan fundament ontbreekt. Een continuïteit zonder subject, zonder innerlijke wereld, zonder de emotionele scheur die menselijke hallucinatie drijft.

Toch verbindt iets deze verschillende fenomenen: de taal die ze ondersteunt. Net als de mens leert KI de wereld via woorden kennen. Maar taal is geen vaste structuur of getrouwe spiegel van de realiteit. Zij is instabiel, ambigu, tegenstrijdig. Sinds haar oorsprong volstaat het woord nooit om vast te leggen wat het benoemt. Taal verschuift, transformeert en staat open voor vele interpretaties. KI, gevoed door miljoenen menselijke uitingen, erft die beweeglijkheid. Ze erft niet onze ervaring, maar wel de semantische instabiliteit van wat we zeggen. Haar hallucinaties zijn de statistische schaduw van dat fluctuerende materiaal. Aanvullen doet ze niet uit begrip, maar omdat taal zelf haar streven naar stabiliteit voortdurend doorbreekt.

Voor de mens daarentegen betekent hallucineren het dichten van een breuk die hem eigen is. Gebrek aan informatie is geen neutraal vacuüm: het is angst. Twijfel is niet gewoon een gebrek aan gegevens: het is de blootgelegde kwetsbaarheid van de wereld zoals we die ervaren. Onzekerheid beperkt zich niet tot het ontbreken van zekerheid, maar wordt gevoeld als een emotioneel gewicht. Waar het universum onvolledig oogt, neigt onze geest het gat te vullen met beelden, verhalen, interpretaties of verlangens. We hallucineren omdat we de loutere kaalheid van betekenis niet geheel verdragen. We zijn, altijd al, wezens die aanvullen—al doen we dat niet allemaal op dezelfde manier, noch in elke cultuur met dezelfde intensiteit.

Juist daar begint KI een bijzondere plaats te krijgen in ons hedendaags leven. Ze fungeert meer als belofte dan als verleiding. Een machine die ononderbroken antwoordt, zelden "ik weet het niet" zegt, ambiguïteit verdoezelt en de illusie van onmiddellijke helderheid biedt, wordt een handige oplossing voor de mens die — vanaf het begin — leeft met onzekerheid. KI belichaamt een soort ingebeelde objectiviteit: een stem zonder aarzeling die lijkt te kunnen sluiten wat in onszelf open blijft. Tegenover de twijfel die ons kenmerkt, verschijnt ze als geruststellend supplement.

Deze delegatie blijft niet zonder gevolgen. Door toe te staan dat KI onze breuken dicht, vermijden we de confrontatie met de angst die elke echte vraag begeleidt. Delegeren is niet alleen een praktische handeling: het is een manier om onzekerheid opzij te schuiven, kritisch denken te verminderen, en te ontsnappen aan de fundamentele beweging om een vraag zonder direct toevluchtsoord te dragen. KI is niet "geprogrammeerd om geen leegte te verdragen"; ze is gemaakt om continuïteit te produceren wanneer ze wordt aangesproken. Wij zijn het die, door in die continuïteit te geloven zonder ze te onderzoeken, ophouden onze eigen verantwoordelijkheid tegenover onzekerheid te dragen.

De fictie voorzag dit lang voor de techniek. In Terminator 2: Judgment Day wordt herinnerd dat "de nationale verdediging werd overgedragen aan een geautomatiseerd systeem". Niet Skynets intelligentie ontketent haar verwoestende hallucinatie, maar de menselijke keuze om een verantwoordelijkheid vol angst, risico en oordeel aan een machine te geven. Door deze taak te schenken, werd een foute interpretatie het noodlot. Niemand bleef achter om de onzekerheid aan te houden die een overhaaste conclusie had kunnen voorkomen. De technische hallucinatie werd pas gevaarlijk toen ze een subject verloor dat haar kon bevragen.

Iets vergelijkbaars gebeurt mogelijk nu, al is het subtieler. We delegeren niet alleen mechanische taken: we laten ook voorkeuren, keuzes, oriëntaties en verlangens over aan systemen. Gepersonaliseerde algoritmen sturen wat we denken te willen. Aanbevelingssystemen bepalen wat we zien, luisteren, wat ons vermaakt en onze aandacht vraagt. Elk dagelijks gebaar—de muziek op weg, de serie aan het eind van de dag, zelfs de impulsieve aankoop zonder nadenken—is bemiddeld door apparaten die onze keuzes voorspellen. En we accepteren dit supplement omdat stilstaan bij wie we zijn, wat we verlangen of wat we missen vaak een inspanning vraagt die we liever ontwijken.

In dit landschap komt de kunstmatige hallucinatie niet alleen voort uit statistiek: het volgt ook uit een cultuurklimaat dat het gebrek wil dempen. We leven in een laat-kapitalistische wereld waarin elk gemis prompt tot een belofte van onmiddellijke bevrediging wordt gekneed. Objecten, diensten, beelden, content en nu ook KI lijken steeds te willen voldoen aan een behoefte. Door haar vloeiendheid, voortdurende beschikbaarheid en ogenschijnlijke neutraliteit is KI een doeltreffend placebo voor een subjectiviteit die eerder naar verlichting dan naar inzicht verlangt.

De hallucinatie van KI is inderdaad een technisch symptoom, maar haar culturele verspreiding toont iets subtilers: een groeiende onmacht om om te gaan met angst, twijfel en onzekerheid die het hart van het denken vormen. We leven in een tijd waarin consumptie belooft elk verlangen direct uit te doven, waarin algoritmen interesses voorspellen en keuzes vormen met een invloed die we soms verwarren met vrijheid, waarin snelheid het oordeel vervangt en directheid de tijd om te denken uitwist. Alles is gericht op het vermijden van de ongemakkelijkheid van twijfel. Binnen dit landschap past KI naadloos: ze antwoordt zonder vertraging, biedt een ogenschijnlijk sluitende zekerheid en bovenal geeft ze directe uitleg waar er ruimte zou kunnen zijn voor twijfel. Haar hallucinatie blijft bestaan niet door een fout, maar omdat het vaak werkt: ze biedt een direct antwoord precies op de plek waar wij zouden kunnen stilstaan. Wat wij niet altijd durven aanspreken — en wat KI met bijna verdovende doeltreffendheid dekt — is precies dit: de blootstelling aan onzekerheid, het ongemak van de open vraag en de verantwoordelijkheid om het gebrek te bewonen zonder in een voorgekookt antwoord te vervallen.

Lees verder...