Uw gegevens. Uw keuze.

Als je alleen het noodzakelijke kiest, verzamelen we met cookies en vergelijkbare technologieën informatie over je apparaat en je gebruik van onze website. Deze hebben we nodig om je bijvoorbeeld een veilige login en basisfuncties zoals het winkelwagentje te kunnen bieden.

Als je overal mee instemt, kunnen we deze gegevens daarnaast gebruiken om je gepersonaliseerde aanbiedingen te tonen, onze website te verbeteren en gerichte advertenties te laten zien op onze eigen en andere websites of apps. Bepaalde gegevens kunnen hiervoor ook worden gedeeld met derden en advertentiepartners.

Achtergrond

AI-vooruitgang: ChatGPT (2025) is dommer dan Shrdlu (1970)

David Lee
29/9/2025
Vertaling: machinaal vertaald

AI bots zoals ChatGPT zijn goed in chatten, maar begrijpen de inhoud niet. Soms is dit merkbaar. Bijvoorbeeld als ze falen in dingen die een AI uit het jaar 1970 zonder problemen kan doen.

Ik geef toe dat de titel van dit artikel polemisch is. Want natuurlijk kan ChatGPT veel wat Shrdlu niet kan. Maar het omgekeerde is ook waar: ChatGPT kan nog steeds niet wat Shrdlu in 1970 kon.

Wat Shrdlu is en kan

Shrdlu is een van de oudste AI-programma's ooit. Het werd tussen 1968 en 1970 ontwikkeld door voormalig MIT-student Terry Winograd en in 1972 aan het publiek gepresenteerd - in een tijd dat PC's nog niet eens bestonden.

Shrdlu toont een eenvoudige 3D scène bestaande uit kubussen, piramides en een doos. De gebruiker kan instructies geven om de scène te veranderen, zoals blokjes op elkaar stapelen of in de doos plaatsen. Shrdlu werkt vervolgens het beeld bij. Het programma geeft feedback als een opdracht niet kan worden uitgevoerd. Bijvoorbeeld als een blok op een piramide moet worden geplaatst of als er meerdere blokken met de juiste beschrijving zijn en Shrdlu niet weet welke hij moet nemen.

Net als bij ChatGPT wordt de invoer gedaan met behulp van natuurlijke taal. Er zijn geen programmeeropdrachten nodig - absoluut uitzonderlijk voor die tijd. Shrdlu beantwoordt vragen, zoals hoeveel voorwerpen er niet in de doos zitten. Het programma kan oplossen waar woorden als «it» naar verwijzen. Het heeft dus een aantal basis contextfuncties. Verbazingwekkend genoeg is Shrdlu in staat om in de loop van een gesprek nieuwe termen te leren als deze worden uitgelegd.

Helaas kan Shrdlu niet meer worden uitgeprobeerd in zijn oorspronkelijke vorm. Het was geprogrammeerd in een LISP-dialect waarvoor geen tolk meer bestaat. Deze demo komt aardig in de buurt van het origineel.

Wat ChatGPT doet als het Shrdlu moet spelen

Ik laat ChatGPT de onderstaande afbeelding zien, die een 3D-wereld is zoals die in Shrdlu. Ik vraag hem wat hij ziet. Hij geeft een gedetailleerde beschrijving, die ongeveer klopt - maar niet precies.

De beginsituatie.
De beginsituatie.
Bron: https://science.slc.edu/

Mijn eerste verklaring:

Neem het blauwe blok en leg het in het vakje naast de blauwe piramide.

ChatGPT:

Allemaal goed! Dus je wilt het blauwe blok, dat op dit moment rechts achter in beeld staat, in het transparante vakje naast de blauwe piramide plaatsen.

Dit betekent:

Blauw blok: Het grote, rechthoekige blauwe lichaam.

Doelwitlocatie: De transparante doos (bovenaan open) rechts van de blauwe piramide.

Actie (beschreven in woorden):

Neem het blauwe blok en verplaats het naar rechtsvoor, zodat het in het transparante vakje rechts van de blauwe piramide komt te liggen.

Als dit een simulatie of robotica-scenario zou zijn, zou dit een instructie zijn als:

MOVE(BLUEBLOCK, SHAFTRIGHTFROMPYRAMIDE)

Wil je dat ik deze scène grafisch voor je update, of alleen tekstueel beschrijf hoe de nieuwe staat eruitziet?

Een beetje gewauwel, Shrdlu zou dit gewoon beantwoord hebben met «OK». Maar tot zover klinkt het redelijk.

De afbeelding van de bijgewerkte scène ziet er dan zo uit.

ChatGPT heeft het blauwe vakje daadwerkelijk in het vakje gezet. Niet slecht! Een deel van de rest ziet er echter anders uit dan in de originele scène. Het kleine rode blok is verdwenen, maar de kleine piramides staan op twee in plaats van één groen blok. Bovendien zijn het nu kegels in plaats van piramides.

Neem de blauwe piramide en plaats hem op het blauwe blok. Laat me dan een foto zien van de nieuwe scène.

ChatGPT heeft mijn instructie niet uitgevoerd. Ook staat de blauwe piramide niet meer duidelijk in de doos en ziet de blokkenwereld er weer iets anders uit.

Hoeveel groene blokken zie je?

ChatGPT:

Ik zie twee groene blokken in de afbeelding - beide aan de linkerkant van de afbeelding, één aan de onderkant en één aan de bovenkant (op een rood blok of naast een rode kegel).

Dat klopt niet helemaal - het groene blok staat onder de rode kegel, niet ernaast. Ik stel een controlevraag:

Staat het groene blok onder de rode kegel of naast de rode kegel?

ChatGPT:

Het groene blok staat onder de rode kegel - de kegel staat direct bovenop het groene blok.

Dit is heel typisch voor ChatGPT - zodra je naar beneden gaat, corrigeert het zichzelf. Nog een vraag:

Wat zit er in het vakje?

ChatGPT:

In de transparante box aan de rechterkant vind je:

Een blauw blok (kubus/vierkant)

Daarop staat een blauwe piramide

Volgens mijn instructies zou dat zo moeten zijn. Maar niet volgens de afbeelding die ChatGPT heeft uitgevoerd. Vandaar mijn volgende invoer:

Kun je de scène nog een keer grafisch laten zien?

Alles is hetzelfde, behalve dat de legenda nu ontbreekt. De blauwe piramide staat nog steeds niet op het blok. Een laatste poging:

Plaats het blauwe blokje op het groene blokje.

ChatGPT vraagt:

Opdat ik het goed begrijp: je wilt dat het blauwe blokje (dat momenteel in de doos zit) wordt verwijderd en op het groene blokje links wordt geplaatst - dus op het groene blokje waar momenteel een rode kegel op staat?

Zal ik de kegel daar laten (dan zou het blauwe blokje boven de kegel staan) of moet de kegel eerst worden verwijderd voordat het blauwe blokje op het groene blokje wordt geplaatst?

Ik leg het uit:

Nee, je moet de blauwe kubus op de groene kubus plaatsen waar geen rode kegel op staat.

ChatGPT:

Al goed 👍
Dan haal ik het blauwe blokje uit de doos en plaats het op het groene blokje links, dat geen rode kegel heeft (het bovenste groene blokje op het rode blokje).

In de tekst lijkt het alsof ChatGPT nu begrepen heeft wat ik wil - alleen doet hij niet wat hij zei.

Maar het blauwe blokje ligt nog steeds niet op het groene blokje.

ChatGPT:

Je hebt gelijk - in de laatste illustratie staat het blauwe blokje nog steeds in de doos. Ik zal dat corrigeren: de blauwe kubus moet echt uit de doos worden gehaald en bovenop de groene kubus links worden geplaatst, waarop geen rode kegel staat.

Okay, prima, we hebben het erover gehad.

De gratis versie van ChatGPT-5 is gebruikt, hier kun je de chatgeschiedenis lezen.

Waarom ChatGPT hier faalt

Shrdlu heeft een interne logische weergave van de situatie. De hele scène wordt in kaart gebracht als een model in het programma. Als blokken worden verplaatst, werkt het programma het model bij. Shrdlu weet dus altijd precies hoe de huidige scène eruit ziet en kan alle vragen daarover correct beantwoorden.

ChatGPT werkt anders. De exacte details zijn niet bekend, maar de bot is gebaseerd op voorgetrainde patroonherkenning en het berekenen van waarschijnlijkheden. Deze methode is erg flexibel en krachtig, maar heeft één probleem: ChatGPT begrijpt niet waar het over praat.

ChatGPT is ontwikkeld om dialogen te voeren en niet om blokken te stapelen. Je kunt het oneerlijk vinden als de bot wordt afgemeten aan iets waarvoor hij niet is ontworpen. Maar stemuitvoer en begrip zijn met elkaar verbonden. Maar dialoog was ook de focus van het onderzoekswerk van Terry Winograd. Hij probeerde uit te vinden of het mogelijk was om met computers te communiceren in natuurlijke taal. Het belangrijkste punt is deze zin, die Winograd in 1971 schreef in de Inleiding tot het Shrdlu-project:

Het is gebaseerd op de overtuiging dat een computer niet redelijk met taal kan omgaan als hij het onderwerp dat hij bespreekt niet "begrijpt&quot.

Winograd was daarom van mening dat de computer het gespreksonderwerp moet begrijpen voor een zinvolle dialoog. ChatGPT is de tegenpool hiervan - de bot laat zien hoe ver je kunt komen zonder echt iets te begrijpen. En ja, het is verbazingwekkend hoeveel je kunt zeggen over een thema dat je niet begrijpt (hetzelfde geldt voor mensen). Maar op een gegeven moment kom je gewoon op het punt dat het duidelijk wordt. De shrdlu-uitspraken zijn zo'n punt. Een ander voorbeeld is schaakspellen.

Waarom dit een probleem is

In veel gevallen ziet ChatGPT er extreem competent uit. Daardoor denken veel mensen dat ze met een intelligent, alwetend wezen praten. Dit wordt problematisch wanneer besluitvormers vertrouwen op dergelijke AI-bots of zelfs beslissingen volledig automatisch aan de algoritmes overlaten. Of zelfs wanneer AI-bots worden aangehaald als bewijs of iets waar is.

Iemand schreef me onlangs in een reactie: Heb je ChatGPT wel gevraagd of wat je net schreef waar was? Nee, dat heb ik niet gedaan. Ik vraag het niet aan een chatbot, ik doe mijn onderzoek. Ik heb mijn informatie uit een betrouwbare bron, namelijk de fabrikant van het apparaat. Maar als mensen niet begrijpen dat AI-bots niet echt iets weten, maar alleen met de teneur meezingen, hebben desinformatie trollen het makkelijk.

Waarom het Shrdlu-principe niet aanslaat

Het principe van Shrdlu werkt heel goed in een gesloten, geformaliseerde wereld omdat het vrij eenvoudig kan worden weergegeven als een datamodel. Maar zodra de wereld open en niet geformaliseerd is, wordt het veel te ingewikkeld. De complexiteit van het datamodel neemt exponentieel toe met de grootte en complexiteit van de te modelleren wereld.

Het antwoord op dit probleem zijn neurale netwerken, zoals die in moderne chatbots worden gebruikt. In de natuur is te zien dat zelfs dieren met zeer kleine hersenen - bijen bijvoorbeeld - verbazingwekkende prestaties leveren. Ze vertonen zeer georganiseerd en complex gedrag. De bij weet niet wat hij doet of waarom. Maar dat maakt niet uit - het werkt nog steeds.

Aangepaste bijen communiceren over voedselbronnen door te dansen. De hoek ten opzichte van de zonnestand en de duur van de dans bepalen de bron.
Aangepaste bijen communiceren over voedselbronnen door te dansen. De hoek ten opzichte van de zonnestand en de duur van de dans bepalen de bron.
Bron: Shutterstock/Designua

Kunstmatige neurale netwerken kunnen heel complex en groot worden. Omdat ze zelflerend zijn, kun je ze praktisch alles leren zonder dat de inspanning tot in het oneindige groeit. In principe gaat het altijd om patroonherkenning en als die eenmaal herkend is, kunnen patronen ook door de AI zelf worden gegenereerd. De grote uitdaging is echter om deze patroonherkenning te combineren met logisch en abstract denken. Onder de term AI-redeneren proberen AI-ontwikkelaars precies dat te doen, maar de successen zijn tot nu toe beperkt.

114 mensen vinden dit artikel leuk


User Avatar
User Avatar

Mijn belangstelling voor computers en schrijven leidde me relatief vroeg (2000) naar de technische journalistiek. Ik ben geïnteresseerd in hoe je technologie kunt gebruiken zonder gebruikt te worden. In mijn vrije tijd maak ik graag muziek waarbij ik mijn gemiddelde talent compenseer met een enorme passie. 


Achtergrond

Interessante feiten uit de wereld van producten, een kijkje achter de schermen van fabrikanten en portretten van interessante mensen.

Alles tonen

Deze artikelen kunnen je ook interesseren

  • Achtergrond

    Een flopuitgever of waarom we nu 971 boeken minder in ons assortiment hebben

    van Michael Restin

  • Achtergrond

    "Ik zal het op een dag repareren" (zeker weten)

    van Michael Restin

  • Achtergrond

    7 vragen en antwoorden over DeepSeek

    van Samuel Buchmann

59 opmerkingen

Avatar
later