Uw gegevens. Uw keuze.

Als je alleen het noodzakelijke kiest, verzamelen we met cookies en vergelijkbare technologieën informatie over je apparaat en je gebruik van onze website. Deze hebben we nodig om je bijvoorbeeld een veilige login en basisfuncties zoals het winkelwagentje te kunnen bieden.

Als je overal mee instemt, kunnen we deze gegevens daarnaast gebruiken om je gepersonaliseerde aanbiedingen te tonen, onze website te verbeteren en gerichte advertenties te laten zien op onze eigen en andere websites of apps. Bepaalde gegevens kunnen hiervoor ook worden gedeeld met derden en advertentiepartners.

Shutterstock/PixieMe
Nieuws en trends

Copiloot bedenkt voetbalwedstrijd en veroorzaakt schandaal in Groot-Brittannië

Debora Pape
15/1/2026
Vertaling: machinaal vertaald

In het Verenigd Koninkrijk is een veiligheidsrapport van de West Midlands Police zwaar bekritiseerd. Het is nu aan het licht gekomen dat het gebaseerd is op valse verklaringen van Microsofts AI "Copilot".

Het Verenigd Koninkrijk geeft op dit moment een perfect voorbeeld van waarom je informatie van een AI niet moet accepteren zonder het te controleren. Het geval van een UEFA Europa League voetbalwedstrijd in Birmingham op 6 november zorgt daar voor opschudding: In oktober kondigde de verantwoordelijke politieautoriteit aan dat ze geen bezoekende fans zou toelaten voor de wedstrijd tussen de Engelse club Aston Villa en de Israëlische club Maccabi Tel Aviv.

De beslissing was gebaseerd op het feit dat de politie geen toestemming had gegeven voor de wedstrijd.

De beslissing was gebaseerd op een intern rapport van de West Midlands Police en Birmingham City Council, waarin de wedstrijd werd aangemerkt als een risicowedstrijd. Nu is gebleken dat Microsofts chatbot Copilot was gebruikt voor de risicoanalyse - maar onjuiste informatie had verstrekt. Copilot noemde onder andere rellen bij een eerdere wedstrijd die nooit hadden plaatsgevonden.

Risicoanalyse gebaseerd op niet-geverifieerde valse verklaringen

Verder waren de verantwoordelijken, vooral het hoofd van de West Midlands Police, Craig Guildford, wekenlang bekritiseerd voor het uitsluiten van de Israëlische fans. Omdat er beschuldigingen van antisemitisme werden geuit, werd de zaak vanaf het begin ook uitgebreid besproken in de Britse politiek: Guildford en andere leden van de autoriteiten moesten bij verschillende gelegenheden vragen beantwoorden in het parlement.

Guildford had eerder ontkend dat AI was gebruikt voor het rapport en noemde in plaats daarvan een foutieve Google-zoekopdracht. In december verklaarde zijn autoriteit zelfs dat het interne gebruik van AI-tools niet was toegestaan. Nu heeft Guildford de betrokkenheid van Copilot toegegeven en zijn excuses aangeboden voor de verkeerde informatie uit het verleden. Hooggeplaatste politici roepen op tot zijn ontslag.

Copilot verzint een voetbalwedstrijd

De officiële verklaring over het niet toelaten van gastfans verwijst naar geheime verslagen en gewelddadige rellen door Maccabi-fans bij een wedstrijd in Amsterdam in 2024. De Nederlandse politie spreekt dit echter tegen in een brief.

De geheime rapporten bevatten blijkbaar verwijzingen naar een eerdere wedstrijd tussen Maccabi Tel Aviv en West Ham United - die echter nooit heeft plaatsgevonden. Hoe een fictieve wedstrijd in een officiële risicoanalyse terecht kan komen en waarom dergelijke informatie niet wordt gecontroleerd, staat sindsdien centraal in het onderzoek naar de zaak.

Onder het invoermasker van de chatbot Copilot is te lezen: «Copilot is een AI en kan fouten maken». Het incident illustreert drastisch de risico's van moderne taalmodellen. AI-chatbots genereren hun antwoorden op basis van waarschijnlijkheden, niet omdat ze de context begrijpen. Huidige onderzoeken - zoals dit - laten zien dat grote taalmodellen gewoon systematisch misleid kunnen worden.

Copilot kan patronen uit eerdere spelletjes of berichten hebben gecombineerd en daaruit een fictief scenario hebben gecreëerd. Het fenomeen van het verzinnen van geloofwaardige verklaringen staat bekend als AI-hallucinatie.

Voor toepassingsscenario's met gevoelige gegevens of verstrekkende gevolgen is het daarom essentieel om de gegenereerde teksten te controleren op juistheid.

Omslagfoto: Shutterstock/PixieMe

6 mensen vinden dit artikel leuk


User Avatar
User Avatar

Voelt zich net zo thuis voor de spelcomputer als in de hangmat in de tuin. Houdt onder andere van het Romeinse Rijk, containerschepen en sciencefictionboeken. Bovenal speurt hij naar news uit de IT-sector en slimme dingen.


Nieuws en trends

Van de nieuwe iPhone tot de wederopstanding van de mode uit de jaren 80. De redactie categoriseert.

Alles tonen

Deze artikelen kunnen je ook interesseren

  • Nieuws en trends

    Vanwege AI: "Clair Obscur: Expeditie 33" toch geen indiegame van het jaar

    van Michelle Brändle

  • Nieuws en trends

    Zuckerbergs visie van de metaverse is mislukt

    van Debora Pape

  • Nieuws en trends

    ChatGPT kan binnenkort persoonlijke medische gegevens voor je analyseren

    van Debora Pape

3 opmerkingen

Avatar
later