Uw gegevens. Uw keuze.

Als je alleen het noodzakelijke kiest, verzamelen we met cookies en vergelijkbare technologieën informatie over je apparaat en je gebruik van onze website. Deze hebben we nodig om je bijvoorbeeld een veilige login en basisfuncties zoals het winkelwagentje te kunnen bieden.

Als je overal mee instemt, kunnen we deze gegevens daarnaast gebruiken om je gepersonaliseerde aanbiedingen te tonen, onze website te verbeteren en gerichte advertenties te laten zien op onze eigen en andere websites of apps. Bepaalde gegevens kunnen hiervoor ook worden gedeeld met derden en advertentiepartners.

Cagkan Sayin/Shutterstock
Achtergrond

AI in de geneeskunde: wanneer je knie je biervoorkeur onthult

Anna Sandner
2/1/2025
Vertaling: machinaal vertaald

Kunstmatige intelligentie belooft details in medische beelden te herkennen die voor het menselijk oog verborgen blijven. Een nieuw onderzoek laat echter zien hoe gemakkelijk AI-modellen misleidende patronen in de gegevens kunnen vinden en tot verkeerde conclusies kunnen komen.

Kortere wegen leiden niet altijd naar de juiste bestemming: kortere wegen als risico

In hun paper gepubliceerd in Scientific Reports laten de auteurs zien hoe vatbaar deep learning algoritmen zijn voor zogeheten shortcutting. Dit is een fenomeen waarbij AI-modellen praktisch shortcuts nemen. Ze vertrouwen op oppervlakkige patronen in de trainingsgegevens in plaats van de werkelijk relevante medische kenmerken te leren.

Shortcutting treedt op wanneer een model een eenvoudige oplossing voor een taak vindt zonder het onderliggende probleem echt te begrijpen. In een medische context kan dit bijzonder problematisch zijn.

Hoe AI voorkeuren voor bier en bonen afleest van röntgenfoto's van knieën

verborgen correlaties in de gegevens

Waarom dit gevaarlijk is

"Deze resultaten laten zien hoe gemakkelijk het is om modellen te maken met verrassend nauwkeurige voorspellingen die elke plausibiliteit missen," waarschuwen de auteurs van het onderzoek. In medisch onderzoek zou dit tot verkeerde conclusies kunnen leiden. Als je denkt dat een AI-model een baanbrekende nieuwe ontdekking heeft gedaan, kan het eigenlijk gewoon een willekeurige correlatie in de gegevens hebben gevonden.

Het probleem van het kortsluiten gaat veel verder dan eenvoudige vertekening. Het onderzoek laat zien dat de modellen niet alleen gebruik maken van individuele verstorende factoren zoals geslacht of leeftijd, maar ook van complexe combinaties van verschillende variabelen. Zelfs als voor de hand liggende beïnvloedende factoren worden uitgesloten, vinden de algoritmes vaak andere manieren om hun voorspellingen te doen.

Omslagfoto: Cagkan Sayin/Shutterstock

94 mensen vinden dit artikel leuk


User Avatar
User Avatar

Wetenschapsredacteur en bioloog. Ik hou van dieren en ben gefascineerd door planten, hun mogelijkheden en alles wat je ermee kunt doen. Daarom is mijn favoriete plek altijd buiten - ergens in de natuur, het liefst in mijn wilde tuin.


Achtergrond

Interessante feiten uit de wereld van producten, een kijkje achter de schermen van fabrikanten en portretten van interessante mensen.

Alles tonen

Deze artikelen kunnen je ook interesseren

  • Achtergrond

    ChatGPT is empathischer dan artsen

    van Anna Sandner

  • Achtergrond

    Hoe kritisch kan AI zijn? - Een interview met een kunstmatige intelligentie

    van Martin Jud

  • Achtergrond

    Overvloed aan AI-muziek: meer is zeker niet beter

    van David Lee