ChatGPT geeft dieetadvies: Man eindigt met zeldzame vergiftiging
Auteur
Door Donnie
op 13/08 16:16

ChatGPT geeft dieetadvies: Man eindigt met zeldzame vergiftiging


Een flinke burn-out door broom

Een Amerikaanse zestiger wilde wat gezonder eten, gooide zijn keukenzout overboord en vroeg ChatGPT om hulp. Daarna ging het mis. In plaats van afvallen of minder natrium binnenkrijgen, kreeg de man ‘bromisme’: een zeldzame vorm van vergiftiging die tegenwoordig eigenlijk alleen nog in medische studieboeken voorkomt.

De man had geen medische aandoeningen, maar gebruikte een plek waar normaal een arts hoort te zitten: een AI-chatbot. Volgens het verslag in het gezaghebbende Annals of Internal Medicine leidde dit tot een bizarre kettingreactie. ChatGPT zou bromide hebben genoemd als alternatief voor chloride, wat in praktijk dus neerkwam op 'broom' eten in plaats van zout. In de jaren 30 was dit nog een ding in kalmeringsmiddelen, nu vooral een reden voor artsen om je hoofd te schudden.

(niet de man uit het verhaal)

Niet bedoeld als medisch advies

Volgens de artsen van de Universiteit van Washington laat dit voorbeeld zien dat AI niet zonder risico is, zeker niet als je het gaat inzetten als dokter. Medische AI’s zoals ChatGPT mogen dan steeds beter worden, maar soms komen er nog steeds kreupele antwoorden uit. Combineer dat met een gebruiker die braaf opvolgt wat er staat, en je hebt dus gewoon kans op een ziekenhuisbezoek. En als het fout gaat, is er niemand die je aansprakelijk kunt stellen.


Meer over
Delen

Video van de dag

Reacties