ChatGPT geeft dieetadvies: Man eindigt met zeldzame vergiftiging
Een flinke burn-out door broom
Een Amerikaanse zestiger wilde wat gezonder eten, gooide zijn keukenzout overboord en vroeg ChatGPT om hulp. Daarna ging het mis. In plaats van afvallen of minder natrium binnenkrijgen, kreeg de man ‘bromisme’: een zeldzame vorm van vergiftiging die tegenwoordig eigenlijk alleen nog in medische studieboeken voorkomt.
De man had geen medische aandoeningen, maar gebruikte een plek waar normaal een arts hoort te zitten: een AI-chatbot. Volgens het verslag in het gezaghebbende Annals of Internal Medicine leidde dit tot een bizarre kettingreactie. ChatGPT zou bromide hebben genoemd als alternatief voor chloride, wat in praktijk dus neerkwam op 'broom' eten in plaats van zout. In de jaren 30 was dit nog een ding in kalmeringsmiddelen, nu vooral een reden voor artsen om je hoofd te schudden.
(niet de man uit het verhaal)
Niet bedoeld als medisch advies
Volgens de artsen van de Universiteit van Washington laat dit voorbeeld zien dat AI niet zonder risico is, zeker niet als je het gaat inzetten als dokter. Medische AI’s zoals ChatGPT mogen dan steeds beter worden, maar soms komen er nog steeds kreupele antwoorden uit. Combineer dat met een gebruiker die braaf opvolgt wat er staat, en je hebt dus gewoon kans op een ziekenhuisbezoek. En als het fout gaat, is er niemand die je aansprakelijk kunt stellen.