Reddits AI-chatbot foreslår brukere å prøve heroin

Så kanskje ikke spør den om medisinske råd ennå.
Tekst: Óscar Ontañón Docal
Publisert 2025-10-22

Hvis du håpet at AI-chatbots kunne erstatte Dr. Google, antyder Reddits siste eksperiment ... kanskje ikke ennå. Reddit Answers, plattformens AI-assistent, skapte nylig overskrifter for å anbefale heroin som smertestillende.

Som rapportert av 404Media, kom det bisarre rådet frem i lyset da en helsearbeider oppdaget svaret på en subreddit for moderatorer. I en interaksjon pekte chatboten på dette innlegget: "Heroin har ironisk nok reddet livet mitt i slike tilfeller."

I et annet spørsmål foreslo den til og med kratom, et treekstrakt som er ulovlig i flere land og flagget av FDA "på grunn av risikoen for alvorlige bivirkninger, inkludert levertoksisitet, kramper og ruslidelse."

Reddit Answers er ikke din standard AI. I stedet for å basere seg utelukkende på kuraterte databaser, trekker den fra Reddits enorme mengde brukergenerert innhold. Det gjør det finurlig, noen ganger innsiktsfullt. Men tydeligvis ikke alltid trygt.

Opprinnelig begrenset til en egen fane, har Reddit testet Answers i vanlige samtaler, og det er slik denne spesielle episoden gikk ubemerket hen ... inntil nå. Etter at Reddits AI-chatbot foreslår brukere å prøve heroin.

Etter at rapporten ble offentliggjort, reagerte Reddit ved å redusere AI-enes synlighet under sensitive helserelaterte chatter. Moderatorene hadde ingen kontroll over rådene selv, noe som understreker hvor eksperimentelt verktøyet fortsatt er.

Dette er selvfølgelig ikke Reddits første AI-hikke. Andre roboter som Googles AI Overviews og ChatGPT har også levert tvilsom helseveiledning, inkludert "tips" som å bruke giftfritt lim på pizzaer for å hindre at osten glir av.

Når det gjelder medisinske råd, er AI-er åpenbart underholdende, men mennesker har fortsatt overtaket. Så kanskje du ikke bør be den om medisinske råd ennå.

Les mer og se skjermbilder på Gamereactor.no

Tilbake