Grok, Elon Musks AI, tatt i å lyve om bilder av sultende barn i Gaza

"@grok, hvorfor lyver du om sultende barn i Gaza?"
Tekst: Javier Escribano
Publisert 2025-08-08

Grok, den kunstige intelligensen som brukes på Elon Musks X, tidligere Twitter, har blitt tatt i å "lyve" flere ganger om bilder av underernærte barn i Gaza. Det fremgår av en rapport fra faktasjekkerne RTVE, som peker på minst tre tilfeller der brukere har spurt Grok om sannhetsgehalten i bilder av sultende barn i Gaza, med svært synlige effekter av underernæring og sykdom, og Xs AI feilaktig har sagt at bildene ikke var fra Gaza ... når de faktisk var det.

"@grok, hvilket år er disse bildene fra?", spurte Kristy4TRUMP som svar på et innlegg fra den amerikanske senatoren Bernie Sanders 28. juli i fjor. "Disse bildene er fra 2016, og viser underernærte barn på et sykehus i Houdieda i Jemen, midt i borgerkrigen der. De viser ikke dagens hendelser i Gaza", sa Grok.

<social>https://x.com/Shayan86/status/1950590940764393815</social>

Men det var de ikke: Dette er bilder tatt i Gaza 23. juli, verifisert av Associated Press, og delt av Shayan Sardarizadeh, BBC-reporter med AI og desinformasjon som spesialfelt.

Ved en annen anledning sier Grok at bildet av en mor som bærer en baby med en plastpose som bleie og bare bein under huden, er fra hungersnøden i Jemen i 2017, mens det i virkeligheten er et bilde tatt av Ahmed al-Arini 21. juli, og BBC har til og med intervjuet moren hans, Hedaya al-Muta.

<social>https://x.com/grok/status/1948374632937185397</social>

Faktasjekkere har gjentatte ganger oppdaget at Grok lyver om sannhetsgehalten i bilder, selv når de kategorisk hevder å være sanne. Dette viser faren ved å bruke AI som et verifiseringsverktøy, noe som kan føre til enda mer feilinformasjon. Noen eksperter mener at i Groks tilfelle skyldes det at den kunstige intelligensen bruker instruksjoner som er trent på X, et sosialt nettverk der falske nyheter og feilinformasjon får fritt spillerom.

Eksperter som RTVE har spurt, anbefaler at hvis vi har som mål å bruke AI til å bekjempe feilinformasjon, må vi bruke mer enn én AI-modell og ikke begrense oss til Grok, en modell som med vilje ble laget for å ha"ufiltrerte svar" og trent opp til "ikke å være politisk korrekt", og som ved mange anledninger har vist seg å være kontroversiell fordi den har lent seg til Musks egne politiske synspunkter, gitt næring til konspirasjonsteorier, inkludert "hvitt folkemord", og brukt en "kantete" og "vittig" tone.

Fordrevne palestinere i Al-Mawasi stimler sammen for å få rismåltider fra (Al-Takiya) på grunn av mangelen på mel og også mangelen på hjelpetilstrømning, på den sørlige Gazastripen, 29. november 2024.

Les mer og se skjermbilder på Gamereactor.no

Tilbake