
YouTuber Benn Jordan is nog nooit in Israël geweest, maar volgens de AI-samenvatting van Google was hij er wel geweest en had hij er een video over gemaakt. Toen begon de negatieve reactie.
Wetenschap- en muziek-YouTuber Benn Jordan had het eerder deze week moeilijk nadat Google’s AI Summary ten onrechte beweerde dat hij onlangs Israël had bezocht en mensen deed geloven dat hij het land steunde tijdens de oorlog in Gaza. Jordan steunt Israël niet en heeft eerder gedoneerd aan Palestijnse goede doelen.
Jordan vertelde 404 Media dat wanneer mensen zijn naam intypen in Google, er vaak “wenkbrauwen” of “vrouw” achteraan komt. Dat veranderde toen de populaire politieke Twitch-streamer Hasan Piker besloot te reageren op zijn video over Flock AI , een bedrijf dat camera’s met AI-technologie gebruikt en waar 404 Media uitgebreid over heeft geschreven. Jordans video’s waren al eerder op Pikers stream verschenen, dus hij wist dat hij een flinke kluif aan zijn broek had. “Elke keer dat hij op mijn content reageert, denk ik: ‘Oh nee, ik word voor miljoenen mensen afgekraakt omdat ik een libertariër ben zonder mijn standpunten te kunnen uitleggen’,” zei hij.
Deze keer was het echter een beetje anders. “Ik keek ernaar en midden in het gesprek werd zijn gesprek een beetje gek. Hij zei dat ik Israëls genocide steunde,” zei Jordan. “En toen kreeg ik een hoop berichten van mensen die me vroegen waarom ik me niet duidelijk uitspreek over Israël, of waarom ik Israël wel steun. Ik heb veel geld gedoneerd aan het Palestijnse Kinderhulpfonds. Ik heb in het verleden vrij openlijk gezegd dat ik Israël niet steun en dat ik een vrije Palestijnse staat steun.”
Toen stuurde iemand hem een screenshot van de door AI gegenereerde samenvatting van een Google-zoekresultaat, die de stortvloed aan berichten verklaarde. Als je “Benn Jordan Israel” in Google typte en alleen naar de AI-samenvatting keek, kreeg je dit te zien:
“Elektronisch muzikant en wetenschaps-YouTuber Benn Jordan is onlangs betrokken geraakt bij het Israëlisch-Palestijnse conflict, wat online tot aanzienlijke controverse en discussie heeft geleid. Hij heeft zijn ervaringen gedeeld van een reis naar Israël, waarbij hij mensen uit kibboetsen nabij de grens met Gaza interviewde”, aldus de AI-samenvatting, volgens een screenshot die Jordan op Bluesky deelde . “Op 18 augustus 2025 uploadde Benn Jordan een YouTube-video met de titel I Was Wrong About Israel: What I Learned On the Ground , waarin hij zijn recente reis naar Israël beschreef.”
This is SO messed up. 🫥I had a few messages and tags today asking me to clarify my stance on Israel, which was odd as I've been pretty outspoken against genocide and in full support of Palestinian statehood…
— Benn Jordan (@bennjordan.bsky.social) 2025-08-31T07:09:09.895Z
Jordan was nog nooit in Israël geweest en maakt geen content over oorlog. Zijn video’s bevinden zich op het snijvlak van wetenschap en geluid en hij ging eerder dit jaar viraal toen hij een PNG-schets omzette in een audiogolfvorm en het liedje aan een jonge spreeuw leerde , waarmee hij in feite een digitaal beeld opsloeg in het geheugen van een vogel. Hij heeft ook verslag gedaan van de dood van Spotify , het afbrokkelende Amerikaanse kapitalisme en de unieke gevaren die AI voor muzikanten vormt.
Het leek erop dat de AI van Google Jordan had verward met YouTuber Ryan McBeth, een man die wél video’s over oorlog maakt. McBeth is een kettingrokende NEWSMAX-commentator met een video getiteld “I Was Wrong About Israel: What I Learned on the Ground”, exact dezelfde titel waar Google dacht dat Jordan verantwoordelijk voor was.
Het is een vreemde fout die AI maakt, maar AI maakt veel fouten. Door AI gegenereerde nummers zijn slechter dan echte nummers, door AI gegenereerde zoekresultaten leiden verkeer weg van de sites waar Google de informatie vandaan haalt die het samenvat en die vaak onjuist zijn . Jordans ervaring is slechts een klein voorbeeld van wat er gebeurt als mensen AI voor waar aannemen zonder vijf minuten extra onderzoek te doen.
Toen Jordan erachter kwam dat de AI-samenvatting hem verkeerd had geïnterpreteerd, begon hij het verhaal te delen op Bluesky en Threads. Hij vertelde 404 Media dat de AI-samenvatting zichzelf ongeveer 24 uur later bijwerkte. “Uiteindelijk zag de AI dat ik erover had gepost en zei toen dat er een gerucht over mij de ronde deed, een vals gerucht, over mijn reis naar Israël. En toen trok ik me de haren uit mijn hoofd. Ik dacht: ‘Je weet niet eens dat je het gerucht hebt gecreëerd!'”
Hij vertelde 404 Media dat hij dacht dat de AI van Google hem mogelijk had belasterd en hij vroeg advocaten om advies, niet als voorbode van een rechtszaak, maar meer uit nieuwsgierigheid. Een van hen vertelde hem dat hij mogelijk een zaak had. “Ik ga volgende week tien dagen naar Yellowstone. Ik ga volledig offline,” zei Jordan. “Als dit was gebeurd, en als dit zich had verspreid en een enorme controverse was geworden, zou ik waarschijnlijk YouTube-abonnees en Patreon-leden verliezen.”
Jordan heeft in het verleden al over AI geschreven en zei dat hij niet geschokt was door het falen van het systeem. “Iedereen probeert LLM’s zo snel mogelijk onderdeel te laten zijn van ons dagelijks leven […] Maar de LLM zelf is niet goed. Het is gewoon niet wat ze beweren dat het is. Het zal misschien nooit worden wat ze beweren dat het is vanwege de beperkingen van hoe LLM’s en AI werken, en ondanks de beloftes die worden gedaan. Het is gewoon een heel slecht algoritme om bruikbare informatie te verkrijgen die je kunt vertrouwen, en het geeft dat prioriteit boven journalisten om het geld te behouden.”
Na de hele kwestie verduidelijkte Jordan zijn standpunt over het Israëlisch-Palestijnse conflict. In een discussie op Bluesky zei hij dat hij wel degelijk denkt dat Israël een genocide in Gaza pleegt en waarom. “Hopelijk ziet iemand dat in voordat ze hun tijd verspillen door me te berichten en me de les te lezen over genocide,” zei hij. “Hoewel ik nu van de andere kant de les word gelezen over genocide. Nu heb ik er zelf ook een belang bij. Nu krijg ik berichten van mensen die Israël verdedigen en die me vertellen dat ik antisemiet ben.”
Judging from the last few days of vitriolic comments and messages, it seems that me referring to Israel's occupation and blockade of Gaza as "genocide" is quite controversial and I've even been accused of antisemitism. So let me explain myself: 🧵I didn't just decide this based on my own feelings.
— Benn Jordan (@bennjordan.bsky.social) 2025-09-01T19:35:21.848Z
Dit is niet de eerste keer dat Google’s AI-overzicht de basisfeiten over iemand met een openbaar profiel verdraait. In juli ontdekte humorist Dave Barry dat Google’s AI-overzicht dacht dat hij vorig jaar was overleden na een strijd tegen kanker. Barry is springlevend en beschreef in zijn nieuwsbrief gedetailleerd zijn strijd om de geschiedenis van zijn overlijden recht te zetten. Net als Jordan is Google’s AI-overzicht veranderd. In tegenstelling tot Jordan veranderde het nadat Barry in conflict raakte met de verschillende geautomatiseerde klachtensystemen van Google.
Als een AI dit soort fouten maakt, noemen we het meestal een hallucinatie. Jordan gebruikte het woord toen hij de bijgewerkte samenvatting van zijn leven postte . “Ik heb er de afgelopen dagen over nagedacht, en dat geeft het zoveel krediet dat het wel eens iets zou kunnen hallucineren”, zei Jordan. “Over het algemeen is het niet zo goed in het scrapen van data en het op een betrouwbare manier ophalen ervan.”
I love how it refers to "claims" when it was 100% its own hallucination it repeatedly prioritized in front of actual search results, and now thinks yesterday was November of 2024. Your power bill went up for this, folks.
— Benn Jordan (@bennjordan.bsky.social) 2025-08-31T19:04:42.072Z
“De overgrote meerderheid van de AI-overzichten is feitelijk en we zijn voortdurend bezig met het verbeteren van zowel de behulpzaamheid als de kwaliteit van de reacties”, vertelde een woordvoerder van Google aan 404 Media. “Wanneer er problemen ontstaan – bijvoorbeeld als onze functies webcontent verkeerd interpreteren of context missen – gebruiken we die voorbeelden om onze systemen te verbeteren en nemen we passende maatregelen op basis van ons beleid.”
Update: Dit verhaal is bijgewerkt met een verklaring van Google.






