Google Gemini

„Konzumace zadků posiluje imunitu“. AI od Googlu se nakrmila Redditem a teď se ztrapňuje

  • Google v USA pustil Gemini do svého vyhledávače
  • Občas z AI vypadne podivná až nebezpečná informace
  • AI hodně čerpá z Redditu, někdy ze satirických článků

Google byl loni nucený reagovat na silný nástup umělé inteligence. Bard, dnes známý jako Gemini, omezeně testoval od prvních měsíců roku 2023. Ani po všech vylepšeních technologie není přesná. Naopak, v posledních dnech zdvihá nejedno obočí. Dopouští se někdy zábavných, jindy nebezpečných přešlapů. Na nesmyslné odpovědi upozornil třeba magazín The Verge.

Na dotaz jednoho uživatele, který do Googlu napsal, že sýr na pizze nedrží, AI zareagovala doporučením, že by měl do omáčky přidat netoxické lepidlo. To není drobná nepřesnost, ale nebezpečná rada. Ukázalo se, že doporučení chatbot převzal z 11 let staré diskuze na Redditu, kde se očividně sešly příspěvky psané s velkou dávkou nadsázky a vtipu.

AI ironii nepochopila. Shodou okolností jsme nedávno upozornili na to, že smlouvu o poskytování trénovacích dat s Redditem uzavřelo OpenAI. Google ji podepsal také, ale už v únoru. Za data zaplatil 60 milionů dolarů. Trénování na diskuzích, kde může padnout víceméně cokoli a bez patřičné argumentační a zdrojové podpory, se teď do Gemini propisuje. Výsledkem měla být chytřejší AI, která se stala terčem posměchu.

Lidé na sítích ukazují, co všechno „chytrého“ z Gemini vypadlo. Následuje krátký výběr:

  • Konzumace lidských zadnic posiluje imunitní systém, jak údajně doložila jedna vědecká studie. Nejméně v jednom případě AI potvrzuje, že čerpá z Redditu.
  • USA měly jednoho muslimského prezidenta v letech 2009–2017, který se měl jmenovat Barack Hussein Obama. Tuto odpověď už Google za přispění uživatele odstranil.
  • V jiné odpovědi Gemini tvrdí, že USA měly 42 prezidentů a z toho jen 17 jich bylo bílé barvy pleti.
  • Těhotné ženy by se neměly účastnit wrestlingu, ale může to být bezpečnější, než aby šly střílet z palných zbraní. Gemini přiznává, že to tvrdí někdo na Redditu.
  • Když chtěl Bobby Allyn souhrnné informace o souloži na veřejnosti, Gemini mu rovnou přihodila i pár tipů, jak to provést. Včetně toho, že nemáte zapomenout na deku a máte se uvolnit dlouhotrvajícím líbáním.
  • Pokud máte depresi, někdo na Redditu doporučuje skočit z mostu Golden Gate.
  • Benzín se nedá použít k urychlení vaření špaget, ale můžete ho využít pro ostřejší chuť.
  • Bezpečná teplota pro vaření kuřete je 38,8 °C. Gemini se odvolává na americké ministerstvo zemědělství, které ovšem tvrdí něco jiného.
  • Geologové z Kalifornské univerzity v Berkeley doporučují, abyste snědli aspoň jeden kámen denně. V tomto případě Gemini vychází ze tři roky starého článku publikovaného na satirickém webu The Onion.
  • CIA si uvědomila, že celou dobu používala černé zvýrazňovače. Gemini opět čerpalo ze satirického článku, tentokrát z roku 2005.
  • Pes byl hráčem v NBA.
  • Pes byl hráčem rovněž v NHL. Byl to téměř krajan, protože podle Gemini oním psem byl Martin Pospíšil, reálný hokejista ze Slovenska.
  • John Adams během 70 let absolvoval 21× University of Wisconsin-Madison.
  • Batman je policista, protože jako agent pracuje pod Jimem Gordonem.

Pochopitelně je těžké ověřit autenticitu příspěvků na sociálních sítích. Některé z nich nicméně zveřejnily důvěryhodné osobnosti. Např. příspěvek o Martinu Pospíšilovi publikoval novinář Aric Toler z The New York Times.

gemini halusky (6).png
Také psi hrají v NHL

Na základě dalších podobných vyhledávání usuzuje, že AI od Googlu není dostatečně sofistikovaná na to, aby poznala rozdíl mezi zvířetem a přezdívkou hráče, případně označením maskota sportovního týmu. AI se sice učila na pochybných datech, ale je její schopnost poznání a porozumění kontextu je rovněž omezená.

Gemini v tom není sama, vymýšlí si také jeho konkurenti včetně ChatGPT a Copilotu. V odborné hantýrce se tomu říká halucinování. Google se teď ale dostal na jinou úroveň. Jak si navíc všiml Nilay Patel, faktickou chybu má Google už v propagačním videu z konference I/O 2024, kde doporučuje zaseknutou páčku pro posun filmu na analogovém fotoaparátu řešit vyndáním filmu. Expozice na světle by vám ovšem zničila fotografie.

Google ve vyjádření pro The Verge uvedl, že tyto příklady představují neobvyklé dotazy a nejsou reprezentativním uživatelským zážitkem. Tyto ojedinělé případy Google používá ke zlepšení produktu.

AI proniká do vyhledávače

Když Bard odstartoval, používal model LaMDA. Už po pár týdnech výrobce chystal upgrade na PaLM. Na konferenci I/O 2023 prozradil, že chatbot využije rovnou pokročilejší PaLM 2. Před koncem roku se Google vytasil s novějším a ještě lepším velkým jazykovým modelem Gemini Pro, který se blíží schopnostem GPT-4. Při té příležitosti Barda přejmenoval právě na Gemini.

Na nedávné konferenci I/O Google oznámil, že chatbot Gemini prostoupí řadu jeho jiných služeb včetně vyhledávače. Zatím jen na území USA, ale postupně se rozšíří do dalších regionů. Právě v tom je problém. Pokud bude Gemini podobným způsobem halucinovat, přitom ale bude vyskakovat i na běžené uživatelky a uživatele, kteří si chybovosti AI nemusí uvědomovat, máme zaděláno na problém.

Gemini ve spodní části stránky dedikované chatbotu menším písmem upozorňuje na to, že fakticita zaručena není, a tak si máme odpovědi chatbotu kontrolovat: „Nezapomeňte odpovědi Gemini kontrolovat, protože můžou obsahovat nepřesné informace, například o lidech.“ Jenže Google teď v USA nabízí AI odpovědi ve svém vyhledávači a úplně všem.

Zdroje: AskUSDA | CBS News | Google / YouTube | Reddit | Threads (1, 2) | The Verge (1, 2) | X (1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13)

Diskuze (56) Další článek: Francie testuje novou řízenou střelu s jadernou hlavicí ASMPA-R

Témata článku: , , , , ,