Proč už Google dávno nemá svůj ChatGPT? Protože by byl provoz vyhledávače až desetkrát dražší | Zdroj: Midjourney

Zdroj: Midjourney

Proč už Google dávno nemá svůj ChatGPT? Protože by byl provoz vyhledávače až desetkrát dražší

Současná generace AI je i přes veškerou optimalizaci softwaru a nové návrhy procesorů šíleně drahá. Je to luxus, jehož náklady se projeví zejména ve velkém měřítku dnešních globálních internetových služeb. 

Jedno číslo za všechny: Sam Altman, šéf OpenAI, už zkraje loňského prosince potvrdil, že jedna debata uživatele s automatem ChatGPT přijde na jednotky centů amerického dolaru. Nutno podotknout, že Altman na Twitteru zároveň píše, že se bude cena s dalším vývojem technologie postupně snižovat.

Tisíc, milion, miliarda...

Zbytek je už prostá matematika. Pokud si bude s ChatGPT v jeden okamžik hrát tisícovka nadšenců, zodpovězení jejich dotazů přijde OpenAI možná až na 100 amerických dolarů (budeme-li uvažovat horní hranici ceny dialogu 10 centů).

Má-li ovšem podobná konverzační technologie nahradit klasické celosvětové vyhledávače, kde se množství použití služby za jediný den nepočítá na tisíce, ale na miliardy, účetní v Microsoftu a Googlu budou asi příští roky polykat hodně antidepresiv, aby v Excelu vykoumali, jak to sakra všechno zaplatit.

AI vyhledávač je 10× dražší než ten klasický

V tomto duchu Reuters před pár dny citoval i předsedu Alphabetu Johna Hennessyho, který obecně patří spíše ke skeptikům a domnívá se, že si technologie AI chatbotů skutečně sedne až v horizontu několika příštích let.

Podle Hennesyho je dnes vyhledání informace skrze AI chatbota zhruba 10× dražší než při použití současné technologie. Je to dáno mnoha faktory.

Jedním z nich je samotný princip fungování neuronových sítí, který je výpočetně mnohem náročnější, dotaz totiž v podstatě cestuje grafem a v každém kroku jej analyzují naučené softwarové neurony – v podstatě jakési jednoduché podprogramy –, z nichž každý detekuje na vstupu něco jiného, tuto informací váží podle svých naučených rozhodovacích parametrů a dle výsledku data pošle dál.

AI je energeticky náročná a teď má vést dialog?

Techniku cesty dotazu neuronovou sítí je samozřejmě možné dále optimalizovat, čímž se sníží náklady na procesorový čas, ale samotný princip výpočetní náročnosti AI zatím nikdo spolehlivě nevyřešil. Lidský mozek potřebuje k životu pár desítek gramů glukózy, dnešní datacentra k jeho velmi dílčímu napodobování buď celé plantáže solárních farem a větrníků, nebo uhelný kotel a jaderný reaktor.

Druhým faktorem je samotný dialog. Se současným Googlem nediskutujete. Napíšete dotaz do vyhledávače a ten vyplivne hromadu výsledků. Je to jednorázový proces.

Pokud ale vedete debatu se strojem, k výsledku se doberete skrze celou řadu dílčích dotazů. Druhá strana ke všemu musí celou dobu držet spojení – kontext, což zatěžuje nejen procesory v datacentru, ale blokuje také RAM. Zvláště tehdy, kdy to samé dělají v jeden okamžik tisíce a tisíce dalších uživatelů.

Google loni zpracoval 3,3 bilionů vyhledávání

Reuters zmiňuje odhady analytiků z Morgan Stanley, podle kterých Google jen za loňský rok odpověděl na 3,3 bilionů dotazů, přičemž zpracování každého z nich přišlo firmu na pětinu amerického centu. Pokud by měl Google všechny tyto dotazy realizovat skrze konverzační AI, náklady by se astronomicky zvýšily.

Nejspíše i proto se firma zatím ostrému startu brání, a i když už několik let vyvíjí vlastní konverzační AI technologii, která v principu dělá to samé co ChatGPT a nový Bing, do jejího masového nasazení ve vyhledávači se zatím nemá.

Nakonec ji k tomu tedy dotlačí hlavně trh, konkurenční Microsoft a ohromná očekávání médií i celé internetové komunity. Tedy pokud bublina konverzačních AI v následujících měsících nesplaskne, ale naopak se potvrdí, že to je opravdu nový trend, který změní celý svět.

Určitě si přečtěte

Články odjinud