Rychle jedoucí vlak s umělými inteligencemi, které generují obrázky dle textového zadání, ale zvládají i dokreslování a úpravu již hotových obrázků či fotografií, ujíždí opravdu rychle. Zatímco DALL-E od OpenAI byl první tohoto druhu, nejspíše přišel pozdě – trh a vývojáři totiž začali masivně rozvíjet a používat open source formu v podobě Stable Diffusion, který před pár dny vyšel už v druhé verzi s řadou vylepšení a optimalizovanými modely.
A zde přichází na řadu Apple, který překvapivě a relativně rychle naskočil na tuto novou technologii, byť teprve z pohledu optimalizací. Pro vývojáře totiž vydal optimalizovanou verzi frameworku Core ML pro akceleraci umělé inteligence a strojového učení na čipech Apple v iPhonech, ale u počítačích Mac (Arm s Neural Enginem).
Zapomeňte na bitcoin nebo jiné cool technologie. Stable Diffusion zaujal vývojáře z celého světa tak rychle a masivně, že se mu nevyrovná žádná jiná technologie
Apple na vlastním githubu prezentuje jak zdrojový kód optimalizované verze, tak i nějaké srovnávací testy rychlosti na zařízeních iPad Pro (M1), MacBook Pro (M1) a MacBook Air (M2). Zatímco vygenerování jednoho obrázku trvá na zmíněném iPadu Pro kolem 29 sekund, MacBook AI s nejnovějším, ale základním čipem M2 to už zvládne za 18 sekund.
Lze předpokládat, že je to poměrně jasná zpráva o tom, jakým směrem se chce Apple vydat. Open source mu umožňuje tuto technologii optimalizovat na vlastní čipy a také případně integrovat do operačního systému a aplikací. Vzhledem k tomu, že na samotný běh už stačí lokální hardware, ta náročnější část – prvotní učení a generování modelu v obřích datacentrech, si může zajistit vlastní cestou a tím se odlišovat. Zda z toho nakonec bude takto postavený produkt, kde bude mít Apple trénink A.I. pod vlastní kontrolou, to se dozvíme v budoucnu.