AI chatboti jsou sice skvělí pro rychlou analýzu, sumarizaci a hledání chyb v programovém kódu, většina velkých softwarových firem má ale z pochopitelných důvodů přísnou politiku, jak s takovým citlivým materiálem nakládat.
Teď musel rychle zareagovat i Samsung Electronics, který rozeslal zaměstnancům nový předpis, píše americký Bloomberg. Inženýři i další pracovníci hegemona v oblasti spotřební elektroniky mají napříště přísný zákaz posílat do ChatGPT, Bingu nebo třeba Bardu ke zpracování jakákoliv citlivá korporátní data.
A je úplně jedno, jestli to bude kód, ve kterém chce inženýr najít případnou chybu, anebo tabulka s interními obchodními čísly, z nichž chce naopak nejmenovaný manažer sesumírovat nějaké resumé pro nadřízené.
Inženýři mohou použít vaše dialogy k učení
Právě to se totiž po interním auditu v Samsung Electronics stalo, a byť to hned nemusí znamenat nějakou katastrofu, faktem zůstává, že citlivá data cestují na server poskytovatele AI služby a ten je z mnoha důvodů po nějaký čas drží u sebe.
Pokud si přečtete podmínky AI chatbotů, mohou vaše dialogy používat ke strojovému učení a zdokonalování. A byť by měla být jakákoliv citlivá informace v praxi učením dostatečně naředěná, člověk nikdy neví.
Profesor počítačových věd z Texas A&M University si loni na podzim stěžoval, že mu GitHub Copilot našeptal jeho vlastní programový kód:
Ostatně už při startu GitHub Copilot před dvěma lety se někteří programátoři podivovali, že jim AI našeptávač napovídá kód, který měl velmi silné rysy nějakého existujícího projektu. Třeba shodné a dostatečně unikátní názvy proměnných, obsah textových řetězců a tak podobně.
Vedení OpenAI, na jejíž technologii Codex (upravený model GPT) GitHub Copilot běží, ale takové případy vždy odmítalo s tím, že 99 % výstupů našeptávače nelze vůbec spárovat se studijními daty.
ChatGPT nově umožňuje vypnout historii
Pokud používáte ChatGPT a toto nechcete dopustit, OpenAI od minulého týdne umožňuje zakázat ukládání historie. V takovém případě se na vašich chatech sice nebude OpenAI učit, nicméně i tak je na svých serverech ponechá po dobu jednoho měsíce.

Pokud nechcete, aby se GPT učil na vašich chatech, budete muset vypnout historii
A dokonce do nich bude moci nahlédnout, pokud bude mít podezření pro porušení podmínek služby. Třeba když se ChatGPT mimoděk zeptáte, jak podomácku vyrobit výbušninu, anebo dáte chatbotovi povel k tomu, aby začal programovat malware.
Lze předpokládat, že velcí poskytovatelé chatovací AI na tyto obavy brzy zareagují a nabídnou řešení právě pro podniky, které budou garantovat naprosté soukromí dat.