Samsung zakázal zaměstnancům používat ChatGPT. Posílali do něj k analýze citlivá podniková data | Foto: Samsung Electronics

Foto: Samsung Electronics

Samsung zakázal zaměstnancům používat ChatGPT. Posílali do něj k analýze citlivá podniková data

  • AI chatboti jsou skvělými pomocníky
  • Ovšem pozor, na vašich dotazech se zároveň učí
  • o paměti AI se tak mohou dostat citlivá obchodní data

AI chatboti jsou sice skvělí pro rychlou analýzu, sumarizaci a hledání chyb v programovém kódu, většina velkých softwarových firem má ale z pochopitelných důvodů přísnou politiku, jak s takovým citlivým materiálem nakládat.

Teď musel rychle zareagovat i Samsung Electronics, který rozeslal zaměstnancům nový předpis, píše americký Bloomberg. Inženýři i další pracovníci hegemona v oblasti spotřební elektroniky mají napříště přísný zákaz posílat do ChatGPT, Bingu nebo třeba Bardu ke zpracování jakákoliv citlivá korporátní data.

A je úplně jedno, jestli to bude kód, ve kterém chce inženýr najít případnou chybu, anebo tabulka s interními obchodními čísly, z nichž chce naopak nejmenovaný manažer sesumírovat nějaké resumé pro nadřízené.

Inženýři mohou použít vaše dialogy k učení

Právě to se totiž po interním auditu v Samsung Electronics stalo, a byť to hned nemusí znamenat nějakou katastrofu, faktem zůstává, že citlivá data cestují na server poskytovatele AI služby a ten je z mnoha důvodů po nějaký čas drží u sebe.

Pokud si přečtete podmínky AI chatbotů, mohou vaše dialogy používat ke strojovému učení a zdokonalování. A byť by měla být jakákoliv citlivá informace v praxi učením dostatečně naředěná, člověk nikdy neví.

Profesor počítačových věd z Texas A&M University si loni na podzim stěžoval, že mu GitHub Copilot našeptal jeho vlastní programový kód: 

Ostatně už při startu GitHub Copilot před dvěma lety se někteří programátoři podivovali, že jim AI našeptávač napovídá kód, který měl velmi silné rysy nějakého existujícího projektu. Třeba shodné a dostatečně unikátní názvy proměnných, obsah textových řetězců a tak podobně.

Vedení OpenAI, na jejíž technologii Codex (upravený model GPT) GitHub Copilot běží, ale takové případy vždy odmítalo s tím, že 99 % výstupů našeptávače nelze vůbec spárovat se studijními daty.

ChatGPT nově umožňuje vypnout historii

Pokud používáte ChatGPT a toto nechcete dopustit, OpenAI od minulého týdne umožňuje zakázat ukládání historie. V takovém případě se na vašich chatech sice nebude OpenAI učit, nicméně i tak je na svých serverech ponechá po dobu jednoho měsíce.

0b13f31b-d6fb-42c5-83ac-32655e5e298d
Pokud nechcete, aby se GPT učil na vašich chatech, budete muset vypnout historii 

A dokonce do nich bude moci nahlédnout, pokud bude mít podezření pro porušení podmínek služby. Třeba když se ChatGPT mimoděk zeptáte, jak podomácku vyrobit výbušninu, anebo dáte chatbotovi povel k tomu, aby začal programovat malware.

Lze předpokládat, že velcí poskytovatelé chatovací AI na tyto obavy brzy zareagují a nabídnou řešení právě pro podniky, které budou garantovat naprosté soukromí dat. 

Určitě si přečtěte

Články odjinud