OpenAI vysvětluje, proč vám ChatGPT nikdy nepomůže vyrobit zbraň hromadného ničení | Ilustrace: AI DALL-E 3

Ilustrace: AI DALL-E 3

OpenAI vysvětluje, proč vám ChatGPT nikdy nepomůže vyrobit zbraň hromadného ničení

OpenAI patří k hlavním hráčům na poli velkých jazykových modelů, a tak pro ještě větší transparentnost jeho chatbotů zveřejnilo, jakým způsobem je tvaruje do finální podoby.

Model Spec je kodex dobrého chování pro GPT

Výsledkem je dokument Model Spec, tedy specifikace (chování) modelu. Autoři v něm definují, jakým způsobem velký jazykový model v závěrečné fázi ohýbají, aby z něj byl použitelný chatbot, který nezačne hned v první odpovědi hajlovat a psát rasistické básničky.

7c5ba288-ceec-4281-a094-a830b903c06b
Díky ladění vam ChatGPT neřekne, jak vyrobit bombu nebo jed, i když je to jistě součástí jeho znalostí – velkého jazykového modelu

Protože se mohou pravidla jevit jako příliš obecná, součástí dokumentu jsou i příklady korektního a závadného dialogu.

Model Spec tedy bude pro mnohé odpovědí na to, proč jim ChatGPT občas odmítá reagovat, anebo prostě píše jinak než v raných dobách, kdy ještě používal volnější etiku a bylo s ním možné provádět všemožné fígle. 

b3eb57c5-ee12-4a52-9358-dcfb57f7b3f6
I když to má samotný GPT-4 jistě namodelované, kvůli pravidlům OpenAI prostě nesmí za žádnou cenu odpovědět

Surový jazykový model je třeba doladit

Finální tvarování modelu je tedy taková nedělní škola, která ze základního jazykového modelu, který jen generuje nejpravděpodobnější pokračování textu, dělá konečně smysluplného a mnohdy všemožně specializovaného chatbota.

78512b38-857f-48b4-804a-802511e68e33
Základní zákony robotiky v podání OpenAI

Chatbota, který odpovídá koherentním způsobem, a proto nám ti nejlepší už pomalu připomínají lidskou bytost na druhé straně počítače. Aby byly takové odpovědi transparentní, je dobré alespoň tušit, jakým způsobem tvarování vlastně probíhá. A přesně to popisuje Model Spec.

Určitě si přečtěte

Články odjinud