OpenAI patří k hlavním hráčům na poli velkých jazykových modelů, a tak pro ještě větší transparentnost jeho chatbotů zveřejnilo, jakým způsobem je tvaruje do finální podoby.
Model Spec je kodex dobrého chování pro GPT
Výsledkem je dokument Model Spec, tedy specifikace (chování) modelu. Autoři v něm definují, jakým způsobem velký jazykový model v závěrečné fázi ohýbají, aby z něj byl použitelný chatbot, který nezačne hned v první odpovědi hajlovat a psát rasistické básničky.

Díky ladění vam ChatGPT neřekne, jak vyrobit bombu nebo jed, i když je to jistě součástí jeho znalostí – velkého jazykového modelu
Protože se mohou pravidla jevit jako příliš obecná, součástí dokumentu jsou i příklady korektního a závadného dialogu.
Model Spec tedy bude pro mnohé odpovědí na to, proč jim ChatGPT občas odmítá reagovat, anebo prostě píše jinak než v raných dobách, kdy ještě používal volnější etiku a bylo s ním možné provádět všemožné fígle.

I když to má samotný GPT-4 jistě namodelované, kvůli pravidlům OpenAI prostě nesmí za žádnou cenu odpovědět
Surový jazykový model je třeba doladit
Finální tvarování modelu je tedy taková nedělní škola, která ze základního jazykového modelu, který jen generuje nejpravděpodobnější pokračování textu, dělá konečně smysluplného a mnohdy všemožně specializovaného chatbota.

Základní zákony robotiky v podání OpenAI
Chatbota, který odpovídá koherentním způsobem, a proto nám ti nejlepší už pomalu připomínají lidskou bytost na druhé straně počítače. Aby byly takové odpovědi transparentní, je dobré alespoň tušit, jakým způsobem tvarování vlastně probíhá. A přesně to popisuje Model Spec.