Sotva začal a už jej Microsoft přiškrtil. Bing Chat má několik omezení a AI přišlo o kreativitu

Diskuze čtenářů k článku

22. 02. 2023 21:20

woke ideologia nemoze pripustit kreativitu

Souhlasím  |  Nesouhlasím  |  Odpovědět
20. 02. 2023 19:31

Tak Microsoft to opět podělal. Věřil jsem jim ale teď už mi je jasné že Google slízne smetanu. Mobilní svět vám nevyšel. Teď jste měli příležitost se prosadit ve vyhledávání ale prodělali jste to. No nic. Máme tady zase starý dobrý bing s omezeným chat botem. Těším se jak na to zareaguje Google.

Souhlasím  |  Nesouhlasím  |  Odpovědět
avatar
20. 02. 2023 20:04

Jak znám Google dopadne to podobně..

Souhlasím  |  Nesouhlasím  |  Odpovědět
avatar
20. 02. 2023 15:02

Jestli je to stále ještě vyhledavač, pak jsou omezení cajk. Vyhledavač nemá co psát novou verzi státní hymny nebo skládat haiku v JSON. Pokud je to něco jiného, pak platí "za peníze v Praze dům..."

Souhlasím  |  Nesouhlasím  |  Odpovědět
avatar
21. 02. 2023 09:36

Myslim ze Microsoft chcel ale nieco viac ako len blby vyhladavac ako pozname dnes.

Souhlasím  |  Nesouhlasím  |  Odpovědět
20. 02. 2023 14:02

uplna Hospoda na mýtince .. aneb Jak Microsoft zalozil povidajiciho bota, ale lidi si s nim zacali povidat

Souhlasím  |  Nesouhlasím  |  Odpovědět
avatar
20. 02. 2023 17:53

Lidi? Otázka je, kolik z nich mělo něco společnýho s lidstvím. Podle útržkovitých ukázek z chatů to vypadá, že většina lidstva jsou extrémistická prasátka bez empatie. Některé dotazy krásně ukazují, co jsme za svině.

Souhlasím  |  Nesouhlasím  |  Odpovědět
21. 02. 2023 12:22

Jakoze date nejakou technologii lidem siroce a zdarma k pouziti, a pak se divite, jak perverzne s tim zachazi?

Kde jste doted zil? Na Marsu?

Souhlasím  |  Nesouhlasím  |  Odpovědět
20. 02. 2023 13:40

To bylo více než jisté, že to Mrkvosoft totálně posere a taky že jo, udělal z toho Eliza chat z 60. let.

Souhlasím  |  Nesouhlasím  |  Odpovědět
avatar
20. 02. 2023 13:30

Microsoft asi vyděsila konverzace s novinářem, který se Binga zeptal na jeho temné stránky a vyšel z toho rozhovor pro postapokalyptický film o AI, která zničila lidstvo.

Souhlasím  |  Nesouhlasím  |  Odpovědět
20. 02. 2023 14:07

Kdyby jen s jedním, některé ty hovory byly dost temné v různých směrech ... ale je to škoda, právě kvůli tomu jsem se přihlásil do preview a oni to takhle osekají, jen se tam dostanu (nebo otevřeli další vlnu, protože když to osekali?).

Souhlasím  |  Nesouhlasím  |  Odpovědět
20. 02. 2023 13:10

Vypadá to, že Microsoft si ukousl větší sousto než zvládne 🤦‍♂️.

Takto uboze to oklepat je opravdu na hlavu. Těch 5 odpovědí je úplně tragické omezení, třeba u Chat GPT jsem měl ve vláknech průměrně těch odpovědí desítky.

Takže sorry Microsofte, Chat GPT stále hraje prim.

Souhlasím  |  Nesouhlasím  |  Odpovědět
avatar
20. 02. 2023 13:32

Je to Beta , zkoušejí, co zvládnou, hardwarově je to asi masakr . Plná verze asi zdarma nebude.

Souhlasím  |  Nesouhlasím  |  Odpovědět
avatar
20. 02. 2023 19:12

Ja bych to neprecenoval, porad je to jen tak spatny, jako lidi, co to trenujou. Zkus si rict o basnicku s Trumpem vs mladym/starym Bidenem, nebo se zeptat, co je zena. S jailbreakem to je docela zabava, bez nej ale v hypotetickym prikladu necha zarvat 10 milionu lidi, nez by nahlas rekl heslo "negr", ktery by bombu zneskodnilo. A jestli se to neco takovyho za cas zacne pouzivat jako arbitrarni cactchecker (jako dneska Wikipedie), to teda potes koste.

Souhlasím  |  Nesouhlasím  |  Odpovědět
22. 02. 2023 21:23

wikipedia ma rovnaku ideologiu ako chatGPT, clovek dnes okrem Twitteru nema na vyber

Souhlasím  |  Nesouhlasím  |  Odpovědět
avatar
22. 02. 2023 22:19

Dyt to rikam. A stejne jako te dneska kde kdo odkaze na wiki jako autoritativni zdroj, za pul roku, za rok muzou chatgpt za autoritu povazovat mainstreamovy media. Svet se ale v prdel obraci uz dlouho, tohle je jen pokracovani sjezdu po spirale.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Zasílat názory e-mailem: Zasílat názory Můj názor