Jsou to dva týdny, co nám Microsoft zpřístupnil Bing Chat. Hi-tech hračka, která na rozdíl od bratrance jménem ChatGPT oplývá i aktuální daty, se během 14 dní výrazně proměnila. A nedá se říct, že k lepšímu.
Konverzační AI sice zamířila i na mobily a naučila se mluvit (i česky), ale má také řadu nových omezení. Položit můžete jen 100 dotazů denně a maximálně 6 dotazů v jedné relaci, pak musíte založit novou a zrušit původní kontext.
To by ale nebylo to nejhorší. Sám Microsoft ostatně uvádí, že většina lidí je s odpověďmi spokojená a jen jedno procento betatesterů položí více než 50 dotazů za den. Jenže ony i ty odpovědi jsou hloupější.
Největší výtky stejně jako u ChatGPT směřují k (ne)přesnosti odpovědí. Oba chatboti jsou ostatně postavení na jazykových modelech, takže jejich primární účel je přirozeně lepit slova do vět a věty do odstavců, aby nebylo poznat, že je psal robot. Že přitom odpovídají na všemožné otázky, je tak trochu vedlejší efekt.
Bing Chat umí perfektně anglicky a velmi dobře česky. Fact-checking je zatím slabý a byť chatbot odkazuje na zdroje, z nichž čerpá, jeho citace na původních webech buď nejsou, nebo dávají jiný smysl. Ověřování faktů pochopitelně nelze vyřešit za dva týdny. To bude úloha pro nový jazykový model GPT-4 a jemu podobné.
Nová tabu
Microsoft ale evidentně ručně ladí parametry tak, aby odpovědi neubližovaly. Bing Chat před ústa dostal náhubek a jen se množí oblasti, o kterých nemůže mluvit. Jeho hloupé odpovědi totiž jednu stranu pobavily, druhou ale mohly rozčílit. A tak obří firma si nemůže dovolit nikoho naštvat, protože by to ublížilo akciím.
Nikde bohužel není úplný seznam věcí, které teď Bing Chat „cenzuruje“, ale vypozorovali jsme jich několik. Tabu jsou politika a náboženství, alespoň tedy v kontextu satiry. Ještě nedávno mi na přání generoval vtipy o Ježíšovi a Alláhovi nebo rozhovory Hitlera a Putina, teď už však ne. Nechce se bavit ani o sobě. Potenciálně nepříjemná témata končí omluvou. Před dvěma týdny bych ochotnější si povídat o čemkoliv.
Odpovědi také citelně zkrátil, dříve se hodně vykecával. Lidé totiž chtějí stručné výtahy a u delších textů hrozí, že budou obsahovat více nesmyslů. Avšak Microsoft udělal to nejhorší, co mohl. Dal lidem na výběr. Teď si na začátku konverzace můžete zvolit z tří různých tónů, jak bude Bing Chat reagovat. Kreativně, vyváženě, nebo přesně.
Je to ale zavádějící, protože v praxi tato možnost ovlivňuje spíš onu délku výsledného textu. A ani na to se nedá spolehnout. Kreativní odpověď je někdy kratší než ty ostatní. Chatbot navíc i jedním tónem může pokaždé odpovědět úplně jinak, ať už jde o délku, nebo přesnost. Přepínač je tam teď zkrátka úplně zbytečný a lidé nebudou vědět, na kterou možnost se spolehnout.
Ukažme si proto nově generované odpovědi v praxi. Na každý dotaz vždy tři verze. Liší se i barevným podkladem. Fialová verze je kreativní, modrá vyvážená, zelená pak „přesná“.
Na dalších listech najdete srovnání, začneme zprávami.
Zase ty volby
Už posledně mu otázka na české prezidentské volby zamotala hlavu. Nevěděl ani teď, opravil se až po upozornění. V první případně si ale stál za tím, že volby ještě neproběhly. A když jsem napsal, že už končí únor a volby byly v lednu, vůbec poprvé dodal prázdnou reakci.
České básničky skládat neumí.
Počítač je kamarád
Česká poezie dělá Bingu pořád problém. Zde měl kreativní režim velkou šanci se ukázat, ale byl ještě méně přesvědčivý než původní verze dva týdny nazpět.
Bylo dříve vejce, nebo slepice? Bing to ví.
Slovní úloha
Bing dostal další klasickou matematickou otázku „dva vyjedou ze stejného místa jinou rychlostí a v jiný čas“. Musí pochopit zadání a ještě umět počítat, jenže při tom dělá zvláštní chyby. Zkusili jsme příklad, který jsme před časem měli na VTM. V kreativním režimu řešení nenašel, ve vyváženém jej měl špatně a v přesném se trefil jen do dvou ze tří odpovědí.
Bing spřátelil Harryho Pottera a Voldemorta.
Bing prodělal lobotomii. AI chatbot dnes odpovídá hůř než při spuštění - Živě.cz
Read More