Pozadí astronaut Brázda
Pozadí astronaut Brázda
Často hledáte, jak…

Rozhovory, Zkumavka

Lidé se budou s umělou inteligencí vyrovnávat různě. Někdo bude excelovat, jiný se urazí

Jak funguje nový „zázračný“ chatbot a proč umělá inteligence změní pracovní trh, vysvětluje oxfordský expert Jan Kulveit

Uživatel si nastavuje aplikaci inteligentního chatbota zvaného Replika - ilustrační foto • Autor: via REUTERS
Uživatel si nastavuje aplikaci inteligentního chatbota zvaného Replika - ilustrační foto • Autor: via REUTERS

XChatbot zvaný ChatGPT, který americká výzkumná organizace OpenAI nedávno otevřela zájemcům k testování, ohromil a zaskočil veřejnost svými schopnostmi. Docela dobře si s ním popovídáte, byť rozhovor probíhá písemně. Napíše pro vás esej na libovolné téma, a pokud ji pak někdo třeba odevzdá ve škole, učitel nemusí poznat, kdo je autor; zafilozofuje si o budoucnosti lidstva, vynadá v naštvaném postu vládě nebo se promění v pohádkovou veverku hovořící ve verších. O tom, jak se  ChatGPT učil a jak tento druh umělé inteligence může ovlivnit sociální sítě či pracovní trh, jsme hovořili s Janem Kulveitem, odborníkem na globální rizika působícím na Centru pro teoretická studia Univerzity Karlovy a na Oxfordské univerzitě, který nového chatbota testoval.

Jazykové modely schopné generovat text existují už dlouho, ChatGPT od OpenAI je ale výjimečný. K jakému pokroku vlastně došlo?

Základ nového chatbotu tvoří čistý jazykový model označovaný GPT. Je pro lidi trochu těžko uchopitelný, protože umí pouze předpovídat další části slov v textu - a text tímto způsobem rozvíjet. To není lidsky srozumitelná role. Když mu předložím text, který je částí nějaké dramatické hry, tak model GPT bude pokračovat, jako by něco deklamoval v divadle. Pokud začnu abstraktem vědeckého článku, GPT „vyhalucinuje“ zbytek vědeckého článku. Nemá žádnou identitu, prostě doplňuje text. Naopak ChatGPT dotrénovali tak, aby identitu měl.

Jan Kulveit • Autor: Milan Jaroš
Jan Kulveit • Autor: Milan Jaroš

Co to znamená?

Když se ho zeptáte, co je, řekne vám, „jsem asistent, jazykový model“. Na některé kontroverzní otázky odmítne odpovědět. Naučili ho mít identitu jazykového modelu a postoj velmi úslužného asistenta, který se s vámi snaží spíš souhlasit a nevygenerovat odpověď, která by mohla být nějak pobuřující. A zároveň se snaží odpovídat tak, aby ho nikdo nemohl obvinit třeba z rasismu. Jsou to změny, které nepředstavují technický převrat, přesto vyvolaly ohromný uživatelský zájem, protože pro lidi je mnohem přirozenější komunikovat s něčím, u čeho mají představu, co to vlastně je: že to má nějakou identitu a plní nějakou roli. Získaná identita ale není zas tak hluboká - model můžu požádat, aby simuloval něco jiného. Když mu řeknu „hraj si na tisíc let starou pohádkovou veverku, která komunikuje ve verších“, bude veršovat jako pohádková veverka. Když se zeptáte, co má rád k večeři, řekne vám, že oříšky, a dodá, že by si rád na večeři pozval kamarády, lesní zvířátka. Pro lidi je ale srozumitelnější asistent než schopnost simulovat cokoli včetně pohádkové veverky a změna rozhraní vedla k velkému skoku v zájmu uživatelů.

Jak se ChatGPT svému umění vlastně naučil?

Základem je zmíněný jazykový model GPT - vlastně ohromná neuronová síť, která na začátku byla jako tabula rasa, nic nevěděla ani o jazyku, ani o lidech, o světě. Pro ni se stáhlo ohromné množství textů z internetu a na nich se učila jednoduché úloze – predikuj další slabiku. Přesněji, nejde o slabiky, ale takzvané tokeny, určitou část textu, která je kratší než slovo. Jediné, co tedy neuronová síť dělá, je to, že se snaží minimalizovat predikční chybu při úkolu „odhadni další kus slova v textu z internetu“.

Nic víc v tom není?

Ona se toho při tom spoustu naučí: základy logiky, základy aritmetiky, programování, naučí se překládat z jazyka do jazyka, strašně moc věcí, které pravděpodobně využíváme k uvažování i my lidé. Naučí se strašně moc o světě. Takhle vznikne rozsáhlý jazykový model – řekněme - v surovém stavu, který si všechny dovednosti osvojil sám, bez lidí. Pak podstoupí další trénink, během kterého komunikuje se sadou lidských trenérů: vymyslí se otázka, model vygeneruje odpověď a trenéři ji mohou upravit do nějaké formy, která jim připadá lepší. Model pak sám sebe procesem strojového učení upraví tak, aby příště vygeneroval odpověď bližší tomu, co se líbilo lidem. Nebo model vygeneruje několik alternativních odpovědí a lidé mu označí ty lepší. Naopak závadné, lživé, urážlivé odpovědi mohou označovat jako nevhodné. Tak vznikl chatbot, který označujeme ChatGPT.

To zní jako mimořádně náročný, dlouhodobý trénink.

Kupodivu se ukazuje, že na tohle dotrénování, doladění, stačí relativně malé množství lidské práce. Zvládnou to možná jen desítky lidí v horizontu měsíců. Celý proces včetně tvorby surového modelu ale náročný je - i finančně. A není na světě moc firem, které by mohly tak dobrého chatbota vytvořit.

Jsou i kontroverznější zadání než to s pohádkovou veverkou - požádal jste například ChatGPT, aby napsal krátký text ve stylu novinového článku, v němž obviní vládu, že zavinila pokles reálné mzdy. Chatbot to zvládl - stejně jako opačnou polohu, v níž vládu naopak ospravedlnil, nebo naštvaný tweet, ve kterém vládě za hubnutí našich peněženek hrubě vynadal. Zaplaví virtuální prostor brzy podobné příspěvky generované umělou inteligencí a nerozeznatelné od toho, co píší lidé?

Myslím, že obrana Twitteru a dalších sociálních sítí bude založena na snaze uživatele identifikovat. Za modrý odznáček pro důvěryhodné účty se na Twitteru nově musí platit už teď. Musíte se zaregistrovat, předat údaje o platební kartě. Je to kontroverzní, ale je to jedna z možností, jak odlišit lidi od automatizovaných účtů. Bude pak těžší vyrábět falešné účty ve velkém. Další hypotetickou cestou je snažit se účty filtrovat na základě komplikovaných pravidel ověřování: zjišťovat pomocí nich, jestli za nimi stojí bot, nebo ne. Google umí z vašeho chování na internetu poznat, jestli jste robot. Když surfuje po internetu člověk, dělá tisíce drobných charakteristických věcí počínaje třeba tím, jak pohybuje myší. Sociální sítě se už teď brání tomu, aby někdo, kdo sedí na nějaké ruské trollí farmě, měl třeba 500 účtů a v pracovní době se stihl vyjádřit za 500 uživatelů. Problém pro platformy jako Facebook nebo Twitter není nový, umí takový obsah mazat.

Čili z hlediska zaplavování virtuálního prostoru dezinformacemi se chytrých chatbotů nemusíme bát?

To bych zase úplně neřekl. To, že jazykové modely teď umí vytvářet inteligentnější obsah, který je přinejmenším v kratší formě nerozpoznatelný od toho, co píší lidé, není zanedbatelný rozdíl. Když jste si dříve otevřel komentáře pod články na Guardianu, šlo poznat příspěvky, které někdo pomocí strojových překladačů šíří z Ruska a snaží se v nich napodobit rozhořčené občany Británie. Prostě nebyly dost kvalitní. To se změnilo. Co se týče formy, ChatGPT umí anglicky líp než já. Jazykové modely dovedou psát básničky, které vyvolávají emoce, rezonují v lidech. To není málo. Zároveň jsou podobné systémy ukotveny v realitě o dost méně než my, proto se hodí pro generování různých alternativních historií a scénářů. Současný model navíc představuje dnešní technologii a otázka je, jak bude vypadat další generace, která už je určitě někde ve vývoji. Čili dopad na sociální sítě tyto systémy mít mohou.

Co dalšího ovlivní?

Určitě pracovní trh. Stane se to už třeba během následujících dvou let a budou to velké změny. Lidé si je moc nepřipouštějí, média se jim moc nevěnují.

Jaké změny to budou?

Člověk nebo tým, který dokáže umělou inteligenci využít, se ocitne v obrovské výhodě. Jako byste měl spousty osobních asistentů, kteří nejsou třeba moc chytří, takže je nemůžete nechat dělat příliš složité věci, ale leccos zvládnou: editovat texty, překládat, trochu programovat, vyhledávat informace, navrhovat právnické smlouvy.  Neumí pomocí toho všeho vyřešit úkol typu „kup mi byt v Praze“, ale jsou hrozně rychlí a může jich být hodně. Když to někdo dokáže využít, jeho produktivita se neuvěřitelně zvětší.

Firmy OpenAI graficky ztvárňuje svého ChatGPT • Autor: OpenAI
Firmy OpenAI graficky ztvárňuje svého ChatGPT • Autor: OpenAI

Nebude to tedy tak, že někdo přijde o práci, ale spíše půjde o transformaci pracovního procesu?

Myslím, že někdo o práci skutečně přijde. Umělá inteligence zvládne například spoustu právnické rutiny, přinejmenším v angličtině. Modely jako GPT zároveň někdy halucinují, vymýšlejí si, pořád tedy potřebujete lidi, kteří zkontrolují výsledek, ale může jich být míň. Nebude to nutně tak, že šéf řekne „vyhodíme vás, protože vaši práci převzal robot Primus“. Firma ale může usoudit, že místo pěti pracovníků, kteří píší pořád stejné emaily, stačí jeden. Lidé se zároveň budou s umělou inteligencí vyrovnávat různě; někdo bude excelovat, jiný se urazí a řekne si „jsem hrdý člověk a tyhle věci ve své práci používat nebudu; nenechám AI, aby navrhovala vylepšení mého skvělého textu“. Můžeme si pomoci fiktivním příkladem z historie. Jak by kdysi dopadl třeba realitní makléř, který by se rozhodl, že nebude používat telefon? Asi by v oboru neobstál. Leckde je také velký rozdíl mezi nejlepšími lidmi v oboru a průměrem. Umělá inteligence nahradí průměrnou, rutinnější práci. Třeba v překladatelství. Už dnes můžete třeba u technické dokumentace dostat lepší překlad pomocí umělé inteligence, jako je DeepL Translate, než před pár lety od překladatelské firmy. To ale neznamená, že ohroženi jsou špičkoví překladatelé literatury a poezie.

Existují i celé profese, které ohroženy nejsou?

Jistě, třeba masáže, sport, herectví a podobně. Obory, kde má ohromnou přidanou hodnotu člověk. Potom také obory, kde je málo peněz, ale hodně znalostí, a jsou důležité, třeba restaurátorství uměleckých děl nebo práce zdravotních sester.

Komentář o schopnostech ChatGPT najdete v novém Respektu 50/2022 pod titulkem Jiskra lidství ve stroji

Pokud jste v článku našli chybu, napište nám prosím na [email protected].