ChatGPT – pouhé rozhraní a komprese informací, praví autor sci-fi

K hromadám diskusí o konverzačním programu ChatGPT snad stojí za to přidat jeden poměrně nezvyklý (a skeptický). ChatGPT prý není nic než vyhledávač typu Googlu. Inteligentní je asi tak stejně jako kopírka. Jak že se to vlastně myslí?
Autor tohoto komentáře (původně vyšlo v New Yorker) Ted Chiang je profesí programátor, známý ovšem jako autor sci-fi. Publikuje spíše sporadicky, prozatím jen povídky, nicméně i tak si již získal slušnou proslulost, záložku k jedné sbírce mu např. napsal Barack Obama. Sám jsem se k jeho komentáři dostal přes diskusi o tom, že již existují i sci-fi časopisy tvořené výhradně AI, včetně grafiky a sestavení obsahu (nebo to alespoň tvrdí vydavatelé). Chiangův komentář není nicméně není jinak futuristický ani spekulativní a vůči ChatGPT dává najevo krajní skepsi.
Nikoliv obecně vůči umělé inteligenci. Podle Chianga ovšem ChatGPT není nic jiného než „jazykové rozhraní k Internetu“ podobně jako Google. Inteligenci tomuto programu zcela upírá, což je trochu sporné (nakonec, co je inteligence jiného než schopnost vzít vstupní informace a z nich dojít k nějakému výstupu). Dále pak Chiang tvrdí, že ChatGPT vlastně není k ničemu, protože Internet máme obecně k dispozici, nepotřebujeme nějakou jeho zkomprimovanou podobu, k níž by pak bylo třeba přistupovat speciálním způsobem. Jiná věc by byla, kdyby člověk potřeboval veškerý obsah Internetu soustředit na disk o velikost XY, pak by pro něj ChatGPT smysl měl.
Ted Chiang takto vysvětluje i chyby v ChatGPT, přirovnává program přímo k digitálním kopírkám, jejichž obslužný software informace komprimuje. Nějaký čtvereček podrobně proanalyzují a přečtou/zdigitalizují, jiným podobným čtverečkům pak automaticky přiřadí stejný obsah; výsledkem budou chyby; a to dokonce chyby vydávané za přesnou informaci (z kopírky nevyleze něco rozmazaného, ale špatně rozpoznaná čísla). Přitom Chiang zmiňuje speciální historické události; celé to srovnání až ztotožnění, které provedl, mi přijde trochu moc ad hoc.
A závěr? ChatGPT není třeba kdovíjaký matematik ani dokonalý logik (to ale lidé obvykle též ne), nějaké schopnost v logice však má. Navíc existují AI konstruované jinak, jako logik, matematik, vědec (přírodovědec), ještě užší expertní systémy, vše se dá jistě propojovat. ChatGPT nicméně ukazuje schopnost rozumět jazyku, což se dlouho považovalo právě za dovednost výlučně lidskou.
Politici a mnozí další profesionálové mají disponovat schopností generovat výroky, které dávají na pohled jakýsi smysl i v případě, že dotyční o věci nic nevědí. Bludy odhalí jen odborník nebo další analýza. I kdyby aktuální verze ChatGPT opravdu neuměla nic jiného a k ničemu nebyla, přece jen i tato funkčnost do mozaiky schopností AI patří. Také je zjevné, že otázky o regulaci umělé inteligence zaplavily média právě nyní, nikoliv v souvislosti s expertními systémy nahrazujícími např. pilotování letadel.
Takže s Chiangem nesouhlasím. Podle mého názoru „jazykové modely“ jsou možná samy o sobě k ničemu nebo skoro k ničemu, ale v kombinaci s dalšími systémy AI to už bude jinak. A hlavně, tohle nejsou primitivní programy typu Eliza, právě jazyk a jeho bohatší využívání je tím, co dosud lidi odlišovalo od ne-lidí. ChatGPT už teď výzkumníky vede k návrhům nových verzí Turingova testu. Entitě na druhém konci v tomto případě určitě neupřeme inteligenci, i když ji třeba nebudeme pokládat za člověka. Stačí třeba ChatGPT položit nějakou otázku z teorie mysli.

Viz také: ChatGPT uspěl v testu teorie mysli
Moderní chatboty inspirují k modifikovaným verzím Turingova testu

Exit mobile version