Současné digitální asistenty jsou reaktivní – nesnaží se vytvářet modely cizích myslí, předvídat záměry, nediví se, pokud lidé mění své preference. Nevědí, co uživatelé vědí, a co ne. Jinak řečeno, nemají teorii mysli.
Děti získávají teorii mysli kolem 4 let – tehdy začnou vnímat ostatní jako vědomé tvory a dokáží předvídat chování lidí. Postupně dojdou i k chápání vztahu mezi myslí a realitou – co si někdo myslí, to nemusí být pravda, nicméně dotyčný se bude chovat podle svého přesvědčení, nikoliv reality (tzv. false belief test, test falešné domněnky).
Neil Rabinowitz z DeepMind (firma spadající pod Google, respektive Alphabet) a jeho kolegové nyní vytvořili umělou inteligence ToMnet. Ta má primárně za cíl nikoliv vylepšovat digitální asistenty, ale především posuzovat „mysl“ jiných umělých inteligencí. Při jejich vývoji se většinou spoléhá na strojové učení, takže pak jsou výsledkem černé skřínky – netušíme, na jakém základě se AI rozhoduje, jak se bude rozhodovat v příštích situacích, jaká je její „mysl“. ToMnet se skládá ze 3 neuronových sítí. První analyzuje minulé rozhodování programů AI, druhá na tomto základě vytváří model jejich mysli (přesvědčení/znalosti, preference…) a třetí se snaží integrací těchto 2 sítí předpovědět budoucí kroky cizí umělé inteligence.
Dosud testované AI byly jednoduché – šlo o postavy pohybující se po virtuální místnosti, kde pro zisk bodů sbíraly barevné předměty. Některé z těchto postav byly slepé, jiné neměly paměť. Programy, které viděly a pamatovaly si své minulé kroky, se dokázaly chovat samozřejmě nejúčelněji, procházet místnost s určitým systémem a v určitém pořadí – tak, aby získaly co nejvíc bodů. ToMnet pochopil, do jaké kategorie postava patří, a pak dokázal předvídat její chování.
Na závěr pak ToMnet zvládl i false belief test. Realizovalo se to tak, že v průběhu hry se krajina změnila, ale některé z programů sledovaly chybně svůj původní záměr (viděly jen na několik kroků, kontrolovaly místnost jen po několika krocích apod.). ToMnet opět dokázal zjistit, které z postav mají tento sklon, a pak jejich chování při změnách herní místnosti předvídat.
Dále oslovení vědci uvádějí, že problém ToMnet se zdá být přílišná vazba na jediné „pracovní prostředí“; není jasné, nakolik jsou příslušné schopnosti číst mysl jiných programů obecné. Každopádně je to krok k dalším systémům umělé inteligence, které by např. dokázaly i cíleně lhát, eventuálně blufovat (poznámka: což do jisté míry již činí např. i programy hrající poker, ale ty podle všeho neanalyzují chování a sklony ostatních hráčů). A abychom se ještě vrátili k původně zmíněným digitálním asistentům; kdyby byly vybaveny teorií mysli, měly by s uživateli dokázat spolupracovat plynuleji. Výzkum má tedy smysl i pro programy interagující nikoliv s jinými AI, ale s lidmi.
Zdroj: Science AAAS