Samočinně řídící auta se nepotýkají jen s problémy technickými a právními. Zůstává i otázka samotného návrhu – co vlastně požadujeme od strojové inteligence v pozadí. Má třeba systém volit mezi možnostmi s cílem minimalizovat (pravděpodobné) ztráty na lidských životech?
Paradox výhybky
Jinak řečeno: Má třeba automaticky řízené auto chránit svého řidiče i bez ohledu na to, že při tom ohrozí někoho jiného? Na tento jinak celkem pomíjený problém upozornili myslitelé z University of Alabama v Birminghamu. Nazývají to spor utilitarismu a deontologie. Pomiňme žargon profesionálních filozofů i profesionálních etiků, v zásadě se všechny tyhle úvahy odvíjejí od toho, čemu se říká „experiment s drezínou“, „paradox výhybky“ apod. Vlak se řítí proti hromadě lidí, můžete ho výhybkou přesměrovat na kolej, kde si vybere jedinou oběť. Uděláte to? Co pokud můžete vlak zastavit tím, že pod něj hodíte náhodného kolemjdoucího – a opět zachráníte více lidí. Liší se obě situace?
Utilitaristé obecně tvrdí, že správné je snažit se dosáhnout co největšího štěstí pro co nejvíce lidí („maximalizace užitku“). Konkurenční přístupy např. říkají, že někdy než volit mezi více zly, je lepší volbu odmítnout a „dát od toho ruce pryč“, tj. třeba výhybku nepřehodit a nevzít si na triko jedinou oběť, i když důsledkem nečinnosti je obětí víc. Samozřejmě jde o myšlenkové experimenty, s nimiž se v takto čisté podobě sotva kdo z nás setká. Rádi je mimochodem mají i neurologové, protože zjišťují, že podle toho, jaká centra mozku máme zrovna aktivovaná, se liší i naše reakce. Nakonec se ukazuje, že i drobná změna v designu celého experimentu velmi mění naše vnímání situace a rozhodování.
Asimovovy zákony robotiky
Je asi celkem jasné, o co půjde, převede-li se problém do situace autonomních aut, respektive algoritmů, které stojí za jejich fungováním. Představme si, že skutečně chytré auto skutečně dokáže odhadnout, co se kolem bude dít, a nedělá přitom chyby. Ostatně to třeba není až tak absurdní: všechny menší nehody, které zatím měla auta Googlu, prý způsobili lidští řidiči – ať už na protistraně, nebo řidiči vlastní, když autopilota vypnuli.
Jak se má ale geniální automatický vůz vlastně naprogramovat? Co bude dělat v situacích, kdy nějaké škody budou nevyhnutelné (neexistuje „win-win“ řešení), dejme tomu při píchnuté pneumatice? Měl by systém v plné rychlosti narazit do zdi, nebo vjet do protisměru? Druhá volba znamená pro řidiče vozu stále nějakou šanci, ale zato s velkou pravděpodobností povede ke smrti více lidí. Berme to tak, že systém to vše dokáže posoudit (třeba i spočítat lidi ve vozidlech kolem, aby zjistil, kdy se jich s největší pravděpodobností nejvíc přijde o život atd.), není to tedy problém technický, ale čistě otázka zabudovaných preferencí.
Je jasné, co vyplývá z utilitarismu. Konkurenční přístupy k etice tvrdí, že některé jednání je vždy špatné. Auto tedy nemá aktivně narazit do zdi nebo jinak někoho zabít, i kdyby tím zabránilo větší škodě. Co z toho konkrétně ale vyvodit? Měl by se autopilot v takovém případě prostě vypnout? A teď si můžete otázku různě doplňovat: počítač samozřejmě těžko dokáže posoudit hodnotu jednotlivých lidí, to ostatně nedělá ani zákon. Nicméně co když „konkurenční“ auto třeba překračuje rychlost nebo dokonce jede v protisměru? Neměl by si systém říci: ať pyká ten, kdo porušuje pravidla?
Do extrému vzato by pak automatický automobil možná vůbec nevyjel, nebo jel pouze beznadějně pomalu. Tudy cesta jistě nepovede. V této souvislosti přicházejí na mysl i Asimovovy zákony robotiky. Má robot zabít člověka, pokud tím zachrání více lidí? Jenomže automobil je prostě věcí konkrétního vlastníka (tohle mimochodem v Asimovových povídkách trochu chybí), kupec/zákazník bude chtít primárně auto, které bezpečně dopraví do cíle řidiče a samo se nezničí, neřeší hluboká etická dilemata a nesnaží se spasit svět.
Pravidla bez definic?
Na University of Alabama si prostě hrají. Když někdo v jejich týmu přijde s určitým řešením, vzápětí se jiný určí za „ďáblova advokáta“ a začne vymýšlet, k jakým špatným koncům by navržený přístup mohl vést.
Možná pravidla skutečně autonomního automobilu nepůjdou navrhnout přímo do všech podrobností, respektive prakticky nebudou definována explicitně. Vyjde se z několika jednoznačných požadavků a posléze se budou analyzovat situace, kdy se ocitají ve sporu. Tyto kolize pravidel pak posoudí lidský arbitr a finální podoba ideálního řízení vznikne víceméně „sama“, metodou strojového učení. To už je ale pouze moje (PH) domněnka, nikoliv názor vědců z University of Alabama.
A mimochodem, Ameen Barghi, hlavní autor popsané studie, zkoumá i další otázku. Pokud se ukáže, že automatické řízení je bezpečnější než lidské, mělo by se člověku řízení vozu prostě zakázat? Jeho odpověď zní: Ano.