Rozvoj systémů umělé inteligence (AI), které dokáží rychle generovat sofistikované obrázky, provází exploze „znepokojivě realistických“ snímků ukazujících sexuální vykořisťování dětí, zjistil deník The Washington Post (WP). Jak tento obsah vzniká, není vždy zcela jasné, podle činitelů americké vlády je nicméně jejich šíření nelegální.
Na takzvaném dark webu, tedy části internetu, která je přístupná pouze prostřednictvím speciálních prohlížečů, lze dohledat tisíce uměle vytvořených snímků, na nichž děti provádí sexuální akty, píše WP. Někteří uživatelé na internetu sdílí také detailní instrukce, jak si je mohou pedofilové vygenerovat sami.
Jistý analytik vývoj podle amerického deníku označil za „predátorské závody ve zbrojení“. Mezi odborníky, kteří se zabývají ochranou dětí před zneužíváním, narůstají obavy, že nový fenomén bude komplikovat pátrání po obětech, neboť systém bude zaplavený novým obsahem.
„Identifikace obětí je už tak hledáním jehly v kupě sena, při němž se policie snaží najít dítě v ohrožení,“ řekla Rebecca Portnoffová, která vede datovou analýzu v neziskové organizaci Thorn. Sdružení pracující na ochraně dětí pozoruje od loňského podzimu narůstající výskyt falešných obrázků. „To, jak je snadné tyto nástroje používat, znamená významný posun, jakož i realismus (výstupů). Ze všeho se prostě stává větší výzva,“ míní Portnoffová.
Vzestup syntetické dětské pornografie je dalším z důsledků vývoje na poli takzvané generativní umělé inteligence. Tímto termínem jsou označovány systémy, které na základě „tréninku“ na obrovských množstvích dat dokáží vytvářet zdánlivě originální výstupy ve formě textů či obrázků v reakci na zadání uživatele. Do povědomí široké veřejnosti se dostaly zejména díky zpřístupnění chatovacího programu ChatGPT loni na podzim.
Ke generování obrázků jsou nejčastěji používány programy Stable Diffusion, DALL-E nebo Mindjourney, k němuž přitáhly pozornost falešné snímky amerického exprezidenta Donalda Trumpa či papeže Františka. Tyto volně dostupné aplikace umožňují během několika sekund vytvářet přesvědčivě vyhlížející obrázky na nejrůznější motivy. Vychází při tom z miliard snímků převzatých z internetu, mezi nimiž jsou i fotografie skutečných dětí, píše WP.
Podle deníku není z příspěvků ve skrytých internetových fórech vždy jasné, jak byly sexuální výjevy s dětmi vygenerované. Podezření expertů nicméně míří na nástroje z kategorie „otevřeného softwaru“, jako je Stable Diffusion. „Kdokoli si může tento nástroj stáhnout do svého počítače a používat jej, jak se mu zachce, přičemž se z větší části vyhne firemním pravidlům a dohledu,“ vysvětluje článek.
Společnost Stability AI, která program provozuje, v prohlášení uvedla, že tvorbu obrázků s dětmi v sexuálním kontextu zakazuje. Z dat, na kterých je její program vycvičený, údajně odstranila citlivé snímky ve snaze omezit „schopnost špatných aktérů generovat obscénní obsah“. DALL-E a Midjourney mohou uživatelé na rozdíl od svého konkurenta používat pouze skrze firemní kanály, přičemž tvorba sexuálního obsahu je na nich zakázaná.
Výskyt syntetické dětské pornografie zažehl také debaty o tom, zda tyto obrázky porušují americké zákony o ochraně dětí, když zobrazují imaginární osoby. „Činitelé ministerstva spravedlnosti, kteří bojují proti zneužívání dětí, říkají, že takovéto obrázky jsou stále nelegální, nedokázali však uvést žádný případ, v němž by podezřelý za jejich vytvoření čelil obviněním,“ napsal WP.