V záplavě prognóz technologického vývoje (nejen) v roce 2025 zde prozatím trochu zapadlo jedno téma, které se v souvislosti s umělou inteligencí na zahraničních vědeckých i technologických webech zmiňuje poměrně často: „zmenšení“ AI. Namísto velkých jazykových modelů LLM můžeme očekávat důraz na modely menší, respektive kompozitní architekturu.
Důvodů je hned několik: menší modely jde snáze provozovat přímo na koncových zařízeních, což snižuje rizika spojená s přesouváním dat (do firemního datového centra) nebo přímo s jejich předáváním třetí straně (při používání „veřejných“ služeb AI na serverech poskytovatele, při trénování modelů speciálně pro potřeby firmy…). Na koncových zařízeních se může provádět nejenom provoz, ale i trénování modelů.
Za druhé, méně robustní modely šetří energii a mohou ulevit těžce zkoušeným datovým centrům (tento problém se bude, jak se předpokládá, dále zvyšovat) – i když samozřejmě málokdo stojí o to, aby mu umělá inteligence vybíjela mobil. (Jinak úzkým hrdlem pro provoz i menšího modelu AI v koncovém zařízení bude nejspíš grafický procesor.)
Za třetí určitý typ aplikací potřebuje rychlé zpracování dat přímo u jejich zdrojů, tedy v edge prostředí. Okrajem infrastruktury přitom může být leccos.
A nakonec, menší, navzájem spolupracující modely mohou dávat i lepší výsledky. „Obecný“ model se může například spojovat se specializovaným, pokud usoudí, že otázka je na něj příliš odborná. V aplikaci pro daný obor si zase vystačíme přednostně se znalostmi určitého typu a důležité je opět hlavně to, aby model zjistil, kdy se má zeptat dál.
Viz také: Jak naučit modely umělé inteligence efektivně spolupracovat
Prakticky všechny podnikové aplikace jsou zaměřené „oborově“, prakticky žádná nepotřebuje znát informace (např.) o historii nebo zoologii.
Vědci z Princetonu a Stanfordu navrhli i provoz původně stejného LLM tak, že lokálně v zařízení poběží nějaká ořezaná verze (doslova se mluví o kompresi LLM). Takových algoritmů ovšem existuje více.
O budoucnosti menších modelů svědčí i to, že už je nabízejí také poskytovatelé těch velkých: Google, Microsoft, Meta a OpenAI a Amazon. A pokud menší modely fungují v režimu pro více uživatelů, pak jsou při stejné zátěži zdrojů pochopitelně rychlejší a zvládnou obsloužit současně více uživatelů.
A co se týče kompozitní architektury, Nicolas de Bellefonds z Boston Consulting Group dokonce navrhl následující uspořádání: vstupní interakci s uživatelem povede pouze velmi malý model, jehož jediným úkolem bude posoudit složitost otázky (takže porozumět jí ale bude muset dost přesně) a rozhodnout, který konkrétní, respektive jak velký model bude potřeba k jejímu zodpovězení; kdy „jak velký“ znamená „jaký nejmenší možný“…