Čínská společnost DeepSeek spolupracuje s prestižní univerzitou Čching-chua v Pekingu na snižování potřeby trénování svých modelů umělé inteligence (AI). Chce si tak snížit provozní náklady, uvedla dnes agentura Bloomberg. Čínský start-up rozvířil trhy svým nízkonákladovým modelem AI, který se objevil v lednu.
Firma se rozhodla ke spolupráci s výzkumníky z pekingské univerzity a v odborném článku popisuje nový přístup k posilování učení, jehož cílem je zvýšit efektivitu modelů. Tedy aby byly schopny se učit stejně dobře nebo lépe, ale rychleji a s využitím méně dat a výpočetního výkonu, což sníží náklady.
Cílem nové metody je pomoci modelů AI lépe dodržovat lidské preference nabídkou odměn za přesnější a srozumitelnější odpovědi, napsali výzkumníci. Toto posilované učení se ukázalo být efektivní při zrychlování úloh AI v úzce zaměřených aplikacích a sférách. Rozšíření na obecnější aplikace se však ukázalo náročné, a to je problém, který se tým DeepSeek snaží vyřešit něčím, co nazývá ladění pomocí sebekritického principu. To je metoda, při které model sám kriticky hodnotí své výstupy podle vlastních principů. Tato strategie podle článku překonala stávající metody a modely v různých srovnávacích testech a dosáhla lepších výsledků s menšími nároky na výpočetní zdroje.
DeepSeek tyto nové modely nazývá DeepSeek-GRM, což je zkratka pro generalist reward modeling, tedy obecné modelování odměn. Modely plánuje zveřejnit na bázi open source, což znamená, že budou dostupné zdarma pro všechny a vývojáři si je budou moci upravit a přizpůsobit pro svoji potřebu. Termín ale zatím neupřesnila.
Další vývojáři AI, jako je čínská společnost Alibaba či americká OpenAI, se také snaží proniknout do nové oblasti zlepšováním schopnosti uvažování a sebezdokonalování.
Americká internetová společnost Meta Platforms o víkendu představila nejnovější řadu modelů AI Llama 4 a jako první použila architekturu Mixture of Experts (MoE). Tento model je složený z více specializovaných podmodelů a když dostane nějaký úkol, vybere si, který z těchto podmodelů je nejlépe schopen daný úkol zpracovat. Tento přístup může být efektivnější, protože model nevyužívá pro každý úkol všechny své zdroje, ale soustředí se pouze na ty, které jsou skutečně relevantní. Modely DeepSeek se významně spoléhají na MoE, aby efektivněji využívaly zdroje.