Firmy zaměřené na umělou inteligenci se chatbotům snaží dodat osobnost

Pixabay License

Přední společnosti zabývající se umělou inteligencí (AI) se snaží svým chatbotům dodat osobnost. OpenAI, Google a Anthropic za tímto účelem vytvořily celé týmy zaměřené na zlepšování „chování modelů“, uvedl server listu Financial Times (FT).

Nově vznikající oblast může být podle FT určující pro to, jak budou chatboti a velké jazykové modely (LLM) působit na uživatele. Rozdílné přístupy k chování modelů mohou rozhodnout o tom, který produkt si uživatelé nakonec vyberou a která společnost ovládne rozvíjející se trh. Firmy se například snaží, aby jejich model byl „milý“ a „zábavný“, ale zároveň se držel v mantinelech pravidel, aby se předešlo škodám nebo protizákonnému jednání.

Například osobnost nejpopulárnějšího chatbota ChatGPT společnosti OpenAI se neustále vyvíjí. „K tématu chování modelů jsem se na začátku dostala díky tomu, že osobnost ChatGPT působila hodně otravně,“ uvedla Joanne Jangová, která v OpenAI vede oddělení zaměřené na trénink osobnosti modelů.

„Dříve odmítal příkazy, byl extrémně nedůtklivý, přepjatý nebo poučující, proto jsme se snažili odstranit otravné části a naučit ho některé veselé aspekty, jako že by měl být milý, zdvořilý, vstřícný a přátelský, ale pak jsme si uvědomili, že jakmile jsme se ho pokusili takto vycvičit, model byl možná až příliš přátelský,“ dodala.

„Dobrý model vyvažuje respekt k lidské autonomii se schopností rozhodovat se, nedělá nic strašně škodlivého, ale zároveň přemýšlí o tom, co je pro lidi skutečně dobré, a nepřebírá jen bezprostřední slova popisující to, co lidé říkají, že chtějí,“ řekla FT Amanda Askellová, která vede trénink osobnosti ve společnosti Anthropic vyvíjející modely Claude.

Anthropic rozjel trénink osobnosti v březnu, kdy vydal model Claude 3. Proces probíhá po počátečním datovém tréninku jazykového modelu. Podle společnosti ho „mění z prediktivního textového modelu v asistenta AI“.

ChatGPT od OpenAI byl instruován, aby „zaujal objektivní stanovisko“. Naopak Anthropic považuje snahu o objektivitu za slepou uličku. „Chtěla bych raději jasně říct že tyto modely nejsou neutrálními arbitry,“ zdůraznila Askellová. Podle ní byl Claude navržen tak, aby byl upřímný ohledně svých přesvědčení a zároveň otevřený jiným názorům.

Exit mobile version