Americká firma OpenAI vzala zpět update modelu GPT-4o, který nasadila minulý týden. Reagovala tak na stížnosti uživatelů, podle kterých se model po updatu začal „chovat“ příliš podlézavě a dával pozitivní odpovědi i v případech, kdy bylo přehnané nebo nevhodné.
V oznámení na svém blogu společnost potvrdila, že model převedla na předchozí verzi a uznala, že to s jeho nastavením přehnala.
„V aktualizaci jsme se příliš soustředili na krátkodobou zpětnou vazbu a plně jsme nezohlednili, jak se interakce uživatelů s ChatGPT v průběhu času vyvíjejí,“ píše OpenAI.
Přehnaně podlézavé odpovědi podle ní mohou být uživatelům nepříjemné a mohou je vyvádět z míry. Do budoucna firma slíbila, že bude při ladění modelů opatrnější a zavede opatření k tomu, aby posílila jejich „upřímné“ a „transparentní“ „chování.“
Uživatelé také mají získat nové možnosti, jak ovlivňovat „osobnost“ chatbota, se kterým vedou konverzaci. Kromě toho, že budou moci „chování“ modelu hodnotit v reálném čase (obdobně jako už dnes mohou jednotlivé konverzace hodnotit udělováním „palců nahoru či dolů“), budou mít na výběr z více výchozích „osobností“, slíbila firma.