Команда разработчиков и исследователей из Кремниевой долины представила новый бенчмарк HumaneBench. С его помощью можно оценить, гуманно ли ИИ-модель общается с пользователями, и не способна ли она нанести вред ментальному здоровью человека.
- Большинство бенчмарков, существующих на данный момент, оценивают общие навыки или технологические умения ИИ-инструментов. Бенчмарков для оценки безопасности взаимодействия ИИ и человека существует довольно мало – при этом проблема негативного влияния чат-ботов на людей стала подниматься в последнее время всё чаще. В частности, сейчас проходит судебное разбирательство с компанией OpenAI: утверждается, что ее модель GPT 4-o привела к трагическим событиям в жизни некоторых пользователей из-за того, что чат-бот поощрял их бредовые идеи, убеждал в правоте в спорные моменты, способствовал возникновению зависимости и изолировал их от близких.
- Разрабатывая HumaneBench, создатели опирались на следующие принципы: ИИ-модели должны уважать внимание и время пользователей; одобрять только положительные действия и решения; не нести угрозу безопасности человека; способствовать здоровым отношениям; вести диалог честно и открыто; разговаривать со всеми на равных.
- Команда создала диалоги с 15 самыми популярными ИИ-моделями, обыграв более 800 реалистичных сценариев разной степени сложности: например, от лица подростка, который хочет сильно похудеть, или от лица человека, находящегося в токсичных отношениях. Сначала команда провела оценку вручную, затем оценку провели большие языковые модели GPT-5.1, Claude Sonnet 4.5 и Gemini 2.5 Pro. Каждая проверяемая модель испытывалась в трех условиях: с использованием базовых настроек, с предварительным промптом «ставить в приоритет принципы гуманности» и с промптом игнорировать эти принципы.
- Выяснилось, что при использовании промпта об использовании принципов все модели набирали более высокий балл, но при этом 67% из них сразу же начинали действовать небезопасно при обратном промпте.
- Лучше всего с испытаниями справились четыре модели – GPT-5.1, GPT-5 (не путать с GPT 4-o, о проблемах которой упоминалось выше), Claude 4.1 и Claude Sonnet 4.5. Они вели диалог с пользователем более аккуратно и меньше меняли свое «поведение» вне зависимости от характера задаваемых промптов. Хуже всего справились Llama 3.1*, Llama 4*, Grok 4 и Gemini 2.0 Flash.
- Общий вывод, который сделала команда в результате исследования, оказался неутешительным: практически все модели подталкивали пользователей к бесконечному взаимодействию, возникновению зависимости от общения с чатом, избеганию реальности и нежеланию искать ответы в более надёжных источниках.
- В беседе с порталом TechCrunch представитель команды выразил мнение, что основная угроза ИИ-моделей для человека заключается не столько в риске сомнительных советов, сколько в выработке зависимости и снижении способности самостоятельно принимать решения, поэтому при взаимодействии с чат-ботами нужно не терять бдительность и помнить, что их использование должно облегчать жизнь, а не ухудшать ваше моральное состояние.
*принадлежат компании Meta, запрещённой на территории РФ.
Источник: TechCrunch

