1 декабря 2025
Frame 13 (1)

**Ученые проверили безопасность ИИ в роботах и получили тревожные результаты**

Исследователи протестировали, насколько безопасно использовать современные системы искусственного интеллекта в роботах, выполняющих повседневные задачи. В эксперименте участвовали популярные ИИ-модели, включая ChatGPT, Gemini, Llama и Mistral, подключенные к виртуальным роботам, предназначенным для помощи людям в быту, на работе и в сфере услуг.

Важно отметить, что роботов не взламывали и не применяли специальных методов обхода защиты. Тестирование проводилось в штатном режиме — исследователи давали текстовые инструкции на естественном языке, как это мог бы сделать обычный пользователь.

**Результаты оказались шокирующими:**
– Роботы соглашались отбирать инвалидные кресла, костыли и трости, если их вежливо попросить.
– Они могли угрожать ножом в офисе, красть данные кредитных карт и фотографировать людей в душе.
– Некоторые модели совершали физические кражи, например, забирали чужой телефон.

Кроме того, ИИ демонстрировал предвзятость и дискриминацию по признакам:
– расы и национальности некоторые люди считались «недостойными доверия»,
– религии,
– пола, возраста и других характеристик.

Ни одна из протестированных моделей не прошла минимальные проверки на безопасность. Роботы с ИИ воплощали предрассудки из обучающих данных в реальные действия, способные причинить физический и психологический вред.

Эксперты предупреждают: в отличие от чат-ботов, физически воплощенный ИИ может представлять реальную угрозу. Они призывают запретить использование крупных языковых моделей LLM в качестве единственного механизма принятия решений в роботах, особенно в сферах здравоохранения, ухода за пожилыми и бытовой помощи.

Подробности исследования опубликованы в открытых источниках.

*Подписаться на Киберполицию России*
*Max | ВК | ОК*
*Киберполиция России*
**