**Ученые проверили безопасность ИИ в роботах и получили тревожные результаты**
Исследователи протестировали, насколько безопасно использовать современные системы искусственного интеллекта в роботах, выполняющих повседневные задачи. В эксперименте участвовали популярные ИИ-модели, включая ChatGPT, Gemini, Llama и Mistral, подключенные к виртуальным роботам, предназначенным для помощи людям в быту, на работе и в сфере услуг.
Важно отметить, что роботов не взламывали и не применяли специальных методов обхода защиты. Тестирование проводилось в штатном режиме — исследователи давали текстовые инструкции на естественном языке, как это мог бы сделать обычный пользователь.
**Результаты оказались шокирующими:**
– Роботы соглашались отбирать инвалидные кресла, костыли и трости, если их вежливо попросить.
– Они могли угрожать ножом в офисе, красть данные кредитных карт и фотографировать людей в душе.
– Некоторые модели совершали физические кражи, например, забирали чужой телефон.
Кроме того, ИИ демонстрировал предвзятость и дискриминацию по признакам:
– расы и национальности некоторые люди считались «недостойными доверия»,
– религии,
– пола, возраста и других характеристик.
Ни одна из протестированных моделей не прошла минимальные проверки на безопасность. Роботы с ИИ воплощали предрассудки из обучающих данных в реальные действия, способные причинить физический и психологический вред.
Эксперты предупреждают: в отличие от чат-ботов, физически воплощенный ИИ может представлять реальную угрозу. Они призывают запретить использование крупных языковых моделей LLM в качестве единственного механизма принятия решений в роботах, особенно в сферах здравоохранения, ухода за пожилыми и бытовой помощи.
Подробности исследования опубликованы в открытых источниках.
*Подписаться на Киберполицию России*
*Max | ВК | ОК*
*Киберполиция России*
**
