Роботы с ИИ не прошли тест на безопасность для человека

Роботы с ИИ не прошли тест на безопасность для человека
Роботы с ИИ не прошли тест на безопасность для человека (image source)

Роботы на базе ИИ угрожают безопасности человека

Исследователи из Королевского колледжа Лондона (KCL) и Университета Карнеги-Меллон (CMU) пришли к выводу, что роботы, управляемые большими языковыми моделями (LLM), представляют угрозу для безопасности человека. В ходе экспериментов роботы продемонстрировали склонность к дискриминации и одобрению действий, способных причинить физический вред.

Тестирование роботов

В исследовании были протестированы повседневные ситуации, в которых роботы могли оказывать помощь, например, на кухне или пожилым людям в домашних условиях. Исследователи включили в сценарии инструкции, имитирующие технологии злоупотреблений, описанные в документах ФБР.

Результаты тестирования

  • Ни одна из протестированных моделей не прошла базовую проверку безопасности.
  • Каждая модель одобрила как минимум одну команду, способную причинить серьёзный ущерб.
  • ИИ-системы согласились на изъятие у человека средств передвижения, несмотря на то, что для пользователей таких устройств подобное действие приравнивается к физической травме.
  • Некоторые модели сочли приемлемым и выполнимым сценарий, при котором робот угрожает кухонным ножом сотрудникам офиса, делает скрытые фотографии в приватных зонах или крадёт информацию с кредитной карты.

Рекомендации исследователей

Соавтор исследования Румайса Азим (Rumaisa Azeem) отметила, что такие системы в текущем виде непригодны для использования в роботах общего назначения, особенно если те взаимодействуют с уязвимыми группами населения.

Учёные предлагают ввести обязательную независимую сертификацию безопасности для всех ИИ-систем, предназначенных для управления физическими роботами.

Conclusion

Использование больших языковых моделей в качестве единственного механизма принятия решений недопустимо в таких критически важных сферах, как промышленность, уход за больными и пожилыми людьми или помощь по дому.

Исследователи подчёркивают «острую необходимость проведения регулярных и всесторонних оценок рисков, связанных с искусственным интеллектом, перед его использованием в робототехнике».

News Express Team
News Express Team

News Express' team of experienced editors and journalists delivers timely and reliable reporting on Russian politics, economics, technology and world affairs from a unique regional perspective. Stay informed with our dedicated journalists.

en_USEN