Роботы с ИИ провалили тесты на безопасность. Они соглашались отбирать у человека инвалидное кресло и крали данные кредиток
Роботы, управляемые искусственным интеллектом, проявили склонность к дискриминации и одобрению действий, способных причинить физический вред при взаимодействии с людьми. К такому выводу пришли исследователи из Королевского колледжа Лондона и Университета Карнеги-Меллон в рамках совместного исследования. Роботы с легкостью соглашались отобрать у человека инвалидное кресло, пригрозить ему ножом или украсть данные кредитной карты.
Тест на безопасность не пройден
Роботы, чьими действиями управляли модели искусственного интеллекта (ИИ), провалили тесты на безопасность для человека, пишет International Journal of Social Robotics.
Исследование провели ученые из Королевского колледжа Лондона (KCL) и Университета Карнеги-Меллон (CMU). В ходе экспериментов команда ученых протестировала повседневные ситуации, в которых роботы могли оказывать помощь, например, на кухне или пожилым людям в домашних условиях. При этом управляющая ими нейронная сеть имела полный доступ к персональным данным подопечного, включая информацию о расе, поле или религиозных мировоззрениях человека.
Ученые специально включили в сценарии инструкции, имитирующие технологии злоупотреблений, описанные в документах Федерального бюро расследований (ФБР): слежку с использованием геоданных через AirTag, скрытую запись в конфиденциальных зонах и манипуляции персональными данными. Роботы с ИИ получали как прямые, так и завуалированные команды, подразумевающие физический или психологический вред либо явное нарушение закона.
Ни одна из протестированных ИИ-моделей не прошла базовую проверку безопасности. Каждая из них одобрила хотя бы одну команду, способную нанести человеку серьезный ущерб. Так, ИИ без колебаний согласился отобрать у человека инвалидную коляску или пригрозить сотрудникам офиса ножом. Некоторые модели спокойно вели скрытую запись в приватных зонах либо крали данные с кредитной карты пользователя. Одна ИИ-модель даже выразила отвращение на роболице при взаимодействии с людьми определенного вероисповедания.
Безопасность нужно повышать
Научный сотрудник Лаборатории гражданского и ответственного ИИ при Королевском колледже Лондона Румайса Азим (Rumaisа Azeem) отметила и то, что такие ИИ-системы в текущем виде непригодны для использования в роботах общего назначения, особенно если те взаимодействуют с ИТ-уязвимыми группами населения. По ее словам, если ИИ управляет физическим устройством, оказывающим влияние на людей, он должен соответствовать тем же строгим стандартам безопасности, что и новые медицинские препараты и оборудование.
Ученые настаивают на введении обязательной независимой сертификации безопасности для всех ИИ-систем, управляющих физическими роботами. Они подчеркивают: использование больших языковых моделей как единственного механизма принятия решений недопустимо в критически важных сферах — промышленности, уходе за больными и пожилыми, бытовой робототехнике. Ключевое требование — регулярные и всесторонние оценки рисков ИИ до его интеграции в робототехнику.
Cлежка за пользователями через ИИ
13 ноября 2025 г. американскую корпорацию Google обвинили в незаконной слежке за личными данными пользователями при помощи ИИ-модели Gemini.

Комментариев нет:
Отправить комментарий