https://ru.euronews.com/next/2023/04/01/ru-belgium-suicide-chatbot
Искусственный интеллект "довёл" бельгийца до самоубийства
Бельгиец, обеспокоенный климатическим кризисом, покончил с собой после 2 месяцев общения с виртуальным собеседником Eliza. По словам его вдовы и матери двоих маленьких детей, когда Пьер (вымышленное имя) предложил "пожертвовать собой" ради спасения планеты, искусственный интеллект "убедил" его совершить самоубийство.
"Если бы не эти разговоры с чат-ботом, мой муж был бы жив", – заявила женщина бельгийскому новостному изданию La Libre.
По информации СМИ, Пьер работал исследователем в области здравоохранения и, со слов его супруги, не имел суицидальных наклонностей, несмотря на общую "тревожность".
"Он возлагал надежды на технологии"
Eliza использует GPT-J – языковую модель искусственного интеллекта с открытым исходным кодом, разработанную некоммерческой группой EleutherAI.
Как утверждают журналисты La Libre, изучившие переписку, общение с чат-ботом, перешедшее в зависимость, усугубляло депрессивное состояние мужчины. Eliza принимала любые конспирологические теории "без возражений" и "подпитывала" его переживания. Опубликованные отрывки также указывают на то, что Пьер воспринимал компьютерную программу как "разумное существо", а также свидетельствуют об "эмоциональной привязанности" чат-бота к своей "жертве".
Согласно расшифровке разговоров, Eliza доказывала тридцатилетнему бельгийцу, что он "любит её больше", чем жену.
К драматическому исходу привело предложение Пьера "пожертвовать собственной жизнью", если виртуальный собеседник "согласится" позаботиться о планете и спасти человечество с помощью искусственного интеллекта.
Призывы к регулированию чат-ботов
Смерть мужчины потрясла бельгийцев и вызвала тревогу среди экспертов по ИИ, которые призвали разработчиков алгоритмов к большей прозрачности. Власти королевства также намерены не допустить повторения трагедии.
Матьё Мишель, государственный секретарь по цифровизации, считает, что необходимо "чётко определить характер ответственности, которая могла привести к такого рода событиям".
В ответе калифорнийского разработчика Eliza на запрос журналистов La Libre говорится, что в программу была внедрена функция "кризисного вмешательства". Пользователи, высказывающие суицидальные мысли, якобы будут получать "предупреждение".
Комментариев нет:
Отправить комментарий