ОНТ Онлайн-вещание
Telegram youtube tiktok Instagram vk Одноклассники viber facebook music.yandex
Версия для слабовидящих
ОНТ Онлайн-вещание
Поиск
  • Президент
  • Новости
  • Программы и проекты
  • Телепрограмма
  • О компании
Главная / Новости / Происшествия в Беларуси и мире
30.08.2025, 05:17 Обновлено: 17.09.2025, 03:52

Экс-сотрудник Yahoo убил мать и покончил с собой после общения с ChatGPT

В США, после общения с ботом ChatGPT, мужчина убил свою мать, а после покончил с собой. Об этом сообщает РИА «Новости».

Согласно имеющейся информации, речь идет о 56-летнем мужчине, который раньше работал в компании Yahoo. Сообщается, что весной этого года его начали посещать параноидальные идеи.

В частности, мужчина был уверен в том, что за ним ведется слежка и его мать тоже в этом замешена.

Возможно, что при других обстоятельствах он бы обратился за медицинской помощью или его странные идеи настолько вызывали бы беспокойство у окружающих, что они бы как-то вмешались. Но все пошло по другому сценарию: мужчина решил спросить совет у нейросети и та лишь укрепила его веру в то, что подозрения о слежке не являются бредом и со здравомыслием у этого человека нет никаких проблем.

«Однажды мужчина попросил чат-бот проанализировать текст на чеке за блюдо китайской кухни - в итоге ИИ нашел на чеке отсылки к матери Сольберга и его бывшей спутнице, а также символ, используемый для призыва демона. В другой ситуации мужчина заказал на дом бутылку водки, и спросив, не вызывают ли у чат-бота подозрений упаковка и курьер - ИИ ответил, что обстоятельства доставки могут указывать на попытку смертельного отравления Сольберга», – говорится в материале.

Закончилось все трагично: сперва мужчина убил свою мать, а после покончил с собой.

Стоит отметить, что в последнее время люди все больше начали доверять нейросетям и чат-ботам. При этом наблюдается довольно пугающая тенденция: при депрессии или других проблемах с ментальным здоровьем люди все чаще именно к виртуальному собеседнику, а не к человеку с соответствующим образованием. 

В результате последствия могут быть весьма трагичными и закончиться чьей-то смертью. 

Можно ли считать случившееся виной ИИ или его разработчиков – сложный вопрос. Тем не менее предполагается, что в случае, если собеседник говорит о планах совершить самоубийство, убийство или какое-либо тяжкое преступление, то бот должен прекратить общение. Впрочем, как показывает практика, происходит это далеко не всегда. Кроме того исследования показали, что нейросети все более «очеловечиваются», в том числе перенимая не самые лучшие человеческие черты, включая обман и неподчинение правилам.

Примечательно, что «психические заболевания» уже встречаются и у искусственного интеллекта. Речь идет о сбоях в работе, когда высказывания виртуального собеседника являются очевидно недостоверными, однако ИИ уверен в их правдивости и даже способен доказать свои слова, приводя аргументы, которые могут на первый взгляд даже выглядеть логичными. Подобные сбои напоминают симптомы шизоофрении или ряда других психических расстройств.

Фото: Антон Крятов, ОНТ

Теги

Безопасность Здоровье Искусственный интеллект Новости IT-технологий Новости происшествий Новости технологий Общество Происшествия Роботы США ЧП в Беларуси и мире

Еще по теме

26.08.2025
В США родители подали иск против OpenAI из-за самоубийства сына
25.08.2025
Илон Маск подал иск против Apple и OpenAI
04.04.2024
«Алло, мы ищем террористов!» Реальная угроза или «Синий кит» возвращается?
О компании
  • Команда ОНТ
  • История ОНТ
  • Обратная связь
  • О радио
Реклама и услуги
  • Размещение рекламы на радио «Центр FM»
  • Размещение прямой рекламы на телеканале ОНТ
  • Размещение рекламной информации на сайте ONT.BY и на цифровых платформах телеканала
  • Информационное партнёрство со СМИ, пресс-служба
Вакансии
  • Вакансии ОНТ

Общенациональное телевидение, 220029, 
г. Минск, ул. Коммунистическая, 6

217-04-24 (горячая линия) , 290-66-72 
(приемная), 322-53-61 (пресс-служба), 
322-53-61 (дирекция продаж и маркетинга)

ont@ont.by (приемная), reklama@ont.by 
(дирекция продаж и маркетинга), 
press@ont.by (пресс-служба)

2002—2026 © ЗАО «Второй национальный телеканал». При любом использовании материалов активная гиперссылка на «ONT.BY» обязательна.

Разработка сайта — 

Белта
Telegram youtube tiktok Instagram vk Одноклассники viber facebook music.yandex