ОНТ Онлайн-вещание
Telegram youtube tiktok Instagram vk Одноклассники viber facebook music.yandex
Версия для слабовидящих
ОНТ Онлайн-вещание
Поиск
  • Президент
  • Новости
  • Программы и проекты
  • Телепрограмма
  • О компании
Главная / Новости / Новости технологий
04.06.2025, 23:52 Обновлено: 01.09.2025, 04:09

ИИ научился признавать свои ошибки

Исследователи Массачусетского технологического института (MIT) запустили проект, который должен снизить ошибки, что может допускать ИИ. Об этом сообщает MIT News.

Согласно имеющейся информации, стартап Themis AI должен научить нейросети тому, что порой удается даже не всем людям – признавать свои ошибки. Также платформа Capsa должна научить ИИ сомневаться в своей правоте.

Теоретически, наличие сомнений – одно из тех свойств мышления, которое позволяет получить истинную информацию. Впрочем, искусственный интеллект данным свойством пока не обладает.

Как отмечалось ранее, в ряде случаев нейросети способны дать «абсолютно точный, но абсолютно бесполезный» ответ. И если в случае вопросов об уже известных вещах это не столь критично, поскольку данные можно перепроверить, то в ситуациях, когда ИИ используется для разработки чего-то нового (например, при написании программного кода или создании лекарственных препаратов) ошибки могут иметь самые разные негативные последствия и в лучшем случае конечный продукт окажется бесполезен и неработоспособен.

Стоит отметить, что иногда у чат-ботов бывают сбои, которые в Google назвали «галлюцинациями». 

Речь идет о случаях, когда чат-боты дают неправильные ответы, причем их поведение в этот момент действительно напоминает ход мыслей психически нездорового человека. В частности, оно напоминает шизофрению или бредовое расстройство, при которых человек (а в данном случае ИИ) верит в то, что говорит или думает. Причем, в отличие от случаев софистики, говорящий не пытается ввести кого-либо в заблуждение, а строит ложные выводы абсолютно искренне, поскольку в его представлении это абсолютно логично.

Подобные ошибки в деятельности искусственного интеллекта выглядят не менее любопытно, чем «успехи» нейросетей. Все-таки проявление «психических отклонений» у машины ставит под вопрос «искусственность» машинного интеллекта.

Фото: Pixabay

Теги

Безопасность Интернет Новости IT-технологий Новости технологий Общество Роботы США

Еще по теме

27.04.2025
Хакеры заставили нейросети выполнять запрещенные действия
22.02.2025
Искусственный интеллект, говорят, скоро заменит человека. Но смогут ли нейросети когда-нибудь постичь тонкости человеческой речи?
08.09.2024
NBC News: нейросети могут начать принимать решение об эвтаназии
О компании
  • Команда ОНТ
  • История ОНТ
  • Обратная связь
  • О радио
Реклама и услуги
  • Размещение рекламы на радио «Центр FM»
  • Размещение прямой рекламы на телеканале ОНТ
  • Размещение рекламной информации на сайте ONT.BY и на цифровых платформах телеканала
  • Информационное партнёрство со СМИ, пресс-служба
Вакансии
  • Вакансии ОНТ

Общенациональное телевидение, 220029, 
г. Минск, ул. Коммунистическая, 6

217-04-24 (горячая линия) , 290-66-72 
(приемная), 322-53-61 (пресс-служба), 
322-53-61 (дирекция продаж и маркетинга)

ont@ont.by (приемная), reklama@ont.by 
(дирекция продаж и маркетинга), 
press@ont.by (пресс-служба)

2002—2026 © ЗАО «Второй национальный телеканал». При любом использовании материалов активная гиперссылка на «ONT.BY» обязательна.

Разработка сайта — 

Белта
Telegram youtube tiktok Instagram vk Одноклассники viber facebook music.yandex