Онлайн-вещание
ОНТ
Telegram youtube tiktok Instagram vk Одноклассники facebook music.yandex
Версия для слабовидящих
ОНТ Онлайн-вещание
  • Президент
  • Новости
  • Программы и проекты
  • Телепрограмма
  • О компании
Главная / Новости / Новости технологий
04.06.2025, 23:52 Обновлено: 01.09.2025, 04:09

ИИ научился признавать свои ошибки

Исследователи Массачусетского технологического института (MIT) запустили проект, который должен снизить ошибки, что может допускать ИИ. Об этом сообщает MIT News.

Согласно имеющейся информации, стартап Themis AI должен научить нейросети тому, что порой удается даже не всем людям – признавать свои ошибки. Также платформа Capsa должна научить ИИ сомневаться в своей правоте.

Теоретически, наличие сомнений – одно из тех свойств мышления, которое позволяет получить истинную информацию. Впрочем, искусственный интеллект данным свойством пока не обладает.

Как отмечалось ранее, в ряде случаев нейросети способны дать «абсолютно точный, но абсолютно бесполезный» ответ. И если в случае вопросов об уже известных вещах это не столь критично, поскольку данные можно перепроверить, то в ситуациях, когда ИИ используется для разработки чего-то нового (например, при написании программного кода или создании лекарственных препаратов) ошибки могут иметь самые разные негативные последствия и в лучшем случае конечный продукт окажется бесполезен и неработоспособен.

Стоит отметить, что иногда у чат-ботов бывают сбои, которые в Google назвали «галлюцинациями». 

Речь идет о случаях, когда чат-боты дают неправильные ответы, причем их поведение в этот момент действительно напоминает ход мыслей психически нездорового человека. В частности, оно напоминает шизофрению или бредовое расстройство, при которых человек (а в данном случае ИИ) верит в то, что говорит или думает. Причем, в отличие от случаев софистики, говорящий не пытается ввести кого-либо в заблуждение, а строит ложные выводы абсолютно искренне, поскольку в его представлении это абсолютно логично.

Подобные ошибки в деятельности искусственного интеллекта выглядят не менее любопытно, чем «успехи» нейросетей. Все-таки проявление «психических отклонений» у машины ставит под вопрос «искусственность» машинного интеллекта.

Фото: Pixabay

Теги

Безопасность Интернет Новости IT-технологий Новости технологий Общество Роботы США

Еще по теме

27.04.2025
Хакеры заставили нейросети выполнять запрещенные действия
08.09.2024
NBC News: нейросети могут начать принимать решение об эвтаназии
08.06.2024
Его ученики запускают нейросети и готовятся стать чемпионами в IT: преподаватель БГУ – в рубрике «Хорошие люди»

Для обеспечения удобства пользователей сайта используются cookies

Подробнее
Принять
Отклонить
О компании
  • Команда ОНТ
  • История ОНТ
  • Обратная связь
  • О радио
Реклама и услуги
  • Размещение рекламы на радио «Центр FM»
  • Размещение рекламы на телеканале ОНТ
Вакансии
  • Вакансии ОНТ

Общенациональное телевидение, 220029, 
г. Минск, ул. Коммунистическая, 6

217-04-24 (горячая линия), 
290-66-72 (приемная)

ont@ont.by (приемная), reklama@ont.by 
(дирекция продаж и маркетинга)

2002—2026 © ЗАО «Второй национальный телеканал». При любом использовании материалов активная гиперссылка на «ONT.BY» обязательна.

Разработка сайта — 

Белта
Telegram youtube tiktok Instagram vk Одноклассники facebook music.yandex