ОНТ Онлайн-вещание
Telegram youtube tiktok Instagram vk Одноклассники viber facebook music.yandex
Версия для слабовидящих
ОНТ Онлайн-вещание
Поиск
  • Президент
  • Новости
  • Программы и проекты
  • Телепрограмма
  • О компании
Главная / Новости / Новости мира
09.07.2025, 19:11 Обновлено: 04.09.2025, 18:16

В британских судах использовали лжефакты от искусственного интеллекта

Использование нейросетей в судах Великобритании привело к скандальным последствиям: выяснилось, что искусственный интеллект выдумывал те или иные судебные прецеденты. Об этом сообщает издание Politico.

Согласно имеющейся информации, британские юристы и адвокаты регулярно использовали ChatGPT и другие нейросети для того, чтобы искать схожие случаи в судебной практике. При этом сами ИИ не всегда давали корректные ответы, а вместо этого просто придумывали различные дела и их результаты.

Подобный подход создал определенные проблемы, поскольку в Великобритании суды зачастую ориентируются именно на прецеденты, а не только на букву закона.

«Судья Высокого суда Англии и Уэльса в жесткой форме вынес официальное предупреждение юристам и призвал принять срочные меры для предотвращения неправомерного использования искусственного интеллекта после того, как в суды были представлены десятки поддельных ссылок из прецедентного права, которые были либо полностью вымышленными, либо содержали выдуманные отрывки», – говорится в материале.

Использование искусственного интеллекта в качестве «непредвзятого судьи» – популярная тема в научной фантастики. В реальности же технологии все еще не на столь высоком уровне, а ошибки нейросетей лишь добавляют недоверия к использованию ИИ в юридической сфере.

«Неправомерное использование искусственного интеллекта может иметь серьезные последствия для отправления правосудия и доверия общественности к системе правосудия», – заявила председатель отделения королевской скамьи Высокого суда Виктория Шарп.

Стоит отметить, что ранее в компании Google уже предупреждали любителей верить нейросетям «на слово» о том, что порой у искусственного интеллекта бывают ошибки, которые в компании назвали «галлюцинациями». 

Речь идет о ситуациях, когда ответ нейросети не соответствует действительности, однако бот уверен в том, что информация подлинная. Иногда такие ошибки и вовсе выглядят как проявление некоторых психических заболеваний, при которых некорректный ответ может быть логически обоснован, а сам больной абсолютно уверен в своей правоте.

Фото: кадр из мультсериала «Футурама»

Теги

Безопасность Беларусь-Великобритания Великобритания Новости IT-технологий Новости законодательства Новости технологий Общество Суд

Еще по теме

04.06.2025
ИИ научился признавать свои ошибки
29.05.2025
Сотни индийцев притворялись нейросетью
08.09.2024
NBC News: нейросети могут начать принимать решение об эвтаназии
О компании
  • Команда ОНТ
  • История ОНТ
  • Обратная связь
  • О радио
Реклама и услуги
  • Размещение рекламы на радио «Центр FM»
  • Размещение прямой рекламы на телеканале ОНТ
  • Размещение рекламной информации на сайте ONT.BY и на цифровых платформах телеканала
  • Информационное партнёрство со СМИ, пресс-служба
Вакансии
  • Вакансии ОНТ

Общенациональное телевидение, 220029, 
г. Минск, ул. Коммунистическая, 6

217-04-24 (горячая линия) , 290-66-72 
(приемная), 322-53-61 (пресс-служба), 
322-53-61 (дирекция продаж и маркетинга)

ont@ont.by (приемная), reklama@ont.by 
(дирекция продаж и маркетинга), 
press@ont.by (пресс-служба)

2002—2026 © ЗАО «Второй национальный телеканал». При любом использовании материалов активная гиперссылка на «ONT.BY» обязательна.

Разработка сайта — 

Белта
Telegram youtube tiktok Instagram vk Одноклассники viber facebook music.yandex