Настройки
Настройки шрифта
Arial
Times New Roman
Размер шрифта
A
A
A
Межбуквенное расстояние
Стандартное
Увеличенное
Большое
Цветовая схема
Черным
по белому
Белым
по черному
Главная / Новости / Новости мира

В британских судах использовали лжефакты от искусственного интеллекта

Использование нейросетей в судах Великобритании привело к скандальным последствиям: выяснилось, что искусственный интеллект выдумывал те или иные судебные прецеденты. Об этом сообщает издание Politico.

Согласно имеющейся информации, британские юристы и адвокаты регулярно использовали ChatGPT и другие нейросети для того, чтобы искать схожие случаи в судебной практике. При этом сами ИИ не всегда давали корректные ответы, а вместо этого просто придумывали различные дела и их результаты.

Подобный подход создал определенные проблемы, поскольку в Великобритании суды зачастую ориентируются именно на прецеденты, а не только на букву закона.

«Судья Высокого суда Англии и Уэльса в жесткой форме вынес официальное предупреждение юристам и призвал принять срочные меры для предотвращения неправомерного использования искусственного интеллекта после того, как в суды были представлены десятки поддельных ссылок из прецедентного права, которые были либо полностью вымышленными, либо содержали выдуманные отрывки», – говорится в материале.

Использование искусственного интеллекта в качестве «непредвзятого судьи» – популярная тема в научной фантастики. В реальности же технологии все еще не на столь высоком уровне, а ошибки нейросетей лишь добавляют недоверия к использованию ИИ в юридической сфере.

«Неправомерное использование искусственного интеллекта может иметь серьезные последствия для отправления правосудия и доверия общественности к системе правосудия», – заявила председатель отделения королевской скамьи Высокого суда Виктория Шарп.

Стоит отметить, что ранее в компании Google уже предупреждали любителей верить нейросетям «на слово» о том, что порой у искусственного интеллекта бывают ошибки, которые в компании назвали «галлюцинациями». 

Речь идет о ситуациях, когда ответ нейросети не соответствует действительности, однако бот уверен в том, что информация подлинная. Иногда такие ошибки и вовсе выглядят как проявление некоторых психических заболеваний, при которых некорректный ответ может быть логически обоснован, а сам больной абсолютно уверен в своей правоте.

Фото: кадр из мультсериала «Футурама»