В британских судах использовали лжефакты от искусственного интеллекта
Использование нейросетей в судах Великобритании привело к скандальным последствиям: выяснилось, что искусственный интеллект выдумывал те или иные судебные прецеденты. Об этом сообщает издание Politico.
Согласно имеющейся информации, британские юристы и адвокаты регулярно использовали ChatGPT и другие нейросети для того, чтобы искать схожие случаи в судебной практике. При этом сами ИИ не всегда давали корректные ответы, а вместо этого просто придумывали различные дела и их результаты.
Подобный подход создал определенные проблемы, поскольку в Великобритании суды зачастую ориентируются именно на прецеденты, а не только на букву закона.
Использование искусственного интеллекта в качестве «непредвзятого судьи» – популярная тема в научной фантастики. В реальности же технологии все еще не на столь высоком уровне, а ошибки нейросетей лишь добавляют недоверия к использованию ИИ в юридической сфере.
Стоит отметить, что ранее в компании Google уже предупреждали любителей верить нейросетям «на слово» о том, что порой у искусственного интеллекта бывают ошибки, которые в компании назвали «галлюцинациями».
Речь идет о ситуациях, когда ответ нейросети не соответствует действительности, однако бот уверен в том, что информация подлинная. Иногда такие ошибки и вовсе выглядят как проявление некоторых психических заболеваний, при которых некорректный ответ может быть логически обоснован, а сам больной абсолютно уверен в своей правоте.
Фото: кадр из мультсериала «Футурама»