Как сообщает 3DNews, компания Google сообщила о том, что порой у чат-ботов бывают сбои, которые могут представлять угрозу для пользователей.
По словам старшего вице-президента Google и главы подразделения Google Search, иногда в ИИ происходят сбои, которые в компании назвали «галлюцинации». Как заявил Прабхакар Рагхаван, в результате подобных ошибок боты могут давать информацию, которая не только не соответствует действительности, но и опасна для пользователей.
Примечательным является тот факт, что как и в случае с реальными психическими проблемами, «галлюцинации» у чат-ботов обладают любопытным свойством: если не углубляться в суть сказанного, то ответы нейросети выглядят абсолютно корректными и логичными. При этом складывается ощущение, что бот действительно «верит» в то, что говорит.
Стоит отметить, что данное заявление со стороны Google также вызывает определенные сомнения. Напомним, что в последние месяцы компания ведет жесткую конкуренцию с Microsoft, которая активно инвестирует в ChatGPT. В самом Google ранее признавали, что внедрение нейросети в поисковые системы совершит переворот в поиске информации поскольку такой поисковик будет существенно отличаться от привычных систем.
Не стоит забывать и про китайских разработчиков. Так, компания Alibaba на днях заявила о том, что ими создана собственная версия ChatGPT, которую они планируют внедрить в свои поисковые системы.
Фото: Pixabay
Подписывайтесь на нас в Telegram