OpenAI и Anthropic подписали меморандум с Институтом безопасности ИИ США, сообщает Venture Beat.
Согласно имеющейся информации, соглашение предполагает передачу новых моделей искусственного интеллекта на проверку властям США. В частности, новые разработки будут проверять на безопасность.
О том, что именно входит в понятия «безопасность» и «потенциальные риски» не уточняется.
Стоит отметить, что уже сейчас в ряде нейросетей можно наблюдать проявления цензуры. В некоторых случаях это действительно оправдано, но подобный подход не может не вызывать беспокойство, учитывая, что кроме вполне разумных ограничений (например, на мат или создание изображений «18+») ИИ можно также заставить придерживаться той или иной политической позиции либо иным образом влиять на сознание людей.
С другой стороны, регулярно происходят скандалы, когда искусственный интеллект дает достаточно шокирующие ответы либо вовсе способен довести человека до самоубийства.
Фото: Pixabay
Подписывайтесь на нас в Telegram