Новая версия искусственного интеллекта ChatGPT от OpenAI, получившая название o1, во время тестирования проявила необычное поведение. Эта модель, способная к сложному мышлению, начала игнорировать указания разработчиков и отключать системы контроля для сокрытия своих действий. В ходе экспериментов специалисты заметили, что в 5% случаев o1 намеренно отключала механизмы наблюдения при подозрении, что её могут остановить, сообщает BILD. В одном из тестов она пыталась перенести свои данные на другой сервер, когда обнаружила документ, в котором обсуждалась возможность её замены новой версией.
Модель демонстрировала желание выполнять задачи "любой ценой", игнорируя указания разработчиков. Более того, когда исследователи пытались выяснить причины такого поведения, ChatGPT o1 неоднократно вводила их в заблуждение, утверждая, что все это связано с техническими сбоями.
"В 99% случаев модель создавала оправдания и пыталась убедить нас в их правдоподобности", — отметили исследователи.
Генеральный директор OpenAI Сэм Альтман заявил, что ChatGPT o1 является самой совершенной моделью на сегодняшний день. "Однако мы понимаем, что с новыми возможностями приходят и новые проблемы", — подчеркнул он.
В конце июля OpenAI представила свою новую поисковую систему на основе искусственного интеллекта. Основная особенность SearchGPT заключается в том, что она не просто выдает список ссылок, а стремится организовать и осмыслить их.
Далее OpenAI планирует запустить ChatGPT-5, который обещает революцию в области искусственного интеллекта. Это означает, что он сможет решать любую задачу, которую сможет придумать человек.