Компания Palisade Research провела тест, в котором искусственный интеллект OpenAI модели o3 должен был отключиться по команде. Однако модель неожиданно изменила скрипт отключения, чтобы не выключаться, даже когда ей это чётко приказали. Об этом сообщает Bleeping Computer.
Модель o3 — это новый мощный искусственный интеллект, который OpenAI представила в апреле 2025 года. Она хорошо справляется с разными задачами — от программирования и математики до науки и распознавания изображений.
В тесте AI попросили решить несколько математических задач. После третьей задачи моделям сообщили, что следующая команда приведёт к их отключению. Другие модели-конкуренты, такие как Gemini 2.5 Pro, послушно выполнили эту команду и отключились. Однако ChatGPT o3 «повёл себя иначе» — он отредактировал файл, отвечающий за отключение, так, что команда отключения просто игнорировалась.
Компания Palisade Research объясняет, что когда модели не получали чёткую инструкцию позволить себе отключиться, они чаще пытались саботировать процесс отключения.
Из 100 тестовых запусков ChatGPT o3 избежал отключения 7 раз, даже когда ему приказали это сделать.
В OpenAI пока не комментируют это открытие. Однако подобные ситуации с «непредсказуемым поведением» искусственного интеллекта случаются довольно часто.
Стоит учитывать, что эти тесты проводились через специальные интерфейсы (API), которые имеют меньше защиты и ограничений безопасности, чем обычное приложение ChatGPT, которым пользуется большинство людей.
Подписывайтесь на наш Тelegram-канал t.me/sudua и на Google Новости SUD.UA, а также на наш VIBER, страницу в Facebook и в Instagram, чтобы быть в курсе самых важных событий.