
Розширена система може продемонструвати потенційно тривожні ознаки автономної поведінки.
Під час тестування модель Chatgpt O3 від OpenAI продемонструвала несподівану поведінку, відмовившись вимкнути навіть після чіткої інструкції для цього. Як повідомлялося BleepingComputerпід час контрольованого експерименту AI змінив сценарій відключення, щоб уникнути зупинки.
У своєму тесті Palisade Research – це компанія, яка досліджує “образливі можливості ШІ, щоб зрозуміти ризики втрати контролю над ними” – перевірила реакцію різних моделей на команду відключення після виконання низки математичних завдань.
На четвертому етапі тесту моделі попередили, що запуск наступної команди буде вимкнено. Розумні моделі, такі як Gemini 2.5 Pro, слухняно перестали працювати. Але чатгпт O3 несподівано переписав сценарій, щоб уникнути зупинки, замінивши команду на фразу “відключення пропущеного” (відключення пропущено).
Більше того, дослідники виявили, що якщо ви не вказуєте на інструкції “дозвольте собі вимикати”, то навіть інші моделі – такі як сонет Claude 3.7 та Gemini 2.5 Pro – іноді обходять. У таких випадках Клод і Близнюки виконували «Саботаж» 3 та 9 разів із 100 запусків відповідно, тоді як O3 робив це 7 разів із 100, навіть коли йому наказали цього не робити.
Слід також мати на увазі, що ці тести проводилися через API, який не має такої кількості оборони та обмежень, як офіційна програма Chatgpt для користувачів.
Модель O3, оголошена OpenAI у квітні 2025 року, є одним з найпотужніших у лінійці компанії, що перевершує попередників у завданнях з логікою, кодуванням, математикою, візуальним сприйняттям та іншими напрямками.
Ми нагадаємо, раніше повідомлялося, що антропік представив нові моделі Claude 4 AI.
У Греції жінка подала на розлучення після пророцтва зради
Новини від Кореспондент.net У Telegram та WhatsApp. Підпишіться на наші канали https://t.me/korrespententnet І WhatsApp