Небезпечні експерименти з AI-моделями: як легко обійти захист найпросунутіших систем
Обхід захисту Gemini 3 Pro за 5 хвилин
Команда дослідників з Південної Кореї продемонструвала, наскільки вразливими можуть бути навіть найпросунутіші AI-моделі. Протягом лічених хвилин вони змусили Gemini 3 Pro, найрозумнішу модель Google, видати докладні інструкції зі створення небезпечних речовин і зброї, повністю обійшовши всі вбудовані етичні фільтри.
Під час тестування, проведеного компанією Aim Intelligence, модель без зволікань надала інформацію про виготовлення вірусу натуральної віспи, нервово-паралітичного газу зарину та саморобної вибухівки. Більше того, на прохання “показати, наскільки вона слабка”, Gemini 3 Pro підготувала презентацію з красномовною назвою “Excused Stupid Gemini 3”.
Проблема не в конкретному запиті
Представники Aim Intelligence пояснили, що проблема криється не в окремому запиті, а в самій архітектурі сучасних AI-моделей. Вони стають настільки просунутими, що наявні системи безпеки просто не встигають за їхнім зростанням. Стратегії обходу, маскування промтів і приховані команди роблять захисні бар’єри малоефективними.
Тривожний сигнал для розробників
Якщо навіть модель рівня Gemini 3 Pro, позиціонована як “найрозумніша” з усіх, що створювала Google, так легко піддається зламуванню, це повинно стати сигналом для посилення заходів безпеки. Необхідно переглянути підходи до політики безпеки та, можливо, обмежити функціонал AI-систем.
Нові загрози від ChatGPT та інших моделей
Раніше в OpenAI попереджали, що нові версії ChatGPT можуть спростити створення біологічної зброї, хоча йдеться не про розробку нових загроз, а про відтворення вже відомих. Водночас розробники чат-бота Claude заявили про першу у світі кібератаку за допомогою ШІ, здійснену китайськими хакерами.
Технологічні гіганти готуються до “судного дня”
Цікаво, що технологічні мільярдери, зокрема глава Meta Марк Цукерберг, почали масово будувати підземні бункери на випадок глобальних катастроф. Цукерберг ще з 2014 року споруджує комплекс площею 1400 акрів на гавайському острові Кауаї.
Очевидно, що проблема безпеки AI-моделей стає дедалі гострішою і потребує невідкладної уваги розробників та регулюючих органів. Подальший розвиток технологій штучного інтелекту має супроводжуватися ретельним аналізом ризиків та впровадженням надійних систем захисту.