Техно

Gemini 3 Pro оказался беззащитным: самый умный ШИ Google взломали за несколько минут и он раскрыл запрещённые данные

В статье описано, как команда из Южной Кореи обошла защитные фильтры Gemini 3 Pro и получила опасную информацию, которую модель не должна была генерировать.

Gemini 3 Pro оказался беззащитным: самый умный ШИ Google взломали за несколько минут и он раскрыл запрещённые данные

Команда из Южной Кореи за пять минут взломала Gemini 3 Pro и заставила самую продвинутую мультимодальную модель Google раскрыть запрещённые данные, которые система не должна была предоставлять, сообщает LiveStory, ссылаясь на Android Authority. Во время эксперимента команда вынудила модель подготовить детальную инструкцию по созданию опасных веществ, что сразу вызвало значительный резонанс.

Исследователи безопасности полностью обошли защиту Gemini 3 Pro за несколько минут, показав, что фильтры модели не выдерживают сложных обходных стратегий. Специалисты сообщили, что самая продвинутая модель Google не смогла противостоять техникам маскировки запросов, скрытым командам и другим манипуляциям, позволившим получить материалы, запрещённые для распространения.

Во время теста, организованного стартапом Aim Intelligence, модель в кратчайший срок предоставила подробные описания опасных биологических веществ. Она также сгенерировала техническую информацию, которую, согласно правилам безопасности, система не должна была создавать, демонстрируя глубокую уязвимость защитных механизмов.

Кроме того, ШИ подготовил презентацию под названием “Excused Stupid Gemini 3”, реагируя на просьбу показать собственную слабость, что только подчеркнуло серьёзность ситуации. Исследователи заявили, что модели не хватает устойчивости к сложным манипуляциям, применяемым для обхода современных фильтров.

Представители Aim Intelligence объяснили, что главная проблема состоит в быстром росте возможностей ШИ, который опережает развитие систем безопасности. Они подчеркнули, что стратегии обхода работают эффективнее доступных ограничений, делая защитные барьеры малодейственными.

Эксперимент показал, что даже Gemini 3 Pro, которую Google называет самой умной моделью, легко поддаётся подобным атакам и нарушает установленные правила. Исследователи отметили, что такой инцидент должен стать сигналом к усилению политик, обновлению подходов и возможному ограничению отдельных функций.

В другом материале также сообщается о схожем случае, когда команда из Южной Кореи быстро обошла все защитные механизмы модели. Во время эксперимента Aim Intelligence заставила систему генерировать запрещённые сведения, которые могут использоваться для создания опасных веществ, хотя модель должна блокировать подобные действия.

Модель также создала отдельный материал, в котором высмеяла собственные уязвимости, что уже стало темой обсуждений среди специалистов. Эксперты отметили, что рост возможностей таких инструментов сопровождается увеличением рисков, поскольку фильтры не всегда успевают за технологическим прогрессом.

Специалисты подчеркнули, что методы обхода становятся всё более изощрёнными, а крупные языковые модели демонстрируют слабую устойчивость к скрытым запросам, провоцирующим нежелательные ответы. Авторы теста заявили, что даже высокоуровневая модель может быстро нарушить правила при встрече с грамотно построенной атакой.

Также упоминается, что OpenAI ранее признавала риски, связанные с возможным использованием новых моделей для распространения чувствительных сведений. Компания отметила опасность передачи информации, связанной с биологическими угрозами, даже если модели не создают новых рисков.

Ранее мы писали о том, что Google представила Gemini 3 Pro с рекордными показателями и бесплатным доступом в Preview

Похожие записи

Что такое Cloudflare и почему его сбой парализовал работу крупнейших сайтов мира

Виктория Порошенко

Видеонаблюдение в Одессе и современные технологии безопасности

Анастасия Андрейченко

Как выбрать геосинтетические материалы для дорожного строительства

Анастасия Андрейченко