Устланный рисками маршрут: причины, по которым новая китайская модель ИИ представляет угрозу для бизнеса

Новая языковая модель Kimi K2 Thinking от китайского стартапа Moonshot AI, среди инвесторов которого находятся Alibaba Group, Tencent и Microsoft, может стать инструментом для злоумышленников, позволяя им запускать атакующие программы локально, без необходимости обращаться к внешнему API и без ограничений со стороны разработчика.Нейросеть мозг ИИИсточник: Unsplash

Эти выводы представлены в исследовании разработчика систем информационной безопасности Servicepipe. По мнению экспертов, злоумышленники уже активно применяют ИИ для разработки вредоносных приложений, обнаружения уязвимостей и осуществления всех этапов кибератак.

Восточная угроза

Выход китайской ИИ-модели Kimi K2 Thinking, созданной пекинским стартапом Moonshot AI, увеличивает риски для безопасности корпоративных веб-сервисов и API, отмечают в компании Servicepipe, предоставляющей решения в сфере кибербезопасности и защиты трафика.

На прошлой неделе Moonshot AI, инвесторами которого являются Alibaba Group, Tencent и Microsoft (общая сумма привлеченных инвестиций — $3,3 млрд), открыла публичный доступ к своей новой языковой модели Kimi K2 Thinking. Размер модели составляет примерно 1 трлн параметров, при этом активируется около 32 млрд во время инференса — использования уже обученных алгоритмов для обработки новых данных и выдачи результатов. Таким образом, при каждом обращении активируется лишь та часть модели, которая наиболее подходит для решения конкретной задачи, что значительно увеличивает скорость работы и уменьшает требования к аппаратным ресурсам. Это стало возможным благодаря архитектуре Mixture of Experts. По данным тестирования и независимых бенчмарков, модель может соперничать с ведущими разработками, такими как Claude Sonnet 4 и GPT-4.1.

Модель поддерживает контекст до 256 000 токенов и демонстрирует высокие результаты в тестах на рассуждение. В открытом доступе представлены не только код и архитектура, но и веса нейронной сети — числовые параметры, на которых она обучена. Запустить ее могут все желающие локально, без подключения к облачным сервисам разработчика, указывают в Servicepipe.

Kimi K2 Thinking обладает функцией reasoning & tool-use: модель умеет самостоятельно планировать, обращаться к внешним инструментам, выполнять код и анализировать результаты. В сочетании с открытым доступом это существенно упрощает разработку атакующих агентов, предназначенных для автоматизации взлома веб-интерфейсов, API-взаимодействий и CI/CD-систем, подчеркивают авторы исследования. «В 2025 году сервис-провайдеры защиты от DDoS-атак уже сталкивались с атаками, где атакующий инструмент был создан с помощью ChatGPT и других чат-ботов с генеративным ИИ, — говорит директор по продуктам Servicepipe Михаил Хлебунов. — Публичный доступ к языковой модели Kimi K2 Thinking расширяет возможности злоумышленников, позволяя запускать атакующие инструменты локально, без внешнего API и ограничений со стороны поставщика».

По мнению Хлебунова, эпоха атак «вручную» подходит к концу, и бизнесу необходимо подготовиться к этой угрозе, обеспечив защиту веб-ресурсов и API с помощью решений, способных противостоять организованным с помощью ИИ атакам.

Война «умов»

Злоумышленники уже в настоящее время активно используют ИИ для кибератак — от поиска целей и первичного проникновения в инфраструктуру до анализа ценных данных взломанной компании и их хищения или шифрования, объясняет гендиректор Security Vision Руслан Рахметов. Появление таких продвинутых инструментов позволяет злоумышленникам значительно масштабировать свои атаки без значительных затрат времени, а также существенно снижает порог входа в киберпреступность — теперь для успешного фишинга и взлома сетей не требуется знания ни иностранных языков, ни языков программирования.

Публикация ИИ-моделей без ограничений имеет как положительные, так и отрицательные последствия, констатируют эксперты в области кибербезопасности. ИИ может решать любые поставленные задачи, отвечать на вопросы, учитывая весь контекст дискуссии, а также интегрироваться в другие сервисы или решения для автоматизации процессов, отмечает руководитель продукта Solar webProxy ГК «Солар» Анастасия Хвещеник. В то же время, по ее словам, это важно и для киберпреступников разного уровня: «ИИ-модели снижают порог вхождения в киберпреступность и оптимизируют затраты ресурсов для проведения атаки. Например, хакеры могут использовать модель при создании опасных сервисов благодаря ее открытым весам. Они маскируют вредоносный сервис под легитимный, таргетируют зараженные ресурсы и файлы, а также занимаются дезинформацией».

Тем не менее, не все специалисты по информационной безопасности согласны с мнением о неминуемой угрозе для бизнеса от новой ИИ-модели. «Релиз Kimi K2 значительно не увеличит риски для бизнеса, так как модели, сопоставимые по качеству, уже существуют на платной основе как сервис, — считает ML-директор Positive Technologies Андрей Кузнецов. — Для запуска Kimi K2 необходимы очень дорогие серверы, которые не смогут позволить себе большинство злоумышленников».

Даже с использованием такой продвинутой нейросети атаки сами по себе не станут автоматическими, Kimi K2 не предлагает злоумышленнику какую-то волшебную «кнопку уничтожения», рассуждает руководитель группы разработки защиты от DDoS на уровне веб-приложений в DDoS-Guard Казбек Мамакаев. «Но скорость их проведения увеличится, это факт», — признает он. Размер модели (247 ГБ даже в квантованной версии) и требования к GPU-кластерам означают, что запустить ее на ноутбуке в подвале не получится, продолжает Мамакаев. «Для этого нужна серьезная инфраструктура. Но теперь у злоумышленников будет доступ к API, который можно использовать как помощник для быстрого проведения атак, — говорит он. — Здесь стоит беспокоиться о скорости итерации, а не о том, что атак станет много. Раньше хакер тратил до трех дней на ручной анализ WAF (инструменты для обнаружения и блокирования сетевых атак на веб-приложение) и подбор обходов. Теперь он может написать одну функцию-обертку для Sqlmap, Nmap и Burp (инструменты для тестирования безопасности), а K2 за ночь прогонит 1000 гипотез».

Интерес и обоснованные опасения вызывает не сам факт того, что модель Kimi K2 Thinking и ее веса были выложены в открытый доступ (на платформе открытых ML-моделей Hugging Face таких проектов тысячи), а совершенство и функционал этой модели, уверен Руслан Рахметов. Бенчмарки показывают, что эта модель обладает скоростью и возможностями, даже превосходящими популярные проприетарные разработки — такие как GPT-5, Claude Sonnet и DeepSeek. По его мнению, особенность Kimi K2 Thinking в том, что она специализируется на рассуждениях (Reasoning), выстраивая длинную логическую цепочку для решения сложной задачи, а также обладает развитыми агентскими возможностями, то есть может самостоятельно использовать сотни внешних инструментов для достижения поставленной пользователем цели. «По заявлениям разработчиков, Kimi K2 Thinking особенно преуспевает в написании кода, что, без сомнения, может (и, вероятно, будет) использоваться злоумышленниками», — убежден Рахметов.

Игра на понижение барьера

С тем, что высокая стоимость серверных мощностей будет серьезным барьером для реализации таких атак, Михаил Хлебунов не согласен. Он напоминает, что уже появляются сервисы, обещающие распределенные GPU-вычисления — в том числе проекты в мессенджерах, что дополнительно снижает барьеры доступа к вычислительным ресурсам: «Это означает, что ограничение по «железу» перестает быть надежным щитом — при недостатке контроля злоумышленники смогут получить и свернуть вычислительные мощности для коллективных атак». Поэтому бизнесу важно не полагаться на дороговизну инфраструктуры как на меру безопасности, а сосредоточиться на практических контрмерах: жесткой защите API, мониторинге аномалий и ограничении точек исполнения кода, советует он.

К примеру, запуск децентрализованной сети для ИИ-вычислений недавно анонсировал на форуме Blockchain Life 2025 в Дубае основатель Telegram Павел Дуров. Проект получил название Cocoon — он объединит блокчейн TON и децентрализованные ИИ-технологии, вычислительные мощности будут предоставлять GPU-майнеры, участвующие в проекте. Они будут получать вознаграждение в TON, а Telegram обеспечит Cocoon «спрос и хайп», подчеркнул тогда Дуров.

Злоумышленникам вовсе не обязательно разворачивать модель локально — они могут воспользоваться услугами одного из множества инференс-провайдеров (облачные сервисы для работы ML-моделей), подтверждает Руслан Рахметов: «Доступ к исходному коду и параметрам позволит злоумышленникам переобучить или донастроить модель под свои вредоносные цели, воспользовавшись различными методами (Full Fine-Tuning, PEFT, RAG и т.д.)».

Фото: hi-tech.mail.ru

Оцените статью
Dfiles.ru
Добавить комментарий