Станислав Ежов, «Группа Астра»: «Доверенный ИИ начинается не с выбора модели, а с проектирования контура»
Тарифы мобильных операторов в Новосибирске весной 2026 года
Эксперт компании «Газинформсервис» предложила инструмент, оценивающий безопасность ИИ
Обзор обновленной версии платформы автоматизации ИТ-операций Astra Automation 2.0
3-й форум "ЦОД: модели, сервисы, инфраструктура" пройдет в 31 марта 2026 в Новоcибирске
ЦБ
°
пятница, 8 мая 2026

Эксперт компании «Газинформсервис» выступит на IV Форуме «Технологии доверенного искусственного интеллекта»

Эксперт компании «Газинформсервис» выступит на IV Форуме «Технологии доверенного искусственного интеллекта»
Изображение: Газинформсервис
13 мая в Москве, в Конгресс-центре МГТУ им. Н. Э. Баумана, соберутся ведущие специалисты по искусственному интеллекту и информационной безопасности. Главная тема — как сделать ИИ не просто умным, а по-настоящему безопасным и предсказуемым.

В рамках секции «Практические вопросы обеспечения доверия к технологиям ИИ» с докладом «Рой без интеллекта: реальные киберугрозы для мультиагентных систем» выступит Лидия Виткова — начальник Аналитического центра кибербезопасности компании «Газинформсервис», кандидат технических наук, руководитель рабочей группы Консорциума ИБ ИИ.

«Сегодня под видом "роевого ИИ" на практике работают именно роевые алгоритмы — оптимизационные эвристики на множестве устройств: от дронов до IoT-датчиков. Никакого эмерджентного самообучения в инженерных системах пока нет. Реальные киберугрозы направлены не на "разум роя", а на отдельные устройства. Подмена телеметрии, глушение связи, вывод из строя одного агента могут разрушить сходимость всего алгоритма. Результат — ложные оптимумы, хаотичное движение или остановка задачи. Без всякого "восстания машин". Наш главный вывод: фокус защиты — на отказоустойчивости устройств, каналов связи и целостности данных, а не на борьбе с мифическим коллективным сверхинтеллектом», — отметила Лидия Виткова.

Ключевые тезисы выступления:

  • роевой алгоритм и роевой интеллект — не одно и то же. Первое — это вычислительная эвристика, второе требует самообучения, которого в существующих системах нет.
  • угрозы реальные и приземлённые: атаки на отдельные агенты, подмена телеметрии, глушение каналов.
  • защищаться надо от сбоя алгоритма, а не от «злого роя».

Форум станет площадкой для совместной работы специалистов, заинтересованных в развитии доверенного ИИ в России. В программе — дискуссии с участием представителей ФСТЭК, Минцифры, Совета Федерации, Сбера, Росатома, ИСП РАН и других ключевых игроков.

Свежее по теме