Как формируется новая профессия специалиста по безопасности систем машинного обучения

Онлайн-кампус НИУ ВШЭ запускает новую онлайн-магистратуру «Информационная безопасность систем искусственного интеллекта», посвященную подготовке специалистов по защите систем машинного обучения. Программа ориентирована на одну из самых быстро формирующихся профессиональных ниш — безопасность моделей ИИ и инфраструктуры их эксплуатации.
Рынок машинного обучения выходит из стадии экспериментов и становится инфраструктурной основой бизнеса. Массовое внедрение искусственного интеллекта требует не только разработки моделей, но и выстроенного управления их жизненным циклом. Крупнейшие технологические компании и корпоративные игроки активно интегрируют ИИ-решения в бизнес-процессы, при этом все острее ощущается дефицит специалистов, способных обеспечить безопасность и устойчивость систем.
Федор Иванов
Как меняется рынок, какие компетенции становятся критически важными и как образовательная программа отвечает на запрос индустрии, рассказал Федор Иванов, академический руководитель онлайн-магистратуры «Информационная безопасность систем искусственного интеллекта».
— Какие реальные риски возникают, если ИИ-системы оказываются уязвимыми?
— Когда искусственный интеллект начинает использоваться в банках, медицинских учреждениях, на транспорте или в промышленности, он перестает быть вспомогательным инструментом и становится частью критической инфраструктуры.
Если такая система оказывается уязвимой, последствия выходят далеко за рамки утечки данных. В финансовом секторе атака на скоринговую модель может привести к системной выдаче кредитов мошенникам, а компрометация фрод-системы — к тому, что подозрительные транзакции останутся незамеченными. В медицине, если модель, анализирующая снимки МРТ или КТ, подверглась атаке или обучена на скомпрометированных данных, это может привести к систематически неверным диагнозам. В промышленности и логистике уязвимости в системах способны создать риски техногенных катастроф и физических разрушений инфраструктуры.
Отдельный класс рисков — стратегические. Через программный интерфейс приложения злоумышленники могут «вытянуть» модель, на разработку которой компания потратила годы и миллионы рублей, восстановить ее архитектуру и использовать бесплатно либо искать в ней уязвимости. Подобный факт уже является не просто инцидентом, а потерей интеллектуальной собственности и конкурентного преимущества.
По мере массового внедрения ИИ в критические системы вопрос безопасности становится базовым. В ответ на это формируется отдельное направление безопасной разработки и эксплуатации систем машинного обучения — защита не только инфраструктуры, но и самой логики работы моделей.
— Чем атаки на ИИ-модели принципиально отличаются от классических кибератак на ИТ-инфраструктуру?
— Классическая кибератака направлена на код, сервер, сеть или конфигурацию. Злоумышленник ищет уязвимость в программном обеспечении, чтобы получить доступ к данным или нарушить работу системы. В случае с ИИ атакуют не инфраструктуру, а логику работы системы.
Второе отличие заключается в скрытности и отложенном эффекте атаки. Взлом сервера, как правило, фиксируется в логах и системах мониторинга. Атака на ИИ может происходить задолго до ее проявления. Если в набор данных внедрена скрытая лазейка в программном обеспечении, модель способна корректно работать месяцами, пока злоумышленник не активирует триггер.
— С какими угрозами для ИИ-систем бизнес сталкивается уже сейчас?
— Кража моделей через программный интерфейс — одна из самых распространенных атак. Другая проблема заключается в манипуляции рекомендательными системами в электронной коммерции или соцсетях, когда злоумышленники «прокачивают» нежелательный контент или товары.
Отдельный класс рисков связан с генеративными моделями и виртуальными собеседниками. Атаки такого типа, как внедрение вредоносных инструкций в запрос или обход ограничений модели, позволяют пользователям обходить встроенные ограничения и заставлять публичного ассистента генерировать нежелательный или опасный контент.
Наконец, существует проблема «дрейфа данных». Это не злонамеренная атака, но она несет не меньшие риски. Модель, обученная на старых данных, начинает ошибаться в новых реалиях, и бизнес, полагаясь на нее, принимает системно неверные решения.

— Почему традиционных специалистов по информационной безопасности недостаточно для защиты ИИ-систем?
— Проблема не в уровне квалификации, а в различии парадигм. Классический специалист по информационной безопасности не понимает, как работает механизм «внимания» в трансформерах и где в нем может скрываться уязвимость. Он не знаком с природой состязательных атак, которые лежат не в плоскости математики и статистики.
Кроме того, жизненный цикл системы машинного обучения существенно отличается от классической разработки ПО. В процессе разработки и эксплуатации систем машинного обучения есть этапы сбора и валидации данных, обучения и переобучения моделей, проведения экспериментов, внедрения модели в рабочую среду и мониторинга ее поведения. На каждом этапе возникают специфические риски.
У традиционных специалистов нет в арсенале инструментов для тестирования моделей на устойчивость к атакам или для мониторинга дрейфа, поэтому им требуется либо глубокая переквалификация, либо работа в паре с профильным инженером.
— Какие новые компетенции должен иметь специалист по безопасности ИИ?
— Он должен уметь работать на стыке нескольких дисциплин, и именно эта комбинация делает его ценным для рынка.
- Глубокое понимание машинного обучения — архитектур нейросетей, принципов обучения моделей и потенциальных уязвимостей на уровне алгоритмов.
- Навыки разработки и эксплуатации систем машинного обучения: умение выстраивать пайплайны, работать с Docker и Kubernetes, интегрировать проверки в процессы непрерывной интеграции и поставки обновлений и настраивать мониторинг модели в продакшене.
- Знания прикладной безопасности систем машинного обучения: методы состязательных атак на модели, атаки с отравлением данных, внедрение вредоносных инструкций в пользовательские запросы и инструменты их выявления.
Отдельное значение имеют навыки защиты данных. Любая ИИ-система работает с чувствительной информацией, поэтому навыки в области дифференциальной приватности и управления конфиденциальными данными становятся обязательными.
— Как программа отвечает на запросы рынка?
— Классические программы по информационной безопасности учат использовать ИИ как инструмент защиты: анализировать трафик, выявлять аномалии, обнаруживать вторжения. Наша программа сосредоточена на защите самого ИИ.
Учебный план строится вокруг методологии безопасной разработки и эксплуатации систем машинного обучения как сквозного процесса. Безопасность рассматривается как часть всего жизненного цикла системы — от сбора и валидации данных до вывода модели в эксплуатацию и последующего мониторинга. Студенты изучают современные угрозы, методы атак на модели машинного обучения с использованием состязательных примеров, техники защиты данных и принципы построения отказоустойчивой инфраструктуры.
В рамках проектного трека предусмотрена разработка защищенного ИИ-сервиса. Студенты пройдут полный цикл создания продукта. При этом обучение строится вокруг инструментов, используемых в реальных ИИ-системах.
Практика проходит у индустриальных партнеров, в том числе крупных ИТ-компаний, что позволяет работать с задачами, максимально приближенными к реальным бизнес-кейсам. Игроки рынка также участвуют на уровне разработки отдельных дисциплин и проектных заданий, предоставляют материалы для разбора и площадки для стажировок.

— Учитываются ли в учебном плане международные и российские регуляторные требования к ИИ-системам?
— При разработке программы мы опирались на действующие стандарты в области информационной безопасности и стратегические документы, определяющие развитие отрасли в России. Это позволяет синхронизировать образовательные результаты с ожиданиями рынка труда и требованиями работодателей, особенно в секторах с повышенной регуляторной нагрузкой.
Одновременно программа учитывает международный контекст. Студенты знакомятся с принципами, которые лежат в основе современных подходов к регулированию ИИ, и анализируют мировые практики построения безопасных систем. Речь идет не о формальном изучении нормативных актов, а о понимании логики регулирования: требований к прозрачности моделей, управлению рисками, защите данных и ответственности разработчиков.
— В каких отраслях сегодня ощущается дефицит специалистов по безопасности ИИ?
— В первую очередь это крупные технологические компании и электронная коммерция. Рекомендательные системы, поисковые алгоритмы, генеративные сервисы обслуживают миллионы пользователей. Не менее остро проблема стоит в финансовом секторе: банки активно используют машинное обучение для скоринга и выявления мошеннических операций, и любая уязвимость здесь конвертируется в прямые денежные потери. Поэтому спрос на специалистов, способных защищать системы, здесь стабильно высокий. Проблема недостатка квалифицированных кадров также есть в телекоммуникациях и промышленности.
Фактически спрос формируется во всех отраслях, где искусственный интеллект становится частью критического контура управления. И по мере масштабирования ИИ этот перечень будет только расширяться.
— Какие перспективы у выпускников на рынке труда?
— Выпускники смогут работать на позиции инженера по безопасности систем машинного обучения, архитектора защищенных систем машинного обучения и специалиста по безопасности данных в ИИ. По данным «Хэдхантера» и «Хабр Карьеры», за 2023–2025 годы количество вакансий в области безопасности ИИ увеличилось примерно в 5,5 раза. В Москве и Санкт-Петербурге зарплаты для младших специалистов стартуют со 120 тысяч рублей, а специалисты с опытом могут рассчитывать на 450 тысяч рублей в месяц.
По мере того как ИИ внедряется в финансы, промышленность, транспорт и госсектор, требования к его безопасности будут только усиливаться. Поэтому рыночный спрос — это не временный тренд, а неизбежное следствие цифровизации экономики.
— Нужен ли опыт в ИТ для поступления на программу?
— Абитуриенту необходима базовая подготовка в области математики, основ машинного обучения и информационной безопасности. Старт обучения будет легче для выпускников бакалавриата по таким направлениям, как информационная безопасность, ИТ, компьютерные науки, инженерия, анализ данных, естественные науки. При этом для выравнивания стартового уровня предусмотрены адаптационные курсы по математике, машинному обучению и Python. Также абитуриентам предоставляются рекомендованная литература и материалы, позволяющие системно подготовиться к началу обучения.
Программа рассчитана на технически подготовленных специалистов, которые хотят системно развиваться в сфере безопасности ИИ. По мере того как искусственный интеллект становится частью ключевых бизнес-процессов, именно такие инженеры будут обеспечивать надежность и устойчивость цифровых решений.
Прием документов на программу пройдет с 20 июня по 8 августа 2026 года. Актуальная информация о правилах поступления и вступительных испытаниях опубликована на сайте программы «Информационная безопасность систем искусственного интеллекта».
Вам также может быть интересно:
Уже не выбор, а реальность: трансформация мира под влиянием ИИ
Искусственный интеллект уже не воспринимается как технология будущего: он стремительно меняет процессы принятия решений, рынок труда и социальные практики. Вместе с тем он несет с собой не только новые грандиозные возможности, но и системные риски, связанные с ростом зависимости от данных, трансформацией профессий и изменением человеческого поведения. В НИУ ВШЭ создали семантическую карту разломов, которая показала ключевые тренды в развитии технологий.
НИУ ВШЭ и ДИТ Москвы подписали соглашение о развитии сети 5G и 6G
Департамент информационных технологий города Москвы и Высшая школа экономики подписали соглашение о сотрудничестве в области инновационного развития ИТ-инфраструктуры столицы. Стороны договорились о совместных исследованиях в области современных и перспективных технологий связи, включая 5G и 6G, а также ИИ, интернета вещей и других технологий умного города.
НИУ ВШЭ представил результаты исследований на конференции по ИИ в Омане
В апреле 2026 года в Университете Низвы (Султанат Оман) состоялась Международная конференция по интеллектуальным системам и приложениям искусственного интеллекта (ISAA 2026). Высшая школа экономики выступила соорганизатором мероприятия совместно с Университетом Низвы и Университетом технологий и прикладных наук Ибри. Ученые НИУ ВШЭ также вошли в число ключевых спикеров конференции.
Роботы, хакатон и соревнования: в Вышке прошел фестиваль робототехники
IV Фестиваль робототехники факультета компьютерных наук НИУ ВШЭ объединил школьников, студентов и ведущих разработчиков — всего более 800 участников. В течение трех дней на площадке университета проходили соревнования, лекции и демонстрации технологий. Впервые состоялся хакатон по программированию роборуки и презентация антропоморфного робота.
Почему искусственный интеллект не способен поработить человечество
1 апреля на факультете математики НИУ ВШЭ встретили российского ученого, преподавателя и специалиста по информационной безопасности Андрея Масаловича, известного как КиберДед. Он представил студентам Вышки свои «Двадцать вопросов искусственному интеллекту» и поделился ответами, раскрывающими суть проблем в сфере развития ИИ, а также рассказал, почему тот никогда не сможет захватить человечество.
Тест «КардиоЖизнь» Вышки — в числе победителей премии Data Fusion Awards 2026
Разработка ученых Центра биомедицинских исследований и технологий Института ИИ и цифровых наук ФКН ВШЭ — генетический тест «КардиоЖизнь» — одержала победу в Общероссийской кросс-отраслевой премии в области технологий работы с данными и ИИ Data Fusion Awards. Проект занял первое место в номинации «Партнерство науки и бизнеса», показав успешную модель трансфера технологий из университетской науки в реальный сектор здравоохранения.
НИУ ВШЭ установил станцию «Геоскана» для космических исследований в Индийском технологическом институте Бомбея
На территории Индийского технологического института Бомбея (IIT Bombay) установили российскую наземную станцию для приема спутниковых данных СОНИКС. Разработка компании «Геоскан» станет частью проекта зеркальной лаборатории Высшей школы экономики и одного из ведущих университетов Индии.
ВШЭ и Positive Technologies оценят последствия кибератак на бизнес и государство
Институт мировой военной экономики и стратегии НИУ ВШЭ совместно с компанией Positive Technologies объявляет о запуске междисциплинарного научно-исследовательского конкурса «Разработка моделей прогнозирования и оценки последствий кибератаки». Молодые ученые смогут предложить свои идеи, модели и подходы к анализу социальных, экономических и иных эффектов от реализованных киберугроз. Грантовый фонд конкурса составит 3 млн рублей.
МИЭМ ВШЭ и МТС запускают мастерскую по инновационным решениям в сетях связи
Московский институт электроники и математики им. А.Н. Тихонова ВШЭ и МТС запускают совместную мастерскую, в которой студенты будут работать на стыке инженерии сетей связи, анализа данных и цифровых технологий. Совместный проект подразумевает формат практического обучения, где студенты смогут решать реальные задачи индустрии вместе с инженерами компании и специалистами МИЭМ.
«Думать о будущем — сверхусилие»: в ИСИЭЗ обсудили возможности и вызовы корпоративного форсайта
Поиск новых точек роста и снижение неопределенности перед крупными решениями — основные задачи, которые компании стремятся реализовать с помощью форсайта. Среди ключевых вызовов стратегического прогнозирования — высокая степень непредсказуемости будущего. К таким выводам пришли участники круглого стола с ведущими российскими компаниями «Технологии управления будущим», который прошел в ИСИЭЗ 1 апреля 2026 года.


