|
Поиск
| ||
|
| ||
Статьи и обзоры |
Эксперт компании «Газинформсервис» предложила инструмент, оценивающий безопасность ИИ
20.03.2026 Газинформсервис
На форуме «Цифровой маяк» в Южно-Сахалинске начальник Аналитического центра компании «Газинформсервис», к. т. н. Лидия Виткова выступила с докладом на тему «Безопасность систем искусственного интеллекта: статус и вызовы».
В своём выступлении эксперт провела параллель между системами ИИ и автомобилями, предложив участникам новый взгляд на проблему регулирования и ответственности в сфере ИБ. Основой доклада стала метафора автомобиля как сложной системы, безопасность которой обеспечивается не только техническими характеристиками, но и целым комплексом мер: правилами дорожного движения, обучением водителей, дорожной инфраструктурой и контролирующими органами. В системах ИИ, по мнению спикера, такого комплексного подхода сегодня не хватает. «В автомобиле ответственность за безопасность на дороге лежит на водителе, но при этом производитель отвечает за надёжность машины, а регулирующие органы создают среду — ПДД, знаки, разметку. В сфере ИИ мы пока не выстроили эту экосистему. Если мы хотим безопасно внедрять технологии, мы должны чётко определить границы и зоны ответственности для всех участников: от разработчика модели до конечного пользователя и специалиста по информационной безопасности», — отметила спикер. В ходе выступления были обозначены технологические риски, такие как манипуляция запросами (Prompt Injection), отравление данных (Data Poisoning) и утечки информации. Однако главным вызовом, по мнению эксперта, остаётся отсутствие понимания архитектуры ИИ-систем, которые зачастую используются как «чёрный ящик». Ключевым практическим итогом доклада стала презентация авторского опросника для самообследования. Этот инструмент предназначен для специалистов по информационной безопасности, чтобы они могли объективно оценить готовность своей организации к обеспечению защиты систем искусственного интеллекта. «Этот опросник — первый шаг к осознанному управлению рисками. Специалист по ИБ должен понять, где проходят границы его ответственности, чего не хватает из информации о системе ИИ, чтобы выстроить надежный контур безопасности вокруг системы», — пояснила Лидия Виткова. Выступление вызвало живой интерес у участников форума, представляющих как бизнес, так и государственные структуры. Участники дискуссии согласились, что безопасность ИИ требует не только технологических решений, но и создания нормативной базы, аналогичной «ПДД для автомобилей», где каждый участник процесса будет знать свои обязанности и меру ответственности. |
Проекты и решенияСобытияОпросКомментарии |
| © 2009, ID-EXPERT Cообщество профессионалов в области ID Является средством массовой информации (18+) Разработка сайта "Агентство АСДК" |
||||||||||