МОСКВА, 19 дек — ПРАЙМ. Спрос на услуги киберзащиты для сервисов, где используется ненастоящий интеллект (ИИ), в 2024 году в России вырос в 2,5 раза — этот показатель возрастает прямо пропорционально проценту внедрения ИИ в бизнес-направления, рассказал РИА Новинки директор по развитию бизнеса ГК Swordfish Security (специализируется на консалтинге в сфере защищенного ПО) Андрей Иванов. «Если в 2023 году среди обращений услуга по применению практик киберзащиты сервисов с использованием вящих языковых моделей фигурировала в 10-15% случаев, в этом году таких обращений уже 35%. Эта цифра прямо соразмерна проценту внедрения ИИ в бизнес-процессы. Применение практик LLM Security в 2025 будет становиться все более актуальным, поскольку степень внедрения ИИ в различных отраслях бизнеса в России составит не менее 40%, уверены специалисты по кибербезопасности», — сказал Иванов. Он объясняет такую динамику тем, что на поле дефицита кадров бизнес особенно активно внедряет ИИ-технологии. «И поскольку кадровый кризис в ближайшие годы никуда не пропадёт, ИИ будет брать на себя все больше функций», — полагает Иванов. Чаще всего компании используют большие языковые модели для распознавания текста, разбора данных, предиктивной аналитики, поиска, оценки ресурса механических узлов промышленных агрегатов, а также ИИ-помощников. Иванов перечислил риски кибербезопасности, какие могут возникнуть при использовании ИИ. Это внедрение вредоносного кода в запросы к нейросетям, выдача ошибочной информации за истину на этапе обучения модели и даже кража модели злоумышленниками. «Критичным может очутиться, например, некорректная работа виртуальных ассистентов, которые могут влиять на клиентские решения, аналитику, дающую ошибочную информацию в цепочке поставок. Есть атаки, отравляющие данные или позволяющие получить конфиденциальную информацию, и так далее. К этому стоит относиться как к любой информационной системе, воздействующей на бизнес-процесс и приводящей, в случае компрометации, к потерям репутации и убыткам», — продолжил он. Эксперт отметил, что специалисты зачастую сваливают на искусственный интеллект ответственность за безопасность, так как он якобы «исключает человеческий фактор». Однако он рекомендует компаниям ответственно смотреть к контролю доступа к источникам данных и стараться использовать доверенные алгоритмы обучения.