Финансовый сектор переживает масштабную трансформацию: банки по всему миру активно внедряют агентный ИИ — автономные системы, способные самостоятельно принимать решения, анализировать транзакции и выявлять мошенничество. Однако этот переход порождает новый класс проблем, связанных с кибербезопасностью и управлением правами доступа.
Ключевая проблема — так называемые «нечеловеческие идентичности» (non-human identities). Это цифровые учётные данные для приложений и автоматизированных систем, которые требуют усиленного контроля по мере того, как банки расширяют облачную инфраструктуру и автоматизацию. Без надлежащего управления этими идентичностями AI-агенты могут получить доступ к данным, к которым не должны обращаться.
Для надёжной работы автономных систем банки осваивают подход «контекстной инженерии» (context engineering) — предоставление ИИ правильных бизнес-правил, данных и целей. Без качественного контекста даже самые продвинутые модели принимают ошибочные решения, что в банковской сфере может обернуться миллионными убытками.
На практике агентный ИИ уже применяется для ускорения онбординга клиентов, снижения количества ложных срабатываний в системах противодействия отмыванию денег (AML) и расширенного анализа транзакций для выявления мошенничества. По данным Feedzai, 90% финансовых организаций сейчас используют ИИ для борьбы с новыми типами фрода.
Эксперты подчёркивают: качественное управление данными, соответствие регуляторным требованиям и выстроенные процессы комплаенса — обязательные условия для устойчивого внедрения автономного ИИ в финансовых услугах. Без этого фундамента банки рискуют столкнуться как с регуляторными санкциями, так и с утратой доверия клиентов.



