Искусственный интеллект в финтехе и банкинге
В этом материале:
Эра цифровых технологий неразрывно связана с развитием и применением нейросетей. Несмотря на зачастую преувеличенную значимость искусственного интеллекта (ИИ), в области банковского и финансового технологического сектора его использование оправдано. Согласно исследованию McKinsey, финансовый сектор наряду с телекоммуникациями и высокими технологиями представляет наиболее перспективную площадку для внедрения решений, в основе которых используется ИИ1.
95% российских финтех компаний уже внедрили технологии ИИ в основные процессы – такую статистику привела Ассоциация ФинТех в исследовании "Применение технологий искусственного интеллекта на финансовом рынке" (далее – Исследование Ассоциации ФинТех)2. Аналогичную статистику приводит Правительство РФ, отмечая, что показатель внедрения искусственного интеллекта в отраслях экономики достигает порядка 20%, где в лидерах – финансовый сектор 3. Наиболее продвинутые решения реализованы в риск-менеджменте (скоринге), а также в функциях по продаже и продвижению банковских продуктов. Согласно исследованию, приоритетом для российского финтеха является снижение расходов и повышение доходов.
В нашем материале рассмотрим основные тренды нейросетей в банкинге и финтехе, а также проанализируем необходимые законодательные решения проблем их использования.
Решения на базе искусственного интеллекта
Основные процессы, куда внедрился искусственный интеллект, скрыты от глаз потребителей, отметила руководитель направления продвижения продуктов Сбербанка Анастасия Гогина. Анализ клиентов, их транзакций и поведения, выявление обращений – в этом активно задействуются новые технологии. ИИ позволяет сокращать время на аналитику и выявлять закономерности. Разберем основные примеры использования.
Риск-менеджмент (кредитный скоринг)
Скоринг клиентов – использование ИИ-технологий на основе больших данных анализирующих потенциального клиента и выставляющих ему оценку в отношении того или иного продукта, разъяснил Владислав Елтовский, глава практики цифрового права SEAMLESS Legal.
ИИ используется для более точной оценки кредитоспособности заемщиков. Системы на базе ИИ могут анализировать большие объемы данных и предсказывать кредитный риск с высокой точностью. Банки и финтех-компании используют модели машинного обучения для автоматического скоринга заявок на кредиты на основе данных о заемщике, его кредитной истории, доходах и других факторах, объяснил CEO Polygant Станислав Чернухин.
Специалисты Сбербанка объясняют принцип работы так4:
- нейросеть изучает анкету заемщика;
- сопоставляет данные с требованиями банка;
- анализирует риск невозврата средств;
- выдает решение об одобрении или отклонении заявки.
Согласно исследованию Ассоциации ФинТех, наиболее продвинутые решения ИИ реализованы в скоринге и функциях по продаже и продвижению банковских продуктов.
Поддержка клиентов – чат-боты в приложениях и голосовые помощники
Банки и финтех-компании все чаще используют виртуальных ассистентов на базе ИИ для задач клиентского сервиса. Эти ассистенты могут отвечать на вопросы клиентов, помогать с банковскими операциями и предоставлять информацию о балансе и транзакциях. Запрос на создание виртуальных помощников сегодня довольно популярный. Пример таких решений на базе ИИ: виртуальные банковские ассистенты, такие как "Олег" (Тинькофф) или "Салют" (Сбербанк).
Порой виртуального помощника сложно отличить от реального человека, так натурально звучит его голос или манера общения, обратила внимание Анастасия Гогина. Хороший чат бот способен заменить нескольких сотрудников и оптимизировать работу приложения, согласился Станислав Чернухин.
Противодействие мошенничеству
ИИ используется и для антифродовых систем, AML-контроля (противодействия отмыванию денег) и иных функций комплаенса. ИИ анализирует стандартное поведение клиентов и выявляет подозрительные операции, объяснил Владислав Елтовский.
В области финансового мошенничества ИИ играет важную роль в выявлении необычных и аномальных транзакций. Системы машинного обучения анализируют транзакционные данные и помогают оперативно выявлять подозрительные операции, рассказал руководитель отдела наукоемкой разработки цифрового финансового сервиса Lime Дамир Якупов. Модели машинного обучения анализируют данные о транзакциях, клиентах и поведении пользователей, чтобы выявлять аномальные и подозрительные операции и предпринимать соответствующие меры.
При этом нейросеть умеет отличать бытовые ситуации, когда ребенок без разрешения потратил деньги с маминой карты, от действий профессиональных мошенников, рассказали специалисты Сбербанка5.
Персонализированный маркетинг
В рамках маркетинга в основном используются рекомендательные системы и модели склонности [определяется склонность каждого клиента к той или иной покупке – ГАРАНТ.РУ], построенные на основе машинного обучения, разъяснила Анастасия Гогина.
Рекомендательная система на основании предпочтений клиента показывает тот продукт, который для него актуален. Например, при посещении главного экрана приложения мобильного банка велика вероятность появления рекламного баннера с продуктом, который рекомендательная система посчитала наиболее релевантным для конкретного пользователя.
Модели склонности также основываются на данных о клиентах и проставляют склонность в процентном соотношении. Чем выше процент, тем интереснее для потребителя будет тот или иной продукт. В идеале такие модели настраиваются не только на сам продукт, но и на канал и время коммуникации. То есть сейчас уже не человек или случай решает, когда вы получите коммуникацию и что это будет – смс или звонок от банка, – а интеллектуальная система.
Роботизация и автоматизация процессов
Банки и финансовые учреждения используют ИИ для автоматизации многих рутинных операций. Роботизированные процессы (RPA) позволяют банкам создавать программных роботов, которые могут выполнять задачи, такие как обработка заявок на кредиты или проверка клиентских данных, отметил Дамир Якупов. Это сокращает время обработки информации и снижает вероятность ошибок. Примером является автоматизация процесса выдачи кредитов, где при помощи ИИ (computer vision) может производиться извлечение данных из печатных документов, контролироваться корректность заполнения заявки и выполняться идентификация заемщика.
Оцифровка документов также популярна в банкинге и финтехе – ИИ-технологии позволяют быстро автоматизировать процесс обработки документов и проводить их верификацию, отметил банкир, основатель финтех-платформы TalkBank Михаил Попов.
Речевая аналитика
Банки проявляют особый интерес к системам речевой аналитики, основанным на искусственном интеллекте, отметил PR-директор 3iTech Кирилл Ладыгин. Эта технология позволяет систематизировать и анализировать всю голосовую информацию, записываемую в контакт-центрах, клиентских офисах и корпоративных телефонах децентрализованных сотрудников. В отсутствие этой технологии обработка подобных данных ограничивается 3%, тогда как объем такой информации растет ежедневно.
Система работает непрерывно и гораздо оперативнее человека, позволяя добиться качественного улучшения работы контакт-центров и повышения конверсии продаж, объяснил эксперт.
Технологии, связанные с обработкой текста и речи, направлены на общее понимание того, о чем говорит клиент, взаимодействие с ним и роботизацию контакт-центров, разъяснил Михаил Попов. Здесь технологии особенно продвинулись с появлением языковых моделей на базе ИИ, которые обеспечивают общение практически на уровне человека с глубоким пониманием предметной области без необходимости ожидать оператора, чтобы он что-то уточнил, переключился и т. д.
Инвестиции и портфельное управление
В сфере инвестиций ИИ используется для анализа рынка и принятия решений о портфеле, отметил Дамир Якупов. Алгоритмы машинного обучения могут анализировать огромное количество данных, чтобы определить оптимальные инвестиционные стратегии.
Робо-советники анализируют рынки, рекомендуют портфели и оптимизируют инвестиционные стратегии, пишут большие материалы, переделывают и адаптируют любой контент, объяснил Станислав Чернухин. Они способны структурировать информацию и подавать ее в понятном виде.
Анализ данных и предсказательная аналитика
Искусственный интеллект может анализировать большие объемы данных, чтобы выявлять скрытые закономерности и прогнозировать тенденции в финансовой сфере, отметил Станислав Чернухин. Банки и финтех-компании используют такие модели для предсказания рыночных трендов, определения оптимальной цены акций и т. д. Большой блок – аналитика транзакций, ИИ помогает как прогнозировать финансовые потоки, так и выявлять потенциальные негативные изменения, отметил Михаил Попов. Машинное обучение помогает аналитикам выявлять паттерны и факторы.
Обслуживание банкоматов
ИИ прогнозирует загрузку терминалов и уменьшает расходы на инкассацию6 .
Законодательные пробелы
Есть несколько нерешенных правовых вопросов применения ИИ в банкинге и финтехе. При этом финтех-компании разнятся во мнении о необходимости регулирования ИИ.
Несмотря на то, что 86% из них поддерживают такую необходимость, 14% категорически против любой формы регулирования – а именно к ним относятся лидеры рынка – такие данные приводит Ассоциация ФинТех в своем исследовании. При этом компании в сфере финтех понимают, что преимущество за теми, кто будет иметь доступ к наибольшему объему данных.
Регулирование ИИ требует комплексного подхода, так как вопросы ИИ пересекаются с регулированием в области обмена данными и другими нормативными инициативами. На данный момент законодательство в России в отношении ИИ находится на начальных этапах формирования, заключили эксперты Ассоциации ФинТех.
Персональные данные
Как объясняет Анастасия Гогина, персональные данные финансовые компании получают на основании письменного согласия клиента, внутри банков также выстроен ряд процессов для безопасности своих потребителей.
Происходит это следующим образом: Ф. И. О. клиента зашифровывается, а доступ к исходным данным есть только у небольшого числа сотрудников. Распространение персональных данных строго запрещено, а внутренние системы безопасности мониторят случаи подобных нарушений. Остальные сотрудники при работе с базами данных видят только цифровой код вместо имен. Все процессы, включая ИИ, также работают с обезличенными данными во внутреннем контуре банка, который не имеет доступа к Интернету или внешней среде, объяснила эксперт.
Для обработки данных посредством алгоритмов специфических правил сбора персональных данных не предусмотрено, обратил внимание партнер, руководитель практики компьютерных игр, креативных индустрий и технологий ЮК "Центральный округ" Николай Андреев. В таком случае обработка данных относится к автоматизированной обработке, при этом не имеет значения, насколько глубоко автоматизированы конкретные способы и инструменты такой обработки.
ИИ-решения, применяемые банками, зачастую остаются внутри их информационного контура, что снижает вероятность утечек персональных данных, отметил Константин Артемьев, генеральный директор Sherpa RPA. Тем не менее важна прозрачность в использовании сведений и их возможной коммерциализации. Компании должны обеспечивать предоставление четкой информации о способах использования данных и достигаемых результатах. Это нужно для понимания пользователями процессов принятия решений и обработки их персональной информации.
Ответственность за ошибки
Одним из основных вопросов является проблема ответственности за ошибки, совершенные автоматизированными системами, работающими на базе ИИ, определила проблему Анастасия Гогина. Так, нет однозначного ответа, кто несет ответственность при возникновении негативных последствий применения нейросетей – например, возмещение убытков при финансовых потерях. Этот аспект становится особенно актуальным, учитывая сложность алгоритмов ИИ и их способность принимать решения, которые могут оказать существенное воздействие на банковские операции и финансовые рынки.
Еще одной важной темой является этический аспект использования нейросетей в финансовой сфере, отметила Анастасия Гогина. Ситуации, когда автоматизированные системы ИИ могут принимать важные решения с непредсказуемыми последствиями, заставляют размышлять о необходимости определения четких этических стандартов. Это включает в себя вопросы о том, как обеспечить соблюдение нравственных норм при разработке и использовании ИИ, чтобы минимизировать риски для клиентов, общества и рынков, подытожила эксперт.
МНЕНИЕ
Екатерина Авдеева, к. ю. н., член Генерального совета "Деловой России", руководитель Экспертного центра по уголовно-правовой политике и исполнению судебных актов, доцент кафедры правового обеспечения рыночной экономики Президентской академии (РАНХиГС):
"Важно учитывать, что цифровизация приводит к видоизменению общественных отношений и возникновению новых угроз. Они связаны с конфиденциальностью и утечкой данных, функционированием баз данных, интеллектуальной собственностью, киберпреступлениями, которые имеют высокую общественную опасность.
Критическое значение имеют уголовно-правовые риски применения ИИ.
- При создании системы ИИ была допущена ошибка, приведшая к совершению преступления.
- В систему ИИ был осуществлен неправомерный доступ, повлекший повреждение или модификацию его функций, вследствие чего было совершено преступление.
- ИИ был создан преступниками для совершения преступлений.
- ИИ, обладающий способностью к самообучению, принял решение о совершении действия или бездействия, квалифицируемых как преступление.
И если первые три пункта предполагают наличие субъекта-физического лица или группы лиц, то 4 вариант требует комплексного обсуждения".
Информационная безопасность
Среди внешних рисков наибольшую опасность для банкинга и финтеха представляют угрозы информационной безопасности, отметила Екатерина Авдеева.
В своих методических рекомендациях Банк России указывает на недостатки кредитных организаций и некредитных финансовых организаций в реализации механизмов защиты и разграничения доступа к:
- документам;
- программным и аппаратным средствам;
- системам автоматизации;
- приложениям финансовых организаций.
По мнению регулятора, это справедливо в отношении предназначенных для проведения и документирования финансовых операций (Методический документ "Профиль защиты прикладного программного обеспечения автоматизированных систем и приложений кредитных организаций и некредитных финансовых организаций" (разработан Банком России).
Возможные последствия – нарушение конфиденциальности и целостности информации, которая передается через электронные сообщения, криптографические ключи и данные, обрабатываемые и передаваемые между финансовыми организациями и клиентом, считает Екатерина Авдеева.
Поскольку финансовые организации обслуживают и аккумулируют огромное количество информации, очевидными действиями для них становятся осуществление своевременного реагирования на незаконные финансовые операции и оперативное управление рисками для защиты от возникающих опасностей – такое мнение привела Екатерина Андреева. Сбор, обработка и хранение данных должны происходить не на унифицированных платформах, а с использованием внутренних систем, а также быть регламентированными внутренними положениями о политике информационной безопасности.
Внутренние угрозы связаны с хозяйственной деятельностью:
- нарушение режима сохранения конфиденциальной информации;
- подрыв делового имиджа и репутации;
- производственные недостатки, нарушения технологии;
- криминальные действия собственного персонала: от элементарного воровства, до продажи коммерческой информации конкурентам и т. д.
Упущения угроз, допущенных изнутри, могут катализироваться уже на уровень внешних, обретая формы киберугроз и мошенничества, отметила эксперт.
МНЕНИЕ
Екатерина Авдеева, к. ю. н., член Генерального совета "Деловой России", руководитель Экспертного центра по уголовно-правовой политике и исполнению судебных актов, доцент кафедры правового обеспечения рыночной экономики Президентской академии (РАНХиГС):
"Достичь выстроенной системы безопасности в финансовых организациях можно при объединении множества взаимосвязанных элементов. Обыкновенно комплексом подобных мер – как организационных, так и технических – занимается служба безопасности.
В кредитных организациях данные функции обычно возлагаются на узконаправленные внутренние службы, цели и задачи которых определены в "Рекомендациях руководителям службы внутреннего контроля, службы внутреннего аудита, службы управления рисками финансовых организаций".
Для самих же банков основными элементами системы информационной безопасности являются:
- аутентификация;
- защита от несанкционированного доступа к системам – в том числе внутренняя – от незаконного доступа сотрудников;
- защита каналов передачи данных, обеспечение целостности и актуальности данных при обмене информацией с клиентами;
- обеспечение юридической значимости электронных документов;
- управление инцидентами информационной безопасности;
- управление непрерывностью ведения бизнеса;
- внутренний и внешний аудит системы информационной безопасности.
Сегодня повышение кибербезопасности с помощью ИИ – наиболее продвинутая в банкинге и финтехе область. Способность методов машинного обучения обобщать прошлые шаблоны для обнаружения новых вариантов вредоносных программ и является ключом к построению масштабируемой системы защиты. Обнаружение атак включает выявление подозрительного поведения и оповещение о нем непосредственно по мере его возникновения.
Можно выделить следующие направления деятельности ИИ для повышения кибербезопасности:
- расстановка приоритетов для предупреждений потенциальных атак;
- выявление многочисленных попыток взлома с течением времени;
- обнаружение следов действий вредоносных программ, как внутри компьютера, так и в сети;
- идентификация потока вредоносного программного обеспечения, внедряемого через конкретную организацию;
- определение автоматизированных подходов к смягчению последствий атак".
Интеллектуальная собственность
Бурное развитие генеративных нейросетей вроде ChatGPT резко поставило вопрос об авторском праве и пределах возможности использования оговорки о добросовестном использовании, обратил внимание Константин Артемьев. С учетом того, что многие крупные корпорации, включая банки, строят свои GPT-модели – не так давно Сбербанк представил свою "GigaChat", – эти вопросы законодателям придется решать в скором времени, уверен эксперт.
Как решить проблему правового регулирования?
Отсутствие четких критериев и маркеров возникающих угроз при одновременном отсутствии правовой регламентации действительно создают серьезные угрозы, считает Екатерина Авдеева. Такие угрозы не могут быть проигнорированы на стадии, когда акцент делается именно на развитии таких систем, расширении их возможностей и ожидании качественно новых возможностей за счет эксплуатации ИИ.
Екатерина Авдеева считает, что ключевыми сегодня представляются вопросы:
- правосубъектности ИИ;
- его ответственности;
- формы его вины;
- степени общественной опасности действий ИИ.
Некоторые полагают, что возможно дифференцировать подход к решению вопроса о субъекте ответственности в зависимости от вины. Так, за вред, причиненный дефектами конструкции или программы, ответственность будет нести производитель, разработчик. А если вред причинен сбоем программы, который он мог или должен был предвидеть, оператором в случае выполнения ИИ или роботом неверных команд.
Речь может идти:
- о гражданской ответственности по ст. 1064 и 1079 Гражданского кодекса;
- об уголовной ответственности в зависимости от совершенного деяния, ответственность за которое предусмотрено соответствующей статьей Уголовного кодекса.
Однако, это больше применимо к "слабому" ИИ, а вот вопросы правовой регламентации нарушений "сильного" ИИ таким образом решить будет сложно, полагает Екатерина Андреева.
Эксперт отмечает, что преступления в сфере компьютерной информации, предусмотренные гл. 28 УК РФ, вносились, когда законодатель даже не представлял ту значительную общественную опасность, которую эти преступления будут представлять в будущем. В этой связи эксперт предполагает, что их общественная опасность недооценена, исходя из санкций в сравнении со ст. 159 УК РФ "Мошенничество". Уголовное право подразумевает не только и столько вопросы наказания, но и оперативные действия, которые смогут пресечь ту или иную деятельность, нейтрализовать, ликвидировать ИИ, заключила она.
В настоящий момент ИИ не имеет законодательного регулирования в России, хотя это на сегодня лишь вопрос времени, считает Владислав Елтовский. Нужен отдельный закон, который сформирует сбалансированный подход между развитием ИИ-технологий и защитой прав граждан и организаций, уверен эксперт. Он обратил внимание, что необходимость регулирования ИИ уже признана практически всеми государствами мира. Так, в Китае есть отдельный закон в отношении ИИ-технологий. В ЕС Регламент об ИИ опубликован в виде проекта, который представляет собой подробное регулирование порядка применения ИИ. В Кыргызстане в проекте Цифрового кодекса также посвятили отдельную главу системам искусственного интеллекта.
МНЕНИЕ
Владислав Елтовский, глава практики цифрового права SEAMLESS Legal:
"В России для ИИ специфики регулирования нет. Однако с точки зрения законодательства о персональных данных ИИ технологии – это лишь инструмент для сбора и обработки данных. Использование ИИ также должно учитывать все ограничения, связанные с персональными данными.
Таким образом, применяя какую-либо новую технологию, которая будет использовать персональные данные, необходимо заранее продумать модель обработки данных, способы легализации сбора данных и их обработки, внедрить необходимые меры защиты.
Как в случае с использованием почти любой технологии, ИИ системы должны учитывать законодательные ограничения в сфере персональных данных.
Важным ограничением российского законодательства является довольно строгое регулирование принятия автоматизированных решений. Так, решение, порождающее юридические последствия для клиента или иным образом затрагивающее права и законные интересы, может быть принято на основании исключительно автоматизированной обработки его персональных данных только с письменного согласия. Кроме того, компания должна будет предоставить возможность возразить против такого решения.
Соответственно, любые решения в отношении клиентов, которые принимаются исключительно ИИ – например, о предоставлении кредита или иного продукта – могут приниматься без человеческого участия, только если предварительно было получено письменное согласие и были разъяснены все последствия такой автоматизированной обработки".
Для эффективного и безопасного внедрения ИИ в банковский сектор и финтех, необходимо разработать правовые и нормативные механизмы, которые бы регулировали вопросы ответственности за ошибки ИИ и устанавливали четкие рамки этического поведения, считает Анастасия Гогина. Это позволит более уверенно двигаться в направлении инноваций и автоматизации, учитывая интересы клиентов и общества в целом. Важно разработать строгие процедуры тестирования и оценки, чтобы предотвратить ошибки, которые могут повлечь за собой негативные последствия использования нейросетей, поддержал Константин Артемьев. Ответственность за такие ошибки также требует четкого установления.
Для финансовой индустрии возможно дополнительное регулирование со стороны Банка России, которое будет регламентирровать специфические для индустрии способы использования ИИ для того, чтобы исключить риски для банковской сферы, считает Владислав Елтовский.
Сегодня можно говорить о правовой неопределенности в сфере регулирования цифровых технологий, уверена Екатерина Авдеева. Для функционирования ИИ важна правовая регламентация всех этапов создания ИИ, его применения, квалификация действий самого ИИ, а также осмысление вопросов правосубъектности ИИ. На уровне законодательства и правоприменения целесообразно идти на опережение, моделируя различные правонарушения и преступления и давая разъяснения. Если в ГК РФ и КоАП возможно дополнить нормы, учитывающие участие в правоотношениях ИИ, то в определенных случаях представляется сложным и требующим глубокого анализа применение норм УК РФ, считает эксперт.
***
Искусственный интеллект стал ключевой технологией в банковской и финансовой сфере. Он позволяет компаниям повысить эффективность бизнес-процессов, снизить риски и обеспечить поставку более персонализированных и инновационных финансовых услуг, резюмировал Дамир Ясупов. Применение нейросетей в банковской и финтех-индустрии открывает двери к более инновационным и эффективным услугам. Однако необходимо тщательное регулирование, особенно в контексте обработки чувствительных данных клиентов, таких как медицинская и финансовая информация – информация о задолженности, об открытых банковских счетах клиента и т. д.
При разработке законодательства следует уделять особое внимание гарантиям информационной безопасности, чтобы избежать потенциальных угроз и нарушений конфиденциальности, уверен Дамир Якупов. В условиях стремительного развития технологий цифровая безопасность банковской сферы и финтеха должна быть сопряжена со взвешенным подходом компании к использованию ИИ и финансовых ресурсов и управлению ими, четким их контролем, оперативным реагированием на любые внутренние или внешние угрозы, подчеркнула Екатерина Авдеева.
Банковская сфера будет одной из передовых индустрий по дальнейшему развитию и внедрению ИИ-технологий, уверен Владислав Елтовский. Как правило, компании в сфере финтех обладают достаточным бюджетом на такое внедрение, а также получают значительные выгоды как за счет сокращения затрат, так и дополнительной прибыли.
_____________________________
1 С текстом исследования McKinsey можно ознакомиться на официальном сайте компании (https://www.mckinsey.com/~/media/mckinsey/industries/).
2 С текстом исследования "Применение технологий искусственного интеллекта на финансовом рынке" можно ознакомиться на официальном сайте Ассоциации ФинТех (https://www.fintechru.org/analytics/issledovanie-aft-primenenie-tekhnologiy-iskusstvennogo-intellekta-na-finansovom-rynke-rasshirennaya-/).
3 С полным текстом стратегической сессии "Развитие искусственного интеллекта" можно ознакомиться на официальном сайте Правительства РФ (http://government.ru/news/49604/).
4 Информация с официального сайта Витрины технологий Сбера для разработчиков (https://developers.sber.ru/help/ml/use-ai#bankovskie-uslugi).
5 Там же.
6 Там же.