5 ОБОРОНА СЕВАСТОПОЛЯ
Экономика

В РАН предупредили о главных угрозах при внедрении ИИ в финансах

Массовое внедрение искусственного интеллекта в финансовом секторе несет серьезные угрозы, пишут «Известия» со ссылкой на статью Института экономики РАН — «Основные направления использования искусственного интеллекта в финансовой сфере». Среди ключевых рисков — манипулирование рынками, рост киберпреступности, дискриминация заёмщиков и обесценивание человеческого труда. При этом свыше 70% банков и страховых компаний уже активно используют нейросети в своей работе.

В РАН предупредили о главных угрозах при внедрении ИИ в финансах Global Look Press

Доктор экономических наук института Дмитрий Кочергин в своей статье отмечает, что технология применяется преимущественно в платежных системах, кредитном анализе, страховании и управлении активами. По данным McKinsey, только мировой банковский сектор может получать от внедрения ИИ от 3% до 5% совокупной выручки отрасли ежегодно.

Однако распространение нейросетей сопровождается множеством опасностей. Генеративные модели расширяют возможности злоумышленников для создания фишинговых писем, вредоносного программного обеспечения и захвата устройств пользователей, что приводит к краже данных и мошенничеству, пишет автор.

Серьезной проблемой остается предвзятость алгоритмов. Модели могут воспроизводить и усиливать искажения в данных, что ведет к дискриминации при страховании и кредитовании, ограничивая доступ уязвимых групп к финансовым услугам, отмечается в исследовании. Кроме того, склонность нейросетей к «галлюцинациям» повышает юридические риски из-за жестких стандартов защиты данных.

Существенные угрозы связаны с зависимостью рынка от ограниченного круга поставщиков языковых моделей. Высокие затраты на разработку и концентрация данных приводят к олигополии, когда несколько компаний контролируют весь рынок, подчеркивает Кочергин. Любой сбой или атака создает риски для всех пользователей. При этом даже собственные банковские нейросети обычно основаны на одних технологиях и ведут себя схожим образом.

Разные банки и инвестиционные компании используют одинаковые алгоритмы, которые автоматически принимают схожие решения. В результате участники рынка одновременно покупают или продают одни активы, двигают цены в одном направлении и фактически действуют как единый скоординированный игрок. Формального сговора нет, но эффект налицо — искажение цен, рост волатильности и риск манипуляции.

Аналитик финансовой группы «Финам» Леонид Делицын также указал на опасность «отравления» обучающих данных, когда вредоносный код проникает в популярные сервисы и распространяется через рекомендации ИИ. Ведущий аналитик Freedom Finance Global Наталья Мильчакова отметила высокие затраты на инфраструктуру, риски неравенства в зарплатах и сокращение персонала, что может усилить конкуренцию и вытеснить небольших игроков.

При контролируемом внедрении искусственный интеллект способен повысить производительность, поддержать экономический рост и замедлить инфляцию. При спонтанной автоматизации возможны обесценивание рабочей силы, рост дефолтов, ускорение роста цен и снижение налоговых доходов, что способно подорвать финансовую стабильность, подытоживает автор.

Источник

Вас может заинтересовать

Раскрыты причины отказа Китая от любимого российского лакомства Си Цзиньпина

Divergent

Курс рубля описали словами «все плачут»

Divergent

Названы возможные причины, по которым ЕС не запрещает перевозку нефти из РФ

Divergent