Bessent и Powell предупредили гендиректоров банков о рисках модели Anthropic, сообщают источники.

В последние дни в финансовых кругах США активно обсуждается информация о необычном и тревожном сигнале, поступившем от высших регуляторов к руководителям крупнейших банков страны. Согласно сообщениям источников, знакомых с ситуацией, члены Совета управляющих Федеральной резервной системы Мишель Боуман и Джером Пауэлл провели серию конфиденциальных бесед с генеральными директорами ряда ведущих финансовых институтов. Центральной темой этих дискуссий стали потенциальные системные риски, связанные с широким внедрением и использованием крупными банками передовых языковых моделей, в частности, технологий, разработанных компанией Anthropic. Этот шаг регуляторов интерпретируется экспертами как превентивная мера, направленная на предотвращение новых угроз финансовой стабильности в эпоху стремительного развития искусственного интеллекта.

Содержание предупреждений и реакция банковского сектора

По данным информированных источников, в ходе бесед представители ФРС, включая председателя Пауэлла и члена совета Боуман, акцентировали внимание на операционных, стратегических и репутационных рисках, которые несут в себе сложные модели искусственного интеллекта, такие как Claude от Anthropic. Регуляторы указали на возможность возникновения «черных ящиков» в критически важных банковских процессах — от скоринга кредитов и управления рисками до обнаружения мошенничества и взаимодействия с клиентами. Особую озабоченность, как сообщается, вызвала непрозрачность алгоритмов, их потенциальная уязвимость к атакам с использованием состязательных примеров, а также риск принятия решений на основе смещенных или неверно интерпретированных данных. ФРС подчеркнула, что делегирование ответственных функций ИИ без создания адекватных систем контроля и человеческого надзора может привести к масштабным сбоям.

Реакция со стороны гендиректоров банков, согласно тем же источникам, была сдержанной, но внимательной. Руководители финансовых институтов, многие из которых уже инвестируют значительные средства во внедрение ИИ для повышения эффективности и снижения затрат, признали обоснованность опасений регулятора. В то же время они отметили, что полный отказ от использования передовых технологий в конкурентной среде невозможен. В качестве ответа банки начали внутренние аудиты своих AI-проектов, уделяя особое внимание тем из них, что построены на базе моделей сторонних разработчиков, таких как Anthropic, OpenAI или Google. Ключевым вопросом для банковского сектора теперь становится выработка баланса между инновационным потенциалом ИИ и требованиями регуляторов к управлению рисками, прозрачности и устойчивости.

Anthropic в фокусе: почему именно эта компания вызвала беспокойство ФРС

Выбор Anthropic в качестве примера в предупреждениях ФРС не случаен. Основанная бывшими сотрудниками OpenAI, эта компания позиционирует себя как разработчика «безопасного и управляемого» ИИ, делая акцент на методах, призванных обеспечить соответствие поведения модели заданным принципам, так называемому «конституционному ИИ». Несмотря на эту философию, именно стремительный рост сложности и возможностей моделей Anthropic, в частности флагманской Claude 3, привлек внимание регуляторов. Эти модели начинают активно интегрироваться в корпоративный сектор, включая финансовый, для анализа документов, генерации отчетов, кодирования и поддержки принятия решений.

Проблема, по мнению аналитиков, заключается в том, что даже при декларируемом фокусе на безопасности, внутренняя работа таких моделей остается крайне сложной для интерпретации даже для их создателей. Для банка, использующего API Claude для, например, анализа кредитных досье, становится практически невозможно досконально понять, на основании каких именно паттернов в данных модель выдала ту или иную рекомендацию. Это создает фундаментальный вызов для выполнения традиционных регуляторных требований, таких как необходимость объяснять клиентам причины отказа в кредите (правила fair lending). Таким образом, ФРС, по сути, указала на парадокс: инструмент, призванный оптимизировать риск-менеджмент, сам может стать источником новых, плохо изученных рисков.

Технические аспекты рисков, упомянутых регулятором

С технической точки зрения, риски, озвученные Боуман и Пауэллом, можно разделить на несколько категорий. Во-первых, это риск «галлюцинаций» или конфабуляций, когда модель с высокой уверенностью генерирует ложную или вымышленную информацию, которую сложно отличить от достоверной. В финансовом контексте это может привести к принятию решений на основе несуществующих данных. Во-вторых, проблема устойчивости и надежности: поведение крупных языковых моделей может непредсказуемо меняться при незначительных изменениях вводных данных или инструкций, что недопустимо для строгих банковских процедур. В-третьих, риски безопасности данных, поскольку передача конфиденциальной финансовой информации через API к стороннему провайдеру модели расширяет поверхность для потенциальных атак. И наконец, стратегический риск зависимости от единственного или ограниченного числа поставщиков критически важных технологий.

Более широкий контекст: глобальный тренд регулятор

Таким образом, действия Федеральной резервной системы знаменуют собой поворотный момент в подходе к регулированию финансовых технологий. Они отражают растущее осознание того, что потенциальная мощь искусственного интеллекта должна быть уравновешена новыми принципами управления, прозрачности и подотчетности. Скорее всего, этот прецедент запустит волну аналогичных инициатив по всему миру, вынуждая как регуляторов, так и банки искать новые рамки для безопасного внедрения ИИ. Конечной целью является не остановка прогресса, а построение такой экосистемы, где инновации будут развиваться без угрозы для стабильности всей финансовой системы.