В среду, 24 апреля, в Вашингтоне состоялось заседание подкомитета Сената США по конфиденциальности, технологиям и праву, которое может стать поворотным моментом в формировании будущего регулирования искусственного интеллекта. В центре внимания оказались руководители ведущих технологических компаний, вызванные для дачи показаний по вопросам безопасности ИИ на фоне анонсированного релиза новой модели Anthropic Mythos. Слушания, инициированные сенаторами-республиканцами Дж.Д. Вэнсом и Эриком Бессентом, высветили растущую озабоченность законодателей как потенциальными рисками передовых ИИ-систем, так и доминированием крупнейших игроков на рынке.
Суть слушаний и позиции сторон
Основной темой заседания стала оценка мер безопасности, предпринимаемых компаниями при разработке и развертывании мощных систем искусственного интеллекта. Сенаторы Вэнс и Бессент, известные своим скептическим отношением к нерегулируемому технологическому прогрессу, задали тон жесткому допросу. Их вопросы были сфокусированы на конкретных механизмах предотвращения распространения дезинформации, нарушения авторских прав, создания вредоносного кода и потенциальных угроз национальной безопасности, которые могут исходить от ИИ-моделей уровня Anthropic Mythos. Особый акцент был сделан на прозрачности процессов обучения моделей и источниках данных.
Представители технологических гигантов, включая руководителей подразделений по разработке ИИ и юристов, в своих ответах делали упор на существующие внутренние протоколы безопасности, этические принципы и добровольные обязательства. Они подробно описали системы «красных команд» (red-teaming), используемые для стресс-тестирования моделей на предмет выявления уязвимостей, а также фильтры контента и механизмы контроля на выходе. Однако сенаторы настаивали на том, что этих добровольных мер недостаточно, и требовали предоставить более детальные и верифицируемые данные, подчеркивая, что общественность и регуляторы вынуждены полагаться на заверения самих компаний.
Anthropic Mythos как катализатор дебатов
Непосредственным поводом для срочных слушаний стал анонсированный выход новой крупной языковой модели Anthropic Mythos от компании Anthropic. Эта модель, по предварительным заявлениям разработчиков, должна превзойти по ряду параметров существующие аналоги, включая GPT-4 от OpenAI и Gemini от Google. Ожидаемый качественный скачок в возможностях модели заставил регуляторов вновь обратиться к вопросу о том, успевает ли законодательная база за скоростью технологических инноваций.
Сенаторов интересовали не только технические характеристики Mythos, но и бизнес-контекст ее появления. Были заданы вопросы о структуре инвестиций в Anthropic: компания получила многомиллиардное финансирование от Amazon и Google, что, по мнению некоторых экспертов и законодателей, создает сложную сеть перекрестного владения и потенциальных конфликтов интересов среди ключевых игроков рынка облачных услуг и ИИ. Это порождает опасения относительно формирования олигополии, способной диктовать стандарты и сдерживать реальную конкуренцию в сфере безопасного ИИ.
Вопросы конкуренции и рыночной концентрации
Линия допроса, касающаяся рыночной динамики, стала одной из ключевых. Вэнс и Бессент указывали на то, что экосистема разработки передового ИИ сужается до круга нескольких корпораций с практически неограниченными ресурсами. Это, по их мнению, создает системные риски: инновации могут подавляться, а подход к безопасности будет определяться узкой группой лиц, чьи интересы не обязательно совпадают с общественными. Обсуждение затронуло тему доступа к критически важной инфраструктуре — вычислительным мощностям (чипам класса GPU) и данным, контроль над которыми также сосредоточен у ограниченного числа компаний.
Регуляторный контекст и законодательные инициативы
Данные слушания проходят в период интенсивной законодательной активности вокруг ИИ как на федеральном уровне, так и на уровне отдельных штатов. Конгресс США рассматривает несколько законопроектов, направленных на установление рамок для разработки и использования ИИ. Администрация Байдена ранее выпустила Исполнительный указ о безопасном, защищенном и заслуживающим доверия искусственном интеллекте, который возлагает на компании ряд обязательств по отчетности. Однако указ не имеет силы закона, что оставляет правовое поле фрагментированным.
Слушания в подкомитете под руководством Вэнса и Бессента носят явно выраженный следственный характер и направлены на сбор фактической базы для будущих законов. Их цель — преодолеть информационную асимметрию между регуляторами и индустрией. Показательно, что фокус смещен не только на абстрактные этические принципы, но и на конкретные технические и экономические механизмы, которые могут быть предметом жесткого регулирования, такого как обязательное лицензирование моделей выше определенного порога вычислительной сложности, строгий аудит и сертификация.
Международный аспект и гонка стандартов
Дебаты в Вашингтоне нельзя рассматривать в отрыве от глобального кон
Таким образом, слушания в сенатском подкомитете четко обозначили переход от теоретических дискуссий об этике ИИ к практической и жесткой работе над правовыми механизмами контроля. Основным итогом стало осознание законодателями необходимости не просто полагаться на добровольные инициативы компаний, а создавать обязательные рамки, которые будут регулировать как безопасность передовых систем, так и конкурентную среду на рынке. Эти дебаты закладывают фундамент для будущих законов, которые, вероятно, будут включать требования прозрачности, аудита и, возможно, лицензирования, определяя тем самым траекторию развития не только американского, но и глобального регулирования искусственного интеллекта в условиях технологической гонки.