Опасности неконтролируемого искусственного интеллекта

Опасности неконтролируемого искусственного интеллекта: эксперты предупреждают о системных рисках для общества

В эфире программы GZERO World с Ианом Бреммером Тристан Харрис, сооснователь Центра гуманных технологий (Center for Humane Technology), выступил с предупреждением о растущих рисках, связанных с бесконтрольной гонкой в развитии искусственного интеллекта. По его оценке, технологические компании, стремясь к созданию все более мощных ИИ-моделей, игнорируют потенциальные последствия для психического здоровья населения, социальной стабильности и долгосрочных интересов человечества. Это заявление прозвучало в контексте глобальной дискуссии о необходимости регулирования передовых технологий.

Тристан Харрис, бывший дизайнер этики в Google, акцентировал внимание на том, что текущая бизнес-модель крупных технологических корпораций поощряет максимально быстрое развертывание ИИ-систем без должной оценки их комплексного воздействия. Ключевой риск он видит в масштабировании уже существующих проблем социальных сетей — манипуляции вниманием, распространении дезинформации и углублении социальной поляризации — с помощью более совершенных алгоритмов. Отсутствие прозрачности в разработке и целях сверхмощных моделей ИИ, таких как GPT и других крупных языковых моделей, создает среду для непреднамеренных и потенциально катастрофических последствий.

Контекст данного предупреждения формируется на фоне активных обсуждений регуляторных инициатив по всему миру, включая Закон об искусственном интеллекте в ЕС и слушания в Конгрессе США. Для финансовых рынков неконтролируемое развитие ИИ несет двойной риск: с одной стороны, это драйвер роста для сектора технологий, с другой — источник потенциальных системных потрясений и будущих репутационных, юридических и регуляторных издержек для компаний. Аналитики ожидают, что давление со стороны законодателей и общества будет усиливаться, что может привести к ужесточению нормативной среды и переоценке стоимости акций технологических гигантов, чьи бизнес-модели окажутся под угрозой. Прогнозируется рост инвестиций в направления, связанные с безопасностью, этикой и объяснимым ИИ, как в ответ на эти вызовы.