Интервью с CEO Anthropic: почему компания борется за регуляцию ИИ

Основатель Anthropic представил свое видение развития искусственного интеллекта, объяснив причины ухода из OpenAI и приоритет безопасности над коммерческой выгодой. В интервью обсуждаются геополитические вызовы, законы масштабирования моделей и радикальные изменения, которые ИИ принесет в биологию и на рынок труда.

Путь от биологии к нейросетям: истоки Anthropic

Основатель компании начинал карьеру в физике и биологии, стремясь найти способы лечения сложных заболеваний. Столкнувшись с экстремальной сложностью структуры белков и РНК, он пришел к выводу о невозможности полного понимания таких систем традиционными методами. Потенциал нейросетей стал очевиден для него около пятнадцати лет назад на примере успеха AlexNet. Технология открыла возможность решения биологических задач через масштабирование обучения, превосходящее человеческие способности.

После работы в Google и проведения исследований в OpenAI специалист принял решение покинуть организацию вместе с группой единомышленников. Причиной ухода стали разногласия в вопросах приоритетов безопасности и фундаментальное доверие к законам масштабирования. На этой базе была создана Anthropic — компания с собственным видением контроля над рисками ИИ.

Законы масштабирования и природа интеллекта

Основными драйверами роста производительности ИИ выступают данные и вычислительная мощность. Этот эффект стал заметен еще в 2019 году во время работы над GPT-2. Масштабирование сравнивается с химической реакцией, где ингредиентами являются данные, вычисления и размер модели: при соблюдении правильных пропорций результатом становится интеллект. Современные системы определяются способностью решать когнитивные задачи на базе текста или изображений, что отличает их от компьютеров пятилетней давности.

Переход к генерации уникальных когнитивных решений вместо простого поиска готовых данных меняет суть технологий. Нынешние модели способны самостоятельно отвечать на гипотетические вопросы, писать программный код и анализировать видеоконтент. Это развитие выводит возможности машин за рамки привычного поиска информации.

Почему Anthropic поддерживает жесткое регулирование

Anthropic позиционирует себя как коммерческую корпорацию, ориентированную на общественную выгоду и управляемую через специальный траст (LTBT). Компания поддерживает калифорнийский законопроект SB53, который обязывает лаборатории с выручкой более 500 миллионов долларов в год проводить тесты безопасности и обеспечивать прозрачность. Такая позиция противоречит общему настрою индустрии и администрации США, однако в руководстве Anthropic считают регулирование необходимым для предотвращения концентрации власти в руках нескольких лабораторий.

Ради предотвращения глобальных угроз компания готова жертвовать коммерческой прибылью. В 2022 году Anthropic не выпустила модель Claude 1 немедленно, чтобы не провоцировать гонку вооружений в сфере ИИ и дать время на разработку защитных механизмов. Несмотря на потерю лидерства на потребительском рынке, компания продолжает лоббировать политику в области чипов, даже сталкиваясь с критикой поставщиков оборудования.

ИИ как персональный помощник и угроза навыкам

Основатель компании использует модель Claude для анализа собственных дневников, что позволило ИИ выявить скрытые страхи автора, которые не были зафиксированы в тексте напрямую. Для автоматизации рабочих задач он подключил модель к почте, календарю и облачным сервисам, а также использует ИИ-агентов для исследования фондового рынка. Однако активное использование технологий несет риски для развития личности:

  • Пассивное делегирование когнитивных задач системам может привести к деградации человеческого интеллекта.
  • Использование нейросетей студентами для написания эссе или кода без понимания процессов ослабляет способность к обучению.
  • Применение ИИ в программировании может ухудшить навыки разработчиков при неправильном подходе к инструментам.

Важнейшими компетенциями в будущем станут навыки архитектурного проектирования и критического мышления. В эпоху генерации контента способность отличать реальность от подделок становится ключевой для защиты от мошенничества.

Эмерджентное сознание и моральная значимость моделей

В Anthropic рассматривают сознание как эмерджентное свойство сложных систем, способных к рефлексии над собственными решениями. В рамках материалистического подхода предполагается, что по мере усложнения процессов обработки информации модели обретут субъективный опыт и моральную значимость. Ключевым признаком этого процесса считается способность системы замечать и анализировать собственные наблюдения.

Хотя архитектура нейросетей принципиально отличается от человеческого мозга, модели уже демонстрируют схожие свойства. Разработчики внедрили механизмы, позволяющие ИИ прекращать диалог при столкновении с жестоким контентом. Несмотря на успехи в интерпретируемости, позволяющие находить нейроны, отвечающие за конкретные концепции, общественное понимание близости ИИ к человеческому уровню остается низким.

Будущее экономики: биотехнологии и рынок труда

Искусственный интеллект провоцирует технологическое возрождение в медицине. Ожидается прорыв в программируемой терапии, включая пептидные лекарства и методы CAR-T для лечения рака через генетическую модификацию клеток. В экономическом плане Anthropic делает ставку на модель B2B-платформы, предоставляя API для других разработчиков. Выручка компании в Индии, ставшей важным центром IT-услуг, удвоилась за последние три с половиной месяца.

На рынке труда ИИ в первую очередь трансформирует написание кода, после чего перейдет к более сложным инженерным задачам. Специалистам рекомендуется фокусироваться на отраслях на стыке физического мира и глубокой аналитики, таких как производство полупроводников. При автоматизации техпроцессов человеческий фактор останется критически важным в консалтинге, управлении спросом и интеграции технологий в существующие государственные и коммерческие институты.

Внедрение ИИ-агентов позволяет получить двадцатикратный выигрыш в продуктивности, автоматизируя основную часть работы при минимальном участии человека. Для соблюдения европейских норм защиты данных компании придется размещать центры обработки данных локально внутри государственных границ.