Что Дарио Амодеи сказал Financial Times — пересказ интервью главы Anthropic

Глава Anthropic дал большое интервью Financial Times — про оценку $380 млрд, удар по начальным позициям white-collar, Claude Mythos, регулирование и красные линии. Оригинал за paywall, поэтому собрал главное в одном тексте.

ИИБизнес

Я наткнулся на свежее большое интервью Дарио Амодеи в Financial Times — и оно показалось мне слишком важным, чтобы пройти мимо. Глава Anthropic редко говорит так подробно сразу обо всём: и про деньги, и про рынок труда, и про красные линии в применении ИИ.

Проблема в том, что оригинал — за paywall, и большинство его просто не прочитают. Поэтому я собрал здесь аккуратный пересказ ключевых тезисов: без дословного перевода, но с сохранением главных мыслей и акцентов. Если у вас есть подписка на FT — лучше прочитать оригинал. Если нет — этот текст даст вам ту же картину.

Кто такой Дарио Амодеи и почему его слова важны: это сооснователь и CEO Anthropic, компании, которая делает Claude. Один из главных голосов индустрии, бывший VP of Research в OpenAI, ушёл оттуда вместе с командой как раз из-за разногласий по безопасности.

$30 миллиардов, оценка в $380 миллиардов и ощущение, что мы только в начале

Anthropic недавно закрыл раунд на $30 млрд при оценке $380 млрд. Цифры, которые ещё пять лет назад казались бы нереальными для исследовательской лаборатории.

Ключевая мысль Амодеи: ИИ всё ещё недооценён по масштабу. Масштабирование моделей, по его словам, далеко не упёрлось в потолок — несмотря на постоянные разговоры о том, что «мы уже близко к плато».

Это важный сигнал. Когда руководитель frontier-лаборатории, у которого есть все данные изнутри, говорит «мы ещё в начале» — это не маркетинг. Это его реальная рабочая гипотеза, на которую он ставит миллиарды.

Notion image

Удар по работе: до половины начальных позиций под угрозой

Самая жёсткая часть интервью — про рынок труда.

Амодеи прямо называет цифру: до 50% entry-level white-collar jobs могут оказаться под риском в горизонте пяти лет. Под удар попадают молодые разработчики, юристы, консультанты, финансисты — все, кто только начинает карьеру в офисных профессиях.

Его тезис при этом не алармистский, а скорее этический:

Мы не должны делать вид, что дестабилизация не произойдёт. Мы должны сделать позитивный эффект настолько большим, чтобы у общества был инструмент справиться с этой ломкой.

И тут же — самокритика отрасли. ИИ-компании много обещают, но широких ощутимых выгод в повседневной жизни общество пока почти не видит. Отсюда главная формула, которую он повторяет: ИИ распространяется со скоростью доверия. А доверия сейчас мало.

Claude Mythos и киберугрозы — почему пришлось срочно звонить в банки

Свежий релиз Anthropic, Claude Mythos Preview, по словам Амодеи, резко усилил способности модели находить zero-day уязвимости в операционных системах и браузерах.

После релиза начались срочные разговоры с американскими чиновниками и крупнейшими банками о киберзащите. Это не учения и не пиар — это нормальная реакция на то, что инструмент, попади он не в те руки, серьёзно меняет ландшафт киберугроз.

В ответ Anthropic продвигает Project Glasswing как прототип более ответственного релиза frontier-моделей: пытается зафиксировать стандарт, при котором мощные модели не выходят на рынок без предварительной оценки рисков.

Военное применение и одна красная линия, которую он не пересечёт

Амодеи не пытается изобразить пацифиста. Он прямо говорит: ИИ может и должен использоваться демократическими государствами — для сдерживания авторитарных режимов и помощи союзникам, в том числе Украине и Тайваню.

Но у него есть жёсткая красная линия:

Я не хочу, чтобы ИИ был направлен против наших собственных граждан.

Никакой массовой внутренней слежки. Никакого автономного насилия внутри страны. Внешняя оборона — да, репрессивный контур внутри — нет. Это редкая для крупного американского AI-CEO позиция, и она довольно чётко проведена.

Notion image

Регулирование: ИИ как автомобили и самолёты

Амодеи предлагает простую аналогию. Мы не запрещаем машины и самолёты, потому что они полезны. Но мы не выпускаем их на рынок без стандартов безопасности — и это никого не удивляет.

С ИИ должно быть так же. Огромная польза не отменяет обязательной оценки frontier-моделей до широкого внедрения.

Anthropic, по его словам, уже финансирует более жёсткий safety-policy контур и спорит с теми игроками, которые пытаются блокировать любое регулирование. Это, кстати, важная деталь: разговор о регулировании внутри индустрии не такой единодушный, как кажется снаружи.

Напряжение с OpenAI — куда без него

Интервью не обходится и без темы OpenAI и Сэма Альтмана.

Амодеи признаёт, что напряжение между Anthropic и OpenAI сохраняется. Часть его команды ушла из OpenAI именно из-за расхождений по вопросам безопасности — это давно известная история, но он подтверждает её снова, без попытки сгладить.

При этом он всё равно надеется, что крупные игроки смогут договориться о базовых стандартах проверки моделей. То есть он спорит, но не сжигает мосты — позиция взрослого человека, а не подростка.

Gilded age и обязательства сверхбогатых

Финальная часть интервью неожиданно политическая.

Амодеи считает, что мы живём в новой gilded age — эпохе быстрого накопления огромных состояний. И что сверхбогатые, включая его самого, обязаны больше отдавать обществу. Это не лозунг — он открыто относит это требование и к себе.

Отдельно он критикует тех технологических миллиардеров, которые обижаются на прессу и пытаются покупать медиавлияние, вместо того чтобы просто выполнять свои обязательства перед обществом. Имена он не называет, но направление достаточно прозрачное.

Что из этого следует — мой короткий комментарий

Если сжать интервью в один абзац, получается так. Дарио Амодеи занимает позицию ответственного хардкорного AI-лидера: не отрицает риски, не тормозит прогресс, признаёт удар по занятости, поддерживает внешнее оборонное применение ИИ — и одновременно жёстко запрещает внутреннюю репрессивную эксплуатацию технологии.

Для бизнеса и команд, которые сейчас встраивают ИИ в свои процессы, важны три практических вывода:

  1. Готовьтесь к тому, что начальные позиции в офисных профессиях будут перестраиваться быстрее, чем вы думаете. Вопрос не «заменит ли», а «как мы переучим людей».
  2. Доверие — главный дефицит. Та компания, которая первой научится показывать ощутимую пользу от ИИ обычным людям, а не только инвесторам, выиграет рынок.
  3. Регулирование придёт. Лучше готовиться к нему как к стандарту безопасности, а не как к катастрофе.

И да, отдельно стоит обратить внимание на красную линию Амодеи. Не потому что она автоматически защитит общество — а потому что она вообще обозначена. В индустрии, где эти линии чаще всего никем не проводятся, это уже сильный жест.


По теме

Если вы сейчас разбираетесь, как встраивать frontier-модели в реальные рабочие процессы — и хотите делать это так, чтобы команда не сломалась о новые правила игры — пишите в Telegram @pimenov. Спокойно разберём ваш случай и наметим, с чего начать.