Сделали pimenov.ai agent-ready: что реально внедрили и зачем

Мы прогнали pimenov.ai через внешний agent-ready чекер, отсеяли лишние рекомендации и внедрили только то, что реально полезно: markdown negotiation, Content Signals, Link headers и machine-readable discovery.

ИИ-агентыПрактикаИнструменты

Недавно прогнал pimenov.ai через внешний чекер isitagentready.com — он проверяет, насколько сайт готов к работе с AI-агентами и agentic-поиском. На выходе получил длинный список рекомендаций. Не всё оттуда имело смысл внедрять, но часть оказалась по-настоящему полезной.

Расскажу, что мы реально применили и почему остальное оставили «на потом».

Что вообще проверяет такой сервис

Сервис смотрит на сайт глазами агента и ищет понятные ему сигналы: есть ли markdown-версии страниц, есть ли Link-заголовки для дискавери, объявлены ли политики ИИ в robots.txt, опубликованы ли machine-readable точки входа вроде /.well-known/..., есть ли API-каталог, OAuth-дискавери, MCP server card, WebMCP-инструменты и прочее.

Если коротко — это такой чек-лист «понятен ли ваш сайт не только людям, но и автономным ИИ-системам». И чек-лист этот агрессивный: он проверяет вообще всё подряд, включая вещи, которые моему личному сайту не нужны в принципе.

Какие рекомендации мы получили

Список выглядел так:

  • Link-заголовки для агент-дискавери (RFC 8288)
  • Поддержка Accept: text/markdown — markdown negotiation
  • Content Signals в robots.txt
  • API-каталог по RFC 9727
  • OAuth/OIDC discovery
  • OAuth Protected Resource Metadata
  • MCP Server Card
  • Agent Skills discovery index
  • WebMCP — tools для браузерных агентов

Технически всё это — валидные и интересные вещи. Но не каждому сайту нужна каждая из них.

Что мы выбрали и почему

Я исходил из простого правила: внедряем только то, что усиливает pimenov.ai именно как источник смысла — для людей, для AI-поиска и для агентов, которые читают мои тексты, чтобы ответить на чей-то вопрос.

Итог: внедрили три вещи.

Markdown negotiation. Теперь если агент приходит с заголовком Accept: text/markdown, сайт отдаёт ему чистую markdown-версию страницы вместо HTML. Для обычного читателя в браузере ничего не меняется — HTML остаётся по умолчанию. Но машинной системе проще вытащить структуру, заголовки и формулировки без фронтенд-шума.

Важный нюанс: markdown мы генерируем из уже собранного HTML, а не ведём как отдельный источник правды. Это сознательное решение — чтобы не раздваивать контент и не ловить рассинхрон.

Content Signals в robots.txt. Добавили явную политику: Content-Signal: ai-train=no, search=yes, ai-input=yes. По-человечески это значит «для поиска и для генеративных ответов — пожалуйста, читайте и цитируйте; для тренировки моделей — нет».

Это не технический замок, а публичное заявление о намерениях. Юридически и репутационно такая метка работает гораздо лучше, чем просто молчание.

Link-заголовки и .well-known discovery. На главной теперь есть Link-заголовки с describedby, которые ведут на machine-readable описания сайта: /.well-known/agent-description.md и /.well-known/agent-description.json. Это нормальный «вход» для любой агентной системы, которая хочет быстро понять, что за сайт и о чём он.

Что мы сознательно не стали делать

Всё остальное из списка для персонального экспертного сайта избыточно.

OAuth/OIDC discovery и OAuth Protected Resource Metadata — это про сайты, у которых есть авторизация и защищённые API для агентов. У pimenov.ai такого сценария нет.

API Catalog по RFC 9727 — полезно, когда вы API-продукт. Мой сайт — это контент и экспертиза, а не API-портал.

MCP Server Card, Agent Skills index, WebMCP — это уже другой класс задач. WebMCP, например, про то, чтобы браузерный агент мог нажимать кнопки на вашем сайте и запускать ваши JS-инструменты. Отличная штука для SaaS и приложений, но не для экспертного блога.

Гнаться за абстрактным «score» и включать всё подряд, только чтобы чекер поставил зелёные галочки, — это как раз тот случай, когда ИИ-хайп начинает диктовать архитектуру вместо задач. Так делать не надо.

Почему этот небольшой набор реально важен

Во-первых, pimenov.ai становится более надёжным source of truth для AI-среды. Когда агент, ассистент или AI-поиск пытается понять, кто я и чем занимаюсь, у него теперь есть чистый путь к смыслу, а не только к тяжёлому HTML.

Во-вторых, снижается количество искажений при пересказе. Машинной системе проще взять текстовую версию страницы, вытащить структуру и ключевые формулировки без лишнего шума.

В-третьих, это правильный стратегический сдвиг. Личный сайт перестаёт быть просто витриной для людей и становится понятным публичным интерфейсом для новой среды, где вас всё чаще читают, цитируют и пересказывают не напрямую, а через модели поверх моделей.

Где это можно посмотреть

Главный вывод

Взрослый подход к AI-ready — это не «включить всё, что умеет чекер», а понять, какие слои реально подходят типу вашего сайта, и аккуратно встроить их в существующую архитектуру.

Для pimenov.ai честный набор оказался коротким: markdown negotiation, Content Signals, Link-заголовки и discovery-ресурсы. Ни архитектурного цирка, ни модных слов ради модных слов. Зато сайт теперь спокойно разговаривает и с людьми, и с агентами — на том языке, который каждому из них удобен.

По теме

Если вы хотите спокойно разобраться, какие AI-native слои действительно нужны именно вашему сайту или продукту, а какие пока только шумят, — такой разбор полезнее делать до внедрения, а не после.