OpenClaw выпустил крупнейшее обновление с версии 3.12: поиск по X в реальном времени, approval hooks для безопасности агентов и встроенная генерация изображений через MiniMax.
Сделали pimenov.ai agent-ready: что реально внедрили и зачем
Мы прогнали pimenov.ai через внешний agent-ready чекер, отсеяли лишние рекомендации и внедрили только то, что реально полезно: markdown negotiation, Content Signals, Link headers и machine-readable discovery.
Недавно прогнал pimenov.ai через внешний чекер isitagentready.com — он проверяет, насколько сайт готов к работе с AI-агентами и agentic-поиском. На выходе получил длинный список рекомендаций. Не всё оттуда имело смысл внедрять, но часть оказалась по-настоящему полезной.
Расскажу, что мы реально применили и почему остальное оставили «на потом».
Что вообще проверяет такой сервис
Сервис смотрит на сайт глазами агента и ищет понятные ему сигналы: есть ли markdown-версии страниц, есть ли Link-заголовки для дискавери, объявлены ли политики ИИ в robots.txt, опубликованы ли machine-readable точки входа вроде /.well-known/..., есть ли API-каталог, OAuth-дискавери, MCP server card, WebMCP-инструменты и прочее.
Если коротко — это такой чек-лист «понятен ли ваш сайт не только людям, но и автономным ИИ-системам». И чек-лист этот агрессивный: он проверяет вообще всё подряд, включая вещи, которые моему личному сайту не нужны в принципе.
Какие рекомендации мы получили
Список выглядел так:
- Link-заголовки для агент-дискавери (RFC 8288)
- Поддержка
Accept: text/markdown— markdown negotiation - Content Signals в
robots.txt - API-каталог по RFC 9727
- OAuth/OIDC discovery
- OAuth Protected Resource Metadata
- MCP Server Card
- Agent Skills discovery index
- WebMCP — tools для браузерных агентов
Технически всё это — валидные и интересные вещи. Но не каждому сайту нужна каждая из них.
Что мы выбрали и почему
Я исходил из простого правила: внедряем только то, что усиливает pimenov.ai именно как источник смысла — для людей, для AI-поиска и для агентов, которые читают мои тексты, чтобы ответить на чей-то вопрос.
Итог: внедрили три вещи.
Markdown negotiation. Теперь если агент приходит с заголовком Accept: text/markdown, сайт отдаёт ему чистую markdown-версию страницы вместо HTML. Для обычного читателя в браузере ничего не меняется — HTML остаётся по умолчанию. Но машинной системе проще вытащить структуру, заголовки и формулировки без фронтенд-шума.
Важный нюанс: markdown мы генерируем из уже собранного HTML, а не ведём как отдельный источник правды. Это сознательное решение — чтобы не раздваивать контент и не ловить рассинхрон.
Content Signals в robots.txt. Добавили явную политику: Content-Signal: ai-train=no, search=yes, ai-input=yes. По-человечески это значит «для поиска и для генеративных ответов — пожалуйста, читайте и цитируйте; для тренировки моделей — нет».
Это не технический замок, а публичное заявление о намерениях. Юридически и репутационно такая метка работает гораздо лучше, чем просто молчание.
Link-заголовки и .well-known discovery. На главной теперь есть Link-заголовки с describedby, которые ведут на machine-readable описания сайта: /.well-known/agent-description.md и /.well-known/agent-description.json. Это нормальный «вход» для любой агентной системы, которая хочет быстро понять, что за сайт и о чём он.
Что мы сознательно не стали делать
Всё остальное из списка для персонального экспертного сайта избыточно.
OAuth/OIDC discovery и OAuth Protected Resource Metadata — это про сайты, у которых есть авторизация и защищённые API для агентов. У pimenov.ai такого сценария нет.
API Catalog по RFC 9727 — полезно, когда вы API-продукт. Мой сайт — это контент и экспертиза, а не API-портал.
MCP Server Card, Agent Skills index, WebMCP — это уже другой класс задач. WebMCP, например, про то, чтобы браузерный агент мог нажимать кнопки на вашем сайте и запускать ваши JS-инструменты. Отличная штука для SaaS и приложений, но не для экспертного блога.
Гнаться за абстрактным «score» и включать всё подряд, только чтобы чекер поставил зелёные галочки, — это как раз тот случай, когда ИИ-хайп начинает диктовать архитектуру вместо задач. Так делать не надо.
Почему этот небольшой набор реально важен
Во-первых, pimenov.ai становится более надёжным source of truth для AI-среды. Когда агент, ассистент или AI-поиск пытается понять, кто я и чем занимаюсь, у него теперь есть чистый путь к смыслу, а не только к тяжёлому HTML.
Во-вторых, снижается количество искажений при пересказе. Машинной системе проще взять текстовую версию страницы, вытащить структуру и ключевые формулировки без лишнего шума.
В-третьих, это правильный стратегический сдвиг. Личный сайт перестаёт быть просто витриной для людей и становится понятным публичным интерфейсом для новой среды, где вас всё чаще читают, цитируют и пересказывают не напрямую, а через модели поверх моделей.
Где это можно посмотреть
- robots.txt
- Markdown discovery
- JSON discovery
- Техническая проверка:
curl -s -H "Accept: text/markdown" https://pimenov.ai/
Главный вывод
Взрослый подход к AI-ready — это не «включить всё, что умеет чекер», а понять, какие слои реально подходят типу вашего сайта, и аккуратно встроить их в существующую архитектуру.
Для pimenov.ai честный набор оказался коротким: markdown negotiation, Content Signals, Link-заголовки и discovery-ресурсы. Ни архитектурного цирка, ни модных слов ради модных слов. Зато сайт теперь спокойно разговаривает и с людьми, и с агентами — на том языке, который каждому из них удобен.
По теме
- Статья: Как сайт становится живым контуром: человек, агент, Notion и live-публикация
- Блог: Почему личный сайт не визитка, а основа публичной системы
- База знаний: Notion как headless CMS
Если вы хотите спокойно разобраться, какие AI-native слои действительно нужны именно вашему сайту или продукту, а какие пока только шумят, — такой разбор полезнее делать до внедрения, а не после.