MaxClaw — managed cloud-версия OpenClaw от MiniMax. Один клик, модель M2.7, 16 000+ навыков, Telegram/Discord/Slack, long-term memory и Expert 2.0 для создания агентов на естествен…
Есть приём, который звучит до смешного просто, но работает неприлично хорошо.
Вы даёте Codex задачу — и в конце добавляете одну строку: «Ты на 100% уверен в этой стратегии? Если нет — найди все возможные дыры, предложи исправления и повторяй этот цикл, пока не будешь уверен на 100%».
По сути, вы превращаете агента в собственного ревьюера. Он не просто выдаёт ответ — он запускает внутренний цикл самопроверки. Находит слабые места, латает их, проверяет снова.
Я попробовал это на нескольких задачах в Codex — и разница заметна. Особенно на архитектурных решениях и рефакторинге: агент ловит edge-кейсы, которые в обычном режиме пролетают мимо.
Почему это работает? Модель умеет находить ошибки в собственных рассуждениях — ей просто нужно явно сказать, что это часть задачи. Без такой инструкции она выдаёт первый приемлемый вариант и останавливается. С ней — копает глубже.
Нюанс: этот приём заточен под GPT-5.5, на которой работает Codex. С Claude Opus такой цикл не даёт заметного эффекта — модель реагирует на подобные инструкции иначе и склонна соглашаться с собой, а не реально перепроверять. Так что если вы работаете в связке с Claude — ищите другие способы верификации (например, внешний ревью-агент).
Попробуйте добавить эту строку в свои системные промпты или AGENTS.md для Codex. Одна фраза — ощутимый прирост качества.
По теме
- Статья: Codex, Саркис и два месяца боли: как я наконец-то собрал рабочую инфраструктуру ИИ-агентов
- Блог: Codex /goal: locked-in режим для ИИ и 10 готовых сценариев
- База знаний: Codex от OpenAI — новая стандартная среда для работы с ИИ-агентами
Если вы уже работаете с кодинг-агентами и хотите выжать из них максимум — иногда достаточно одной правильной строки в промпте. Если захотите обсудить, как это применить у себя или в команде — пишите в Telegram @pimenov