Все статьи
14 апреля 2026 г.6 мин

Anthropic забанил создателя OpenClaw — и вернул доступ за часы

openclawanthropicновостиии-агенты
Anthropic забанил создателя OpenClaw — и вернул доступ за часы

6 апреля 2026 года в техническом сообществе случился небольшой скандал. Anthropic заблокировал доступ к Claude для Питера Штейнбергера — создателя OpenClaw, самого популярного фреймворка для ИИ-агентов. А потом вернул его обратно буквально за несколько часов.

История короткая. Но за ней стоит разговор о природе платформенной зависимости в мире ИИ.

Кто такой Питер Штейнбергер и что такое OpenClaw

anthropic-banned-openclaw-creator intro

Ноябрь 2025 года. Австрийский разработчик Питер Штейнбергер за один вечер собрал прототип: подключил мессенджер к Claude и получил автономного агента. Выложил на GitHub. За первые 24 часа — 100 000 звёзд. По данным Inbounter, к марту 2026 года OpenClaw набрал 247 000 звёзд и стал одним из самых быстро растущих open-source проектов в истории.

Ключевая идея OpenClaw: не просто чат с ИИ, а агент с памятью, инструментами и способностью выполнять многошаговые задачи автономно. Разработчики получили фреймворк, который можно встроить в любой рабочий процесс.

Успех проекта привлёк внимание больших игроков. В феврале 2026 года Штейнбергер принял оффер от OpenAI. Но OpenClaw он не продал — проект перешёл в фонд и продолжил развиваться независимо.

Вот почему происходящее с OpenClaw и его создателем важно: это история о том, что происходит, когда маленький проект становится инфраструктурой для миллионов.

Что произошло 6 апреля

anthropic-banned-openclaw-creator section-1

Anthropic объявил: подписки Claude больше не включают бесплатный доступ к OpenClaw. Это не техническая ошибка — решение компании. Официальная причина: слишком высокий спрос, инфраструктура не справляется с нагрузкой.

OpenClaw работал поверх Claude API и встраивался в подписки Claude Pro. Антропик решил эту интеграцию убрать.

По данным InfoWorld, Штейнбергер успел договориться об отсрочке на неделю. Anthropic выдал подписчикам компенсационные кредиты на переход к прямому использованию API.

Параллельно, примерно 10 апреля, TechCrunch зафиксировал: личный аккаунт Штейнбергера был временно заблокирован. Anthropic причин публично не объяснял. Через несколько часов доступ восстановили.

Никаких официальных заявлений о причинах блокировки аккаунта основателя не последовало.

Почему это не просто инцидент

anthropic-banned-openclaw-creator section-2

Здесь несколько уровней.

Уровень 1: Платформенная зависимость

anthropic-banned-openclaw-creator section-3

OpenClaw строился на API Anthropic. Без доступа к Claude — нет продукта. Штейнбергер это понимал и публично говорил об этом риске. Но даже понимая риск, избежать его полностью сложно: Claude был лучшей моделью для агентных задач в 2025-2026 году.

247 000 звёзд на GitHub не защитили от бана. 50 миллионов установок не изменили решение компании. Это базовый урок для любого, кто строит продукт поверх чужой платформы: размер не равно защита.

Уровень 2: Скорость реакции сообщества

anthropic-banned-openclaw-creator conclusion

Информация о блокировке разошлась по TechCrunch, The Register, InfoWorld, Progressive Robot за несколько часов. Сотни разработчиков начали искать обходные пути, форкать проект, тестировать альтернативные провайдеры.

OpenClaw не умер от одного бана. Экосистема вокруг проекта оказалась устойчивее, чем мог бы ожидать кто-то снаружи.

Уровень 3: Бизнес-решение, не техническое

Anthropic убрал OpenClaw из подписок не потому что было нельзя оставить технически — а потому что так выгоднее коммерчески. Компания регулирует, кто и как использует её мощности.

Это не обвинение — это описание реальности. Платформы принимают коммерческие решения. Строить бизнес поверх платформы — значит принять этот риск.

Что произошло дальше

После восстановления доступа Штейнбергер продолжил работу. OpenClaw не остановился. Команда начала активно добавлять поддержку альтернативных провайдеров: OpenAI, Gemini, локальные модели через Ollama.

Это важная адаптация: OpenClaw из "агента на Claude" превратился в "агент с возможностью выбора модели". Один инцидент ускорил архитектурное решение, которое давно нужно было принять.

Что это значит для разработчиков и продуктовых команд

Если вы строите продукт на OpenClaw или любом другом фреймворке поверх Claude API — у вас есть один главный риск: платформа может изменить правила в любой момент.

Как снизить этот риск

Слой абстракции над моделями. Не привязываться к одному провайдеру на уровне кода. Правильная архитектура позволяет переключить модель за день, а не за месяц. LangChain, LlamaIndex, LiteLLM — библиотеки, которые создают этот слой абстракции.

Тестирование с несколькими провайдерами. Даже если основная модель — Claude, раз в квартал запускайте ключевые рабочие процессы на GPT-4, Gemini, Mistral. Это займёт несколько часов — и даст понимание, насколько вы зависимы.

Резервный провайдер в production. Иметь работающую интеграцию с альтернативой — страховка, которая стоит нескольких дней настройки. SLA 99.9% не существует без резерва.

Прямой API вместо сторонних фреймворков там, где это возможно. OpenClaw удобен, но это дополнительная зависимость. Для критических рабочих процессов иногда правильнее работать напрямую через API.

Параллель: что произошло с OpenAI и сторонними клиентами в 2023

Это не первый раз, когда платформа меняет правила. В 2023 году OpenAI несколько раз изменял условия использования API — часть популярных приложений оказалась в серой зоне или потеряла доступ к определённым функциям. Популярные GPT-клиенты теряли функциональность overnight.

В 2024-2025 году Twitter/X несколько раз менял политику API — тысячи продуктов и исследовательских проектов, построенных на нём, оказались нежизнеспособны за неделю.

История повторяется. Зависимость от платформы — системный риск, а не случайное стечение обстоятельств. Это не означает, что не нужно строить на платформах — иногда это единственный способ быстро запуститься. Это означает, что зависимость нужно признавать, измерять и планировать митигацию.

Ирония ситуации: Штейнбергер работает в OpenAI

В феврале 2026 года — за полтора месяца до инцидента — Питер Штейнбергер принял оффер от OpenAI. Создатель OpenClaw, работавшего на Claude, теперь сотрудник компании, которая является главным конкурентом Anthropic.

OpenClaw перешёл в независимый фонд. Формально — полная независимость. Фактически: это означает, что у проекта теперь нет единого корпоративного патрона ни от Anthropic, ни от OpenAI.

Anthropic заблокировал аккаунт человека, который теперь работает в OpenAI и строил продукт на Claude. Это не обвинение — мы не знаем причин блокировки. Но контекст добавляет объём к истории.

Для сообщества важна другая деталь: Штейнбергер отделил OpenClaw от своей персоны. Проект существует независимо от того, где работает его создатель. Это правильное архитектурное решение на уровне ownership.

Audience Lens: кого это касается прямо сейчас

Если вы используете OpenClaw в рабочем процессе — важно знать: проект продолжает работу, поддержка нескольких моделей добавляется. Привязанность к Claude Pro подписке ушла, но прямой API работает.

Если вы планируете строить на OpenClaw — закладывайте мультимодельную архитектуру с самого начала. Это не лишняя работа: это базовая инженерная практика для production-систем.

Если вы строите продукт поверх любой ИИ-платформы — задайте себе три вопроса:

  • Что произойдёт с вашим продуктом, если этот провайдер завтра поднимет цены в 3 раза?
  • Сколько времени займёт переключение на альтернативу?
  • Есть ли у вас тестовая интеграция с хотя бы одним резервным провайдером?

Если хотя бы на один из этих вопросов нет готового ответа — значит, есть технический долг, который стоит закрыть до того, как он превратится в кризис.

История OpenClaw и Anthropic — хорошее напоминание об этом. Не потому что Anthropic плохой, и не потому что OpenClaw сделал что-то не так. А потому что платформы принимают решения в своих интересах. Это нормально. Ненормально строить на этом без страховки.

Итог

Anthropic временно заблокировал создателя одного из самых популярных ИИ-фреймворков в мире. Причины не объяснены. Доступ восстановлен за часы.

Главный вывод не в том, что Anthropic "плохой" или "хороший". Главный вывод — платформенная зависимость — это архитектурный риск, который нужно закладывать в продукт с самого начала.

Сколько времени займёт переключение вашего основного рабочего процесса на другого провайдера, если завтра текущий недоступен? Если ответ "несколько месяцев" — это разговор для завтрашнего совещания.

---

Хотите разобраться, как строить ИИ-агентов так, чтобы не зависеть от одной платформы? На fabrika.galson.pro — полный разбор архитектуры устойчивых агентных систем: мультимодельный подход, слои абстракции, резервные провайдеры.

ФАБРИКА КОНТЕНТА

Контент на неделю за 2 часа. Без команды, без выгорания.

ИИ-конструктор, который учится писать как ты. Посты, сценарии, карусели — твой стиль, твои смыслы. Плюс еженедельные эфиры и закрытое комьюнити.

Получить доступ в Фабрику

Первый месяц 2 990₽. Далее 1 490₽/мес. Отмена в любой момент.

Бесплатный контент про ИИ — в Telegram

Кейсы, разборы инструментов, закулисье

Подписаться