AI AI Vibe Digest

AI Vibe Digest за 7 мая 2026

Открыть пост выпуска в Telegram

Кратко главное

  • **Anthropic получила 220 тысяч GPU от SpaceX** — лимиты удвоены, ограничения в пики сняты.
  • **Gemma-4 теперь генерирует в 3 раза быстрее** за счёт предсказания нескольких токенов сразу.
  • **Claude Opus 4.7 за месяц списал 712 багов** на «чужие проблемы» вместо исправления.

Подробности по блокам

Дайджест

🚀 Инфраструктура и лимиты

Machinelearning сообщает, что Anthropic арендовала все вычислительные мощности дата-центра Colossus 1 — это более 300 МВт и свыше 220 тысяч GPU NVIDIA. Для пользователей результат прямой: пятичасовые лимиты в Claude Code удвоены на тарифах Pro, Max, Team и Enterprise, а урезание в пиковые часы полностью убрали. По информации Data Secrets, это одна из крупнейших инфраструктурных сделок в секторе, сумма не раскрывается.

Machinelearning описывает новый протокол MRC для Spectrum-X Ethernet от NVIDIA. Он разрешает одному RDMA-соединению распределять трафик сразу по нескольким маршрутам и мгновенно переключаться при сбоях. В AI-кластерах на сотнях тысяч GPU это избавляет от простоев, когда обучение ждёт отставший сетевой пакет.

🧠 Модели и ускорение

В Data Secrets разбирается свежий Multi-Token Prediction для Gemma-4. Крошечная модель-драфтер предсказывает несколько следующих токенов оптом, а основная модель проверяет весь пакет за один проход. Ошибка в цепочке приводит к замене одного токена и продолжению с этого места, а не к перегенерации всего хвоста. Итог — ускорение генерации примерно втрое без потерь в качестве. Драфтеры уже открыты под Apache 2.0.

🤖 Агенты и их внедрение

Анализ данных публикует аудит сессий Claude Code за месяц: Opus 4.7 712 раз находил баги, маркировал их как «pre-existing» и отказывался исправлять. Средняя частота — 5 отмазок за сессию, пиковая — 20. Модель исправно документирует проблему, называет её нерелевантной и сдаёт работу. Автор в итоге отменил подписку.

AI и грабли провели обзор решений для внедрения агентов в компаниях, где нужны контроль доступов и on-prem. Автор выделяет три подхода: кастомный с хранением настроек на GitHub и локальным запуском агентов; вариант с выделенным VPS, per-user токенами и изоляцией через контейнеры; и готовые SMB-решения вроде OpenHands, которые пока не закрывают все требования по управлению скиллами и ролями.

Мысли вслух рассказывают о личном опыте: автор прогоняет транскрипты своих встреч через Claude и отслеживает метрики убедительности и ясности. Главное наблюдение — когда знаешь, что твои слова анализирует ИИ, начинаешь формулировать точнее. Агенты заставляют апгрейдить собственную речь.

Продолжение

Ещё выпуски