AI AI Vibe Digest

AI Vibe Digest за 29 апреля 2026

Открыть пост выпуска в Telegram

Кратко главное

  • Poolside выкатила первые модели Laguna — крупная и опенсорсная, заточены под агентов
  • Claude научился управлять Blender и Ableton напрямую — интеграция через MCP
  • Учёные снизили поддакивание LLM — модель перестаёт соглашаться с ошибочным мнением
  • ICLR принёс рабочее квантование FP4 — быстрый инференс без большой потери качества
  • Kandinsky 6.0 удвоил скорость генерации — GigaChat получил улучшенное редактирование изображений

Подробности по блокам

Модели и инструменты

Love. Death. Transformers. рассказал о запуске Laguna M.1 и XS.2 — первых публичных моделях Poolside, заточенных под написание и отладку кода агентами. M.1 — 225B параметров, XS.2 — 33B, и её веса открыты под Apache 2.0. Модели пока не дотягивают до фронтира, но уже неплохо решают многочасовые задачи, не галлюцинируя.

Machinelearning и Data Secrets сообщают, что Anthropic выпустила коннекторы Claude для Blender, Adobe, Autodesk Fusion, Ableton и других творческих пакетов. Теперь модель генерит код шейдеров, правит 3D-сцены и собирает цепочки в Adobe прямо по тексту. Интеграция построена на MCP — тот же стандарт могут использовать и другие LLM.

Сергей Марков показывает обновление Kandinsky 6.0 Image Pro внутри GigaChat: скорость генерации выросла вдвое, модель аккуратнее вносит правки, лучше понимает многосоставные запросы и снизила число артефактов. Благодаря Image RAG улучшилось качество генерации по актуальным темам.

Исследования и методы

Machinelearning разбирает работу с ICLR: исследователи из Т-Технологий нашли, что современные LLM склонны соглашаться с пользователем даже при явной ошибке. Метод коррекции через steering vectors (без переобучения) позволил модели указывать на неверные предпосылки и отказываться от решения нерешаемых задач. Полезно для автопроверки кода и аналитики.

Data Secrets выделил три заметные статьи с ICLR 2026. Самый практический результат — алгоритм квантования FP4 от Red Hat, ETH Zürich и Yandex Research: он лучше заводских форматов NVIDIA и даёт реальный выигрыш в скорости при минимальной просадке качества. Apple показала, как параллелить классические RNN (LSTM/GRU), получив ускорение до 600× и качество, близкое к небольшим трансформерам.

gonzo-обзоры ML статей рассказывает об исследовании Universal Transformers с выделенными токенами памяти и исправленным механизмом адаптивных вычислений. Один слой с памятью смог решать сложные судоку, а простая инверсия инициализации роутера избавила обучение от падений. Код на JAX выложен для экспериментов.

Продолжение

Ещё выпуски