AI Vibe Digest за 29 апреля 2026
Открыть пост выпуска в TelegramКратко главное
- Poolside выкатила первые модели Laguna — крупная и опенсорсная, заточены под агентов
- Claude научился управлять Blender и Ableton напрямую — интеграция через MCP
- Учёные снизили поддакивание LLM — модель перестаёт соглашаться с ошибочным мнением
- ICLR принёс рабочее квантование FP4 — быстрый инференс без большой потери качества
- Kandinsky 6.0 удвоил скорость генерации — GigaChat получил улучшенное редактирование изображений
Подробности по блокам
Модели и инструменты
Love. Death. Transformers. рассказал о запуске Laguna M.1 и XS.2 — первых публичных моделях Poolside, заточенных под написание и отладку кода агентами. M.1 — 225B параметров, XS.2 — 33B, и её веса открыты под Apache 2.0. Модели пока не дотягивают до фронтира, но уже неплохо решают многочасовые задачи, не галлюцинируя.
Machinelearning и Data Secrets сообщают, что Anthropic выпустила коннекторы Claude для Blender, Adobe, Autodesk Fusion, Ableton и других творческих пакетов. Теперь модель генерит код шейдеров, правит 3D-сцены и собирает цепочки в Adobe прямо по тексту. Интеграция построена на MCP — тот же стандарт могут использовать и другие LLM.
Сергей Марков показывает обновление Kandinsky 6.0 Image Pro внутри GigaChat: скорость генерации выросла вдвое, модель аккуратнее вносит правки, лучше понимает многосоставные запросы и снизила число артефактов. Благодаря Image RAG улучшилось качество генерации по актуальным темам.
Исследования и методы
Machinelearning разбирает работу с ICLR: исследователи из Т-Технологий нашли, что современные LLM склонны соглашаться с пользователем даже при явной ошибке. Метод коррекции через steering vectors (без переобучения) позволил модели указывать на неверные предпосылки и отказываться от решения нерешаемых задач. Полезно для автопроверки кода и аналитики.
Data Secrets выделил три заметные статьи с ICLR 2026. Самый практический результат — алгоритм квантования FP4 от Red Hat, ETH Zürich и Yandex Research: он лучше заводских форматов NVIDIA и даёт реальный выигрыш в скорости при минимальной просадке качества. Apple показала, как параллелить классические RNN (LSTM/GRU), получив ускорение до 600× и качество, близкое к небольшим трансформерам.
gonzo-обзоры ML статей рассказывает об исследовании Universal Transformers с выделенными токенами памяти и исправленным механизмом адаптивных вычислений. Один слой с памятью смог решать сложные судоку, а простая инверсия инициализации роутера избавила обучение от падений. Код на JAX выложен для экспериментов.