AI AI Vibe Digest

AI Vibe Digest за 5 мая 2026

Открыть пост выпуска в Telegram

Кратко главное

  • Anthropic хочет снизить зависимость от Nvidia — чипы Fractile с SRAM ускорят инференс без громоздкой памяти.
  • Инструмент Silico заглядывает в нейроны LLM — можно менять поведение модели, зная, какие нейроны за что отвечают.
  • CocoIndex v1 превратил ETL-пайплайны в обычный Python — движок обновляет данные инкрементально, без переиндексации всей базы.
  • DeepSeek добавляет координаты в рассуждения — мультимодальная модель точнее ориентируется в пространстве и считает объекты.
  • Числовые узоры в LLM не гарантируют понимания арифметики — периодические структуры оказались лишь статистическим артефактом.

Подробности по блокам

Дайджест

🖥️ Аппаратные чипы

Machinelearning рассказывает о переговорах Anthropic с британским стартапом Fractile. Компания Дарио Амодея намерена закупать чипы, построенные на SRAM, которые не требуют пересылки данных между ядрами и отдельной HBM-памятью, в отличие от GPU. Это даёт заметный прирост скорости на инференсе готовых моделей. Сделка ослабит зависимость от Nvidia, но даже в случае успеха чипы появятся в дата-центрах не раньше 2027 года.

🛠️ Инструменты для разработчиков

Machinelearning освещает релиз CocoIndex v1 — опенсорсного инкрементального движка для построения данных под AI-агентов. Главное новшество: отказ от собственного DSL. Теперь весь пайплайн описывается асинхронными Python-функциями, а движок сам отслеживает изменения и точечно пересчитывает только изменившиеся части индекса. Приятный бонус — Postgres больше не обязателен, состояние умещается в одном локальном файле. Это избавляет от дорогостоящих ночных пересборок и ускоряет работу RAG-систем и графов знаний.

🔬 Внутреннее устройство моделей

Machinelearning описывает инструмент Silico от стартапа Goodfire. Он позволяет разглядывать отдельные нейроны LLM и управлять их активацией. Например, в Qwen 3 нашли нейрон, превращающий обычный ответ в моральную дилемму, а усиление нейронов прозрачности заставляло модель в 9 из 10 случаев советовать раскрыть ошибки ИИ, несмотря на коммерческие риски. Также Silico помогает чистить данные: ошибку «9.11 > 9.9» вызывали нейроны, связанные с нумерацией релизов и библейскими стихами — теперь от этого артефакта можно защититься.

gonzo-обзоры ML статей разбирают исследование о «конвергентной эволюции» числовых представлений. Периодические Фурье-структуры в эмбеддингах, которые часто принимают за доказательство освоения модульной арифметики, оказались лишь повсеместным артефактом частотности токенов. Настоящая же способность делить числа по модулю появляется избирательно и требует согласованной работы архитектуры, обучения и данных корпуса, а не просто красивых картинок в пространстве репрезентаций.

🧪 Новые подходы к мультимодальности

Data Secrets сообщает о методе DeepSeek, который закрывает «Reference Gap» у мультимодальных моделей. Вместо того чтобы рассуждать об изображении абстрактным текстом, модель вставляет в цепочку мыслей визуальные примитивы — координаты точек и рамки. Сначала она привязывается к объектам, а уже потом строит логику. Это дало серьёзный прирост в задачах, требующих пространственного понимания: подсчёта предметов, сравнения расположения и прохождения лабиринтов.

🔭 AI в астрономии

Machinelearning пишет, что модель RAVEN, обученная на сотнях тысяч симуляций транзитов, проанализировала данные телескопа TESS и подтвердила 118 экзопланет, 31 из которых обнаружена впервые. Алгоритм просмотрел 2,2 миллиона звёзд и выделил ещё более 2000 кандидатов высокого качества. Среди находок — планеты с орбитой короче суток и объекты в «нептунианской пустыне», где их почти не ждали. Каталоги открыты и помогут наземным обсерваториям и будущей миссии PLATO.

Продолжение

Ещё выпуски