AI Vibe Digest за 27 апреля 2026
Открыть пост выпуска в TelegramКратко главное
- Новые принципы промптинга для GPT-5.5 — OpenAI советует убирать детальные инструкции и давать модели только цель с ограничениями.
- Глубокий кэш DeepSeek подешевел в 10 раз — повторные запросы почти бесплатны, экономика агентов и RAG резко меняется.
- AI-кодинг без системного подхода ведёт к хаосу — Тимур Хахалев объясняет, как правильно дебажить и не теряться в чужом коде.
- Завтра (28.04.2026) стартует лаборатория x26 по AI-креативу — четыре модальности, практические проекты и защита в конце мая.
Подробности по блокам
Инструменты и API
Machinelearning разбирает свежий гайд OpenAI по промптингу GPT-5.5. Модель стала эффективнее рассуждать, поэтому старые сценарии с пошаговыми инструкциями сужают ей пространство поиска и дают механические ответы. Теперь советуют описывать целевой результат, критерии успеха и ограничения, а путь пусть ищет сама. Жёсткие «ALLWAYS/NEVER» — только для настоящих инвариантов вроде безопасности и обязательных полей вывода. Добавлены понятия retrieval budgets (сколько поисковых вызовов тратить) и preambles — коротких апдейтов для стриминговых интерфейсов, которые сокращают воспринимаемую задержку. Переписывать всё вручную не надо — OpenAI выложила Skill для Codex, который адаптирует промпты одной командой.
По информации Machinelearning, DeepSeek снизила цену кэш-хитов на входе до 10% от прежней по всей линейке API. Теперь всё, что вы повторно прогоняете через модель (системный промпт, инструкции агента, история чата, большой документ), оплачивается по копеечному тарифу. Для агентов и RAG-систем это переворачивает экономику: можно держать жирный контекст, не считая каждый токен, и при этом ещё действует скидка 75% на V4-Pro.
Исследования и интерпретируемость
gonzo-обзоры ML статей рассказывают о гипотезе линейных центроидов (Linear Centroids Hypothesis). Вместо привычного анализа активаций как направлений в латентном пространстве авторы предлагают искать признаки нейросети, опираясь на геометрию того, как модель преобразует вход. Вычисляя «центроиды» через якобиан входа-выхода, метод находит более чистые словари фичей, почти не подвержен паразитным (spurious) корреляциям. Для практиков это drop-in замена латентным активациям: резко повышается устойчивость линейных проб на out-of-distribution данных и естественно связываются фичи с функциональными схемами на разных слоях.
AI в разработке
Тимур Хахалев про AI Coding обращает внимание на синдром разработчика, ставшего лидом: AI уже справляется с деталями, а человек продолжает копаться в запятых, вместо того чтобы мыслить на уровне архитектуры.
В соседнем посте он разбирает типичную жалобу на невозможность быстро разобраться в AI-коде при продакшен-баге. Решение — не лезть в исходники по старой памяти, а скормить AI-агенту все свидетельства ошибки и дать пять минут на анализ. Системный подход требует хотя бы оглавления проекта (table of contents) в удобном для агента виде, чтобы тот ориентировался по коду. Современные модели уже умеют находить баги или спорные решения, если дать достаточно контекста.
AI для творчества
e/acc и AI Mindset запускают лабораторию x26 — четырёхнедельный интенсив по созданию AI-инструментов в четырёх модальностях: текст, визуал, звук, код. 11 спикеров, практика с первого дня и публичный demo-день 25 мая. Участники собирают инструмент «которого до тебя не было» — от персонального контент-графа до агентно-музыкальных workflow. Старт завтра (28.04.2026), 27 апреля; подробная программа на сайте.