Как String Seed of Thought заставляет LLM делать то, о чём они говорят

LLM могут подробно объяснить случайность, но не могут её воспроизвести — пока не появился String Seed of Thought (SSoT). Эта техника заставляет модели не просто описывать вероятности, а *выполнять* их, используя строгие правила происхождения. Однако её сила кроется в хрупкости: одно нарушение прото…

Как String Seed of Thought заставляет LLM делать то, о чём они говорят

LLM не умеет в случайность. Он может расписать целый трактат о честном подбрасывании монетки, но если попросить его реально подбросить монетку пять раз и выдать распределение 50/50, он ошибётся — не потому, что не знает, что такое честная монетка, а потому, что не умеет делать то, о чём говорит. В эксперименте DeepSeek-R1 без дополнительных инструкций даёт распределение 64/36 в пользу одного из исходов. Когда к промпту добавляют String Seed of Thought, отклонение от идеальной случайности (PRNG) падает почти до нуля: JS-дивергенция снижается с ~12 до ~3.

Здесь нет чуда. Модель не стала «умнее». Она просто начала выполнять то, что раньше только описывала. В основе SSoT лежит простая идея: дать модели строку-сид и чёткую инструкцию преобразовать его в число, а затем использовать это число для выбора следующего токена по заранее оговорённому правилу. Модель сама придумывает, как это сделать. В одном случае она суммирует ASCII-коды случайной строки, берёт остаток от деления на 2 и выводит «Решка», если 0, и «Орёл», если 1. В другом нарезает сид на трёхсимвольные блоки, конвертирует в целые числа и использует их для выбора хода в «Камень-Ножницы-Бумага». Результаты воспроизводимы: при одинаковом сиде исходы всегда совпадают.

Но именно эта кажущаяся простота — и есть ловушка. Потому что SSoT работает только если строго соблюдать протокол происхождения. Каждый выбор должен быть зафиксирован в provenance-блоке: сид, оси (например, «стиль речи» или «тема метафоры»), номера выбранных вариантов и арифметика преобразований. Пропустите provenance или вручную переопределите выбор — даже из «творческих соображений» — и результат снова превратится в типичный для LLM коллапс в повторяемость.


Команда разработчиков контента для ролевой игры решила сгенерировать диалоги NPC с помощью SSoT. Промпт включил сид, provenance-блок зафиксировал выбор «стиля речи» как «заметки очевидца» и «темы метафоры» как «медицина». Половина текста была уже сгенерирована, когда ведущий сценарист переопределил финальную структуру диалога, выбрав «тезис в заголовке» вместо протокольных «трёх коротких фраз». На следующий день команда заметила: диалог выглядит вымученным, метафора не стыкуется с началом, и атмосфера сцена разбита.

Восстановление потребовало перезапуска с новым сидом, блокировки provenance и повторной валидации — день потерянного времени. История не про «плохую модель», а про то, что SSoT — это не промпт-настройка, а протокол. Его сила — в строгости, а слабость — в хрупкости. Стоит один раз решить, что «творческая свобода» важнее происхождения, и система снова рассыпается в типичный для LLM коллапс.


Техника не для всех задач. В детерминированных сценариях — код, математика, структурированные ответы — она только мешает. Авторы прямо предупреждают: не используйте SSoT, если нужен однозначный результат. Зато в задачах, где нужна разнообразность при сохранении контроля, она работает. На NoveltyBench — бенчмарке для оценки оригинальности в творческих текстах — SSoT увеличивает разнообразие без потери качества. Или в симуляции поведения: когда LLM играет в «Камень-Ножницы-Бумага» против эксплуатирующих ботов, смешанная стратегия, полученная через SSoT, удерживает средний счёт около нуля, в то время как базовые промпты всё ещё показывают предсказуемые паттерны.

То есть SSoT не делает модель умнее. Она делает её предсказуемо случайной — и этого достаточно, чтобы закрыть два системных провала современных LLM: неспособность следовать заданным вероятностям и склонность к коллапсу в повторяемость.


SSoT — не революция. Это дешёвый костыль, который чинит то, что и так должно было работать. Зато он работает сейчас, без fine-tuning, без внешних инструментов, без изменения температуры. Если ваша задача — сгенерировать сто вариантов диалога NPC с гарантией разнообразия, а не идеальный пересказ «Властелина колец», попробуйте. Только не забудьте provenance-блок. Без него это не SSoT. Это просто LLM, который снова врёт про случайность.

Read more

SpaceX завершает GPS III: как США остались без альтернативы

SpaceX завершает GPS III: как США остались без альтернативы

Последний спутник GPS III-10 успешно вышел на орбиту на Falcon 9, завершив обновление навигационной группировки США. Но за этим успехом скрывается тревожный факт: теперь все критические запуски зависят от одной компании. Vulcan ULA и New Glenn Blue Origin отстают, а SpaceX уже готовит переход к Sta…

Кто получит квартиру в центре? Илон Маск и парадокс изобилия

Кто получит квартиру в центре? Илон Маск и парадокс изобилия

Илон Маск обещает, что искусственный интеллект устранит бедность, но не объясняет, как будут распределяться дефицитные блага. Если у всех будет миллиард долларов, кто решит, кому достанется жильё класса люкс? И почему его собственные компании автоматизируют производство, не давая людям доступа к по…

Почему Linux проигрывает на десктопах: не из-за кода, а из-за элементарной сложности

Почему Linux проигрывает на десктопах: не из-за кода, а из-за элементарной сложности

Linux превосходит Windows по безопасности и стабильности, но остаётся на 2% рынка десктопов. Проблема не в технических показателях, а в том, что система требует от пользователя знаний администратора, а не просто работает. От флешек до драйверов — почему простота побеждает идеологию?