Как String Seed of Thought заставляет LLM делать то, о чём они говорят
LLM могут подробно объяснить случайность, но не могут её воспроизвести — пока не появился String Seed of Thought (SSoT). Эта техника заставляет модели не просто описывать вероятности, а *выполнять* их, используя строгие правила происхождения. Однако её сила кроется в хрупкости: одно нарушение прото…
LLM не умеет в случайность. Он может расписать целый трактат о честном подбрасывании монетки, но если попросить его реально подбросить монетку пять раз и выдать распределение 50/50, он ошибётся — не потому, что не знает, что такое честная монетка, а потому, что не умеет делать то, о чём говорит. В эксперименте DeepSeek-R1 без дополнительных инструкций даёт распределение 64/36 в пользу одного из исходов. Когда к промпту добавляют String Seed of Thought, отклонение от идеальной случайности (PRNG) падает почти до нуля: JS-дивергенция снижается с ~12 до ~3.
Здесь нет чуда. Модель не стала «умнее». Она просто начала выполнять то, что раньше только описывала. В основе SSoT лежит простая идея: дать модели строку-сид и чёткую инструкцию преобразовать его в число, а затем использовать это число для выбора следующего токена по заранее оговорённому правилу. Модель сама придумывает, как это сделать. В одном случае она суммирует ASCII-коды случайной строки, берёт остаток от деления на 2 и выводит «Решка», если 0, и «Орёл», если 1. В другом нарезает сид на трёхсимвольные блоки, конвертирует в целые числа и использует их для выбора хода в «Камень-Ножницы-Бумага». Результаты воспроизводимы: при одинаковом сиде исходы всегда совпадают.
Но именно эта кажущаяся простота — и есть ловушка. Потому что SSoT работает только если строго соблюдать протокол происхождения. Каждый выбор должен быть зафиксирован в provenance-блоке: сид, оси (например, «стиль речи» или «тема метафоры»), номера выбранных вариантов и арифметика преобразований. Пропустите provenance или вручную переопределите выбор — даже из «творческих соображений» — и результат снова превратится в типичный для LLM коллапс в повторяемость.
Команда разработчиков контента для ролевой игры решила сгенерировать диалоги NPC с помощью SSoT. Промпт включил сид, provenance-блок зафиксировал выбор «стиля речи» как «заметки очевидца» и «темы метафоры» как «медицина». Половина текста была уже сгенерирована, когда ведущий сценарист переопределил финальную структуру диалога, выбрав «тезис в заголовке» вместо протокольных «трёх коротких фраз». На следующий день команда заметила: диалог выглядит вымученным, метафора не стыкуется с началом, и атмосфера сцена разбита.
Восстановление потребовало перезапуска с новым сидом, блокировки provenance и повторной валидации — день потерянного времени. История не про «плохую модель», а про то, что SSoT — это не промпт-настройка, а протокол. Его сила — в строгости, а слабость — в хрупкости. Стоит один раз решить, что «творческая свобода» важнее происхождения, и система снова рассыпается в типичный для LLM коллапс.
Техника не для всех задач. В детерминированных сценариях — код, математика, структурированные ответы — она только мешает. Авторы прямо предупреждают: не используйте SSoT, если нужен однозначный результат. Зато в задачах, где нужна разнообразность при сохранении контроля, она работает. На NoveltyBench — бенчмарке для оценки оригинальности в творческих текстах — SSoT увеличивает разнообразие без потери качества. Или в симуляции поведения: когда LLM играет в «Камень-Ножницы-Бумага» против эксплуатирующих ботов, смешанная стратегия, полученная через SSoT, удерживает средний счёт около нуля, в то время как базовые промпты всё ещё показывают предсказуемые паттерны.
То есть SSoT не делает модель умнее. Она делает её предсказуемо случайной — и этого достаточно, чтобы закрыть два системных провала современных LLM: неспособность следовать заданным вероятностям и склонность к коллапсу в повторяемость.
SSoT — не революция. Это дешёвый костыль, который чинит то, что и так должно было работать. Зато он работает сейчас, без fine-tuning, без внешних инструментов, без изменения температуры. Если ваша задача — сгенерировать сто вариантов диалога NPC с гарантией разнообразия, а не идеальный пересказ «Властелина колец», попробуйте. Только не забудьте provenance-блок. Без него это не SSoT. Это просто LLM, который снова врёт про случайность.