Статья цикла «Базовый минимум» про то, как формулировать запросы к большим языковым моделям.
Цель и суть
Цель и суть
Промпт — это короткое техническое задание для модели. Вы явно задаёте, что нужно сделать, в каком виде вернуть результат и на что опереться. Чем точнее «ТЗ», тем меньше догадок остаётся на стороне LLM.
- Качество ответа. Хорошая формулировка снижает размытость и повышает полезность текста, кода или структуры данных.
- Предсказуемость. Фиксированный формат (списки, JSON, шаблон абзаца) и чёткие ограничения делают вывод воспроизводимым от запроса к запросу.
- Сборка из блоков. Имеет смысл собирать промпт как мини-спецификацию: роль, контекст, задача, формат ответа, примеры (если нужны), критерии успеха.
Zero-shot промптинг
Zero-shot промптинг
Задача ставится без примеров входа и выхода. Модель опирается на знания и паттерны из предобучения и на вашу инструкцию в текущем запросе.
- Подходит для простых и однозначных задач, когда формат ответа очевиден или задан одной фразой.
- Пример: классификация тональности текста («определи настроение: позитив / нейтрал / негатив») без показа размеченных примеров.
Если zero-shot «плывёт», обычно помогают few-shot примеры или явное пошаговое рассуждение (CoT).
Few-shot промптинг
Few-shot промптинг
Контекстное обучение (in-context learning): в запрос включаются один или несколько пар «вход → эталонный выход», чтобы модель уловила стиль, поля и ограничения.
- Особенно полезно, когда нужен строгий или нестандартный формат — таблица, JSON с фиксированными ключами, шаблон отчёта.
- Примеры задают «контракт» на ответ: меньше отклонений и произвольных интерпретаций.
Важно не перегружать контекст: оставляйте релевантные, типичные примеры и следите за длиной окна.
Chain-of-Thought (CoT)
Chain-of-Thought (CoT)
Цепочка рассуждений: модель сначала выводит промежуточные шаги, затем итог. Так стабильнее получаются логика, подсчёты и многошаговые задачи.
- Few-shot CoT: в примерах показываете не только ответ, но и ход решения — модель повторяет паттерн рассуждения.
- Zero-shot CoT: достаточно формулировки вроде «рассуждай шаг за шагом» / «сначала объясни ход мыслей, затем дай ответ».
- Uncertainty-Routed CoT: идея развести несколько линий рассуждения или проверить альтернативы, когда задача двусмысленная — затем сравнить или выбрать обоснованный итог.
CoT увеличивает длину ответа и время; для простых задач иногда достаточно короткой инструкции без рассуждений.
Источники промптов
Источники промптов
- Вы задаёте цель. Базовый источник — ваша формулировка задачи, аудитории и критериев качества.
- Генерация через LLM. Можно попросить модель предложить структурированный промпт под задачу (роль, шаги, формат), а затем отредактировать вручную.
- Обратный инжиниринг. По желаемому результату (или по удачному ответу) восстанавливают и уточняют формулировку запроса — что именно в нём сработало.
На практике часто комбинируют: черновик от модели + ваши ограничения + итерация по реальным ответам.
Ролевой промптинг
Ролевой промптинг
Явно задаётся роль и перспектива: «ты — редактор», «экономист для неспециалистов», «юморист в стиле …». Так проще получить нужный тон, глубину и уровень детализации.
- Особенно помогает на открытых задачах: объяснения, креатив, советы, когда нет одного «правильного» формата.
- Примеры ролей: публичный спикер, эксперт по домену, комик, методист — от роли зависят лексика, структура и смелость формулировок.
Роль дополняет, но не заменяет чёткую задачу и ограничения; «ты эксперт» без контекста даёт меньше, чем эксперт с указанием цели и формата.
Step-back промптинг
Step-back промптинг
Вариация идеи CoT: сначала отходите на шаг «назад» — вспоминаете общие принципы, определения или типовой метод, потом применяете их к конкретному кейсу.
- Сначала наводящие или уточняющие вопросы: какие закономерности и понятия релевантны задаче?
- Затем перенос на ваш частный случай: данные, ограничения, желаемый вывод.
Хорошо работает там, где ошибка часто в том, что модель «прыгает» к ответу, минуя нужную опору на базовые правила предметной области.
