Featured image of post Базовый минимум про ИИ – промпт-инжиниринг

Базовый минимум про ИИ – промпт-инжиниринг

Промпт-инжиниринг: цель и суть, zero-shot и few-shot, chain-of-thought, роли, step-back, источники хороших промптов

Статья цикла «Базовый минимум» про то, как формулировать запросы к большим языковым моделям.

Цель и суть

Цель и суть

Промпт — это короткое техническое задание для модели. Вы явно задаёте, что нужно сделать, в каком виде вернуть результат и на что опереться. Чем точнее «ТЗ», тем меньше догадок остаётся на стороне LLM.

  • Качество ответа. Хорошая формулировка снижает размытость и повышает полезность текста, кода или структуры данных.
  • Предсказуемость. Фиксированный формат (списки, JSON, шаблон абзаца) и чёткие ограничения делают вывод воспроизводимым от запроса к запросу.
  • Сборка из блоков. Имеет смысл собирать промпт как мини-спецификацию: роль, контекст, задача, формат ответа, примеры (если нужны), критерии успеха.

Zero-shot промптинг

Zero-shot промптинг

Задача ставится без примеров входа и выхода. Модель опирается на знания и паттерны из предобучения и на вашу инструкцию в текущем запросе.

  • Подходит для простых и однозначных задач, когда формат ответа очевиден или задан одной фразой.
  • Пример: классификация тональности текста («определи настроение: позитив / нейтрал / негатив») без показа размеченных примеров.

Если zero-shot «плывёт», обычно помогают few-shot примеры или явное пошаговое рассуждение (CoT).

Few-shot промптинг

Few-shot промптинг

Контекстное обучение (in-context learning): в запрос включаются один или несколько пар «вход → эталонный выход», чтобы модель уловила стиль, поля и ограничения.

  • Особенно полезно, когда нужен строгий или нестандартный формат — таблица, JSON с фиксированными ключами, шаблон отчёта.
  • Примеры задают «контракт» на ответ: меньше отклонений и произвольных интерпретаций.

Важно не перегружать контекст: оставляйте релевантные, типичные примеры и следите за длиной окна.

Chain-of-Thought (CoT)

Chain-of-Thought (CoT)

Цепочка рассуждений: модель сначала выводит промежуточные шаги, затем итог. Так стабильнее получаются логика, подсчёты и многошаговые задачи.

  • Few-shot CoT: в примерах показываете не только ответ, но и ход решения — модель повторяет паттерн рассуждения.
  • Zero-shot CoT: достаточно формулировки вроде «рассуждай шаг за шагом» / «сначала объясни ход мыслей, затем дай ответ».
  • Uncertainty-Routed CoT: идея развести несколько линий рассуждения или проверить альтернативы, когда задача двусмысленная — затем сравнить или выбрать обоснованный итог.

CoT увеличивает длину ответа и время; для простых задач иногда достаточно короткой инструкции без рассуждений.

Источники промптов

Источники промптов
  • Вы задаёте цель. Базовый источник — ваша формулировка задачи, аудитории и критериев качества.
  • Генерация через LLM. Можно попросить модель предложить структурированный промпт под задачу (роль, шаги, формат), а затем отредактировать вручную.
  • Обратный инжиниринг. По желаемому результату (или по удачному ответу) восстанавливают и уточняют формулировку запроса — что именно в нём сработало.

На практике часто комбинируют: черновик от модели + ваши ограничения + итерация по реальным ответам.

Ролевой промптинг

Ролевой промптинг

Явно задаётся роль и перспектива: «ты — редактор», «экономист для неспециалистов», «юморист в стиле …». Так проще получить нужный тон, глубину и уровень детализации.

  • Особенно помогает на открытых задачах: объяснения, креатив, советы, когда нет одного «правильного» формата.
  • Примеры ролей: публичный спикер, эксперт по домену, комик, методист — от роли зависят лексика, структура и смелость формулировок.

Роль дополняет, но не заменяет чёткую задачу и ограничения; «ты эксперт» без контекста даёт меньше, чем эксперт с указанием цели и формата.

Step-back промптинг

Step-back промптинг

Вариация идеи CoT: сначала отходите на шаг «назад» — вспоминаете общие принципы, определения или типовой метод, потом применяете их к конкретному кейсу.

  • Сначала наводящие или уточняющие вопросы: какие закономерности и понятия релевантны задаче?
  • Затем перенос на ваш частный случай: данные, ограничения, желаемый вывод.

Хорошо работает там, где ошибка часто в том, что модель «прыгает» к ответу, минуя нужную опору на базовые правила предметной области.

Создано при помощи Hugo
Тема Stack, дизайн Jimmy