- Что такое LLM: как они работают и где применяются?
- Разница между моделями - в чём отличия, когда что использовать
- Что такое промптинг: управление моделью через ввод?
- Виды промптов: системный, пользовательский, zero-shot, few-shot, chain-of-thought
- Как задать поведение модели: стиль, формат ответа, ограничения?
- Как использовать LLM для генерации, классификации, извлечения и трансформации данных?
- Логика prompt engineering: как структурировать, тестировать и улучшать промпты
- Практика работы с OpenAI API и библиотекой openai в Python
- Лимиты токенов, стоимость, оптимизация запросов
После прохождения модуля ты:– Понимаешь принципы работы языковых моделей и различия между ними
– Умеешь задавать точное поведение модели с помощью системного и пользовательского промпта
– Получаешь навык управления генерацией: текст, структура, стиль, формат
– Можешь использовать LLM в задачах генерации, классификации, извлечения данных
– Понимаешь ограничения моделей, стоимость и умеет оптимизировать работу через API