→ Подводные камни
LLM не понимают бизнес-контекст
LLM может предложить структуру под «купальники» зимой
Или не учтет, что у клиента нет определенных брендов
Проблема: Модель не знает специфику ниши, ассортимент, сезонность.
Решение: Ручная проходка 5−10% результата + корректировка промптов под нишу.
Промпты нужно дорабатывать под каждый проект
В ювелирке: «кольцо с топазом» → категория «Кольца», не «Украшения с топазом»
В одежде: «пуховик красный» → тег, не категория
Проблема: Универсального промпта нет. Каждая ниша имеет особенности.
Решение: Итеративная доработка промптов с проверкой на эталоне.
Качество LLM — максимум 95%
5−10% результата нужно проверять и править руками
Полностью доверять нельзя
Реальность: Даже лучшая модель (DeepSeek, 8/10) делает ошибки.
Решение: Гибридный подход = 90−95% ИИ + 5−10% человек.
Проблема: Сбои API убивают весь процесс.
Выбирать стабильные модели (Gemini, Claude, DeepSeek)
Логировать все запросы для восстановления
Кластеризация — слабое место LLM
Проблема: LLM пока плохо справляются с кластеризацией запросов.
Решение: Используем проверенные сервисы (Key Collector, Rush Analytics).
Разные задачи = разные модели
Чистка СЯ: Gemini Flash 2 (скорость + цена)
Структура: DeepSeek V3.1 (точность)
H1: Gemini 2.5 Flash (скорость + качество)
Типизация: DeepSeek V3.1 (точность)
Ошибка: Использовать одну модель для всех задач.
Решение: Выбирать модель под задачу, а не использовать одну для всего.
Подводные камни и где все еще нужны руки