Все сейчас пишут в нейросетях, но мой подход не совсем чистый "вайбкодинг", так как я использую главную страницу DeepSeek.
Например, я прошу: "Напиши такую-то функцию..."
Затем анализирую результат. Допустим, нужно распарсить JSON, выбрать определённые данные, обработать их (фильтрация, сортировка, обрезка и т.д.).
DeepSeek пишет действительно качественно — если бы я писал код сам, он не был бы так хорошо структурирован: всё декларативно, с комментариями, пояснениями изменений и итоговым резюме.
Потом я вношу правки: добиться всех нюансов с первого запроса невозможно, а переспрашивать нет смысла — правки обычно косметические. Дорабатываю и снова даю задание: "Допиши то-то", "Сделай вывод в таком-то формате..."
И так до готовности.
Если проект большой — разбиваем на отдельные функции. Чётко указываем:
что на входе,
что на выходе,
можно дать примеры данных (но не перегружать, иначе "захлебнётся").
Контекст должен быть компактным. Как с хорошим программистом: тестируем на реальных данных, проверяем и добавляем следующий функционал.
О скорости и альтернативах:
DeepSeek — медленный. Да, другие модели (например, Llama 3, OpenAI) работают в разы быстрее, а Claude тоже догоняет.
Аутсайдеры, на мой взгляд:
Gemini — слишком тормозной,
Grok — жадный до токенов (хотя и решает задачи хорошо).
Данный текст написан мной лично, но обработан нейронкой что бы убрать ошибки и отформатировать.. гениальная хренота.