Как скормить весь проект нейросети (grok, chatgpt, deepseek) чтобы она понимала в нём и чтоб можно было просить ее доработать что -то?
Активно использую LLM (такие как ChatGPT, Claude) в качестве помощника в разработке. Однако столкнулся с фундаментальным ограничением: как эффективно познакомить модель с кодом большого проекта, превышающего лимит контекста одного окна?
Проблема:
Прямая загрузка множества файлов невозможна из-за ограничений интерфейса.
Загрузка ZIP-архивов не поддерживается.
Прямые ссылки на GitHub-репозитории часто не работают (модель не может или не хочет их парсить).
Мое текущее решение:
Я написал скрипт, который рекурсивно обходит директорию проекта и генерирует один текстовый файл следующего формата:
text
// Файл: /src/main.py
<содержимое main.py>
// ====================
// Файл: /src/utils/helper.py
<содержимое helper.py>
// ====================
...
Это "худо-бедно" работает, но является костылем, неудобным для обновления и навигации.
Мой вопрос:
Какие существуют альтернативные и более производительные подходы к этой задаче?
Есть ли специализированные тулзы (например, tree, ripgrep в комбинации с промптами) для этого?
Используете ли вы какие-то сторонние инструменты или плагины, которые помогают упаковывать проект в "контекстный пакет" для LLM?
Существуют ли лучшие практики по структурированию такого "дампа" проекта, чтобы модель понимала его лучше?
А зачем?
Нейронка - ваш помощник решения частных проблем.
Если вы запихнете весь контекст задачи в нейронку (если это возможно), то вы распылите внимание, и не получите конкретного решения.
Еще вы не объясните никогда нейронке, что при добавлении нового пункта ТЗ не нужно переписывать весь код, а нужно выработать такое решение, чтобы в проекте были минимальные изменения. Чтобы вы в git-е четко могли отследить эволюцию проекта.
alexalexes, понимаю ваши предостережения. в данном случае мне так нужно. именно пакет был создан для решения определенной задачи и очень удоблно когда нейронка полностью его в себе вмещает, поскольку с ней в этом случае легко разговаривать о мелких доработках конкретного алгоритма и в ходе дальнейших диалогов с ней может возникнуть ситуация, что должна поменяться структура БД и нейронка с большим желанием переделает все модули включая доку на лету. конечно потом еще много остается работы самому разработчику но как бы экономия нескольких дней. Они прям очень круто эволюционировали. А ищу способ запихнуть в неё даже весь проект чтобы она на выходе дала улучшенный.
Слава, папку проекта ему скармливаешь, и говоришь где чё править \ искать итд
то что в браузерах эт для вопросов, оно не подходит для интеграции с кодом
Сам я этим не пользовался, так как я считаю отдавать полные бразды управления проектом текущему ИИ опрометчиво (а ещё достаточно дорого), но никто не мешает пользоваться этими инструментами как помощник.
Если попросить perplexity поискать существующие решения (с возможностью локального запуска и даже указанием локальной модели) то он выдает список:
aider, cline, continue, claude code, dify, flowise... https://www.perplexity.ai/search/proekt-po-lokalno...