Вдруг завтра уже наступило, а я не заметил
наступило уж хз когда. Просто есть 2 вида пользователей LLM'ок:
Кто задаёт странный one-shot вопрос с неподходящим контекстом, а то и без него и пытается получить из него ответ. Туда-сюда копи-пастит, получает кучу галлюцинаций, кривого нерабочего кода, бомбит, что нейросети ваши только котиков рисовать и сидит злой, смотрит, как другие за день месячные задачи закрывают.
А есть второй вид, который берёт нормальный инструмент (Cursor, Refact, Windsurf, RooCode, Cline),
изучает его и пользуется. Да, надо
потратить время на изучение! Изучить prompt engineering, обмазаться инструкциями к проекту, системными промптами, подкинуть документацию, context7, подключить MCP, RAG, разобраться, как пользоваться агентом, воткнуть кастомный режим типа memory bank, поставить улучшайзер промптов типа supercode.sh, мультиагента типа Roo Commander. И кодинг одной кнопкой левой пяткой станет реальностью.
Но есть проблема. Всё это
нужно изучать. LLM'ки развиваются такими темпами сейчас, что пока ты ищешь какой плагин поставить, выходят ещё несколько. Громадное количество времени нужно тратить на это всё. 1-2 часа в день приходится уделять, чтобы быть в курсе всех сумасшедших темпов развития и изменений.
В идеале, чтобы ИИ понимал, что такое структура проекта
Это не в идеале, это чуть ли не
единственный рабочий вариант. LLM это языковая модель, token predictor. Она ничего больше не умеет, кроме как предсказывать следующий токен(букву, слово, строку, и т. п.). Без контекста проекта ему нечего предсказывать, грубо говоря. Это рулетка рандомная получится, если не давать ей контекст.
Я знаю, что я слишком многого хочу
То, что ты хочешь, LLMки уже умели года 3 назад. Главное написать правильный prompt.
однозначно твоя задача красиво не решается, а еще она очень специфическая, онозначно нужно разрабатывать ИИ агентов под это дело
уже давно всё разработано, надо просто изучить, как это работает. Ничего специфического в задаче нет. Люди успешно портируют LLMками софт с языков, которые никогда в публичном доступе не были и использовались для 1-2 проектов в дремучих 70-х годах, а вы говорите, что задача описать, как работает код на современном языке, специфическая? Более чем тривиальная.
LLMки при грамотном использовании могут сейчас буквально всё, что можно придумать: пишут код, тесты, прогоняют эти тесты, смотрят на линтеры, исправляют ворнинги, отлаживают сами код, закрывают задачи на трекерах, делают запросы в базу, решают теоремы используя солверы и всякие Wolfram'ы, даже реверс-инженерят бинарники без исходников! Объяснить, как работает функция — это не запрос, это ничто.
а потом ещё расписыет, что и зачем он сделал
Для этого системные промпты придумали. Там можно попросить
не расписывать, и он перестанет это делать. Можно попросить любой формат и стиль кода, комментов, архитектуры. Но надо же изучать, время тратить, да?
Для чег ои хочу приемлемый плагин сразу поставиь, чтобы тратить время только на полезное
Так не работает. Для крутого результата надо 8-10 инструментов поставить, изучить их, связать для работы вместе. Это тупо конструктор, один плагин не даст никакого результата.
Постоянно — ассоциация с людьми, которые говорят, что ЛЛМки не работают:
когда купил себе рабочую станцию под 10к баксов, а всё, что на ней делаешь, это почту проверяешь, погоду, рецепты ищешь, в одноклассниках сидишь. Написать в чат без контекста и ждать, что он ответит как нужно это из пушки по воробьям, а не нормальное использование громадных возможностей.
Или другая аналогия: установил блокнот и пытаешься там код скомпилировать, автодополнение получить, тип переменной узнать. Так это же блокнот, он просто чтобы текст писать и читать, для остального нужно поставить компилятор, настроить, узнать какие флаги передать. Отдельно настроить автодополнение, понимать, что есть разные его типы: можно по токенам показывать, можно семантически полностью разбирать. Зависит от настроек и от того, как читалась документация (и читалась ли вообще).
Нет пока что варианта "установить одной кнопкой и всё завайбкодится". Нужно очень много приложить усилий, но они окупятся.
Локальная LLMка не нужна, если у тебя не супер-секретные данные, которые ни в коем случае нельзя светить, иначе смерть. Железка, которая потянет это всё на уровне сервиса за 20 баксов, будет стоить под десятку зелени. Если у тебя не госразработка, ядерные исследования и прочие чувствительные данные, нет никакого смысла ставить локальную молотилку за громадные деньги, заплати 20 баксов за Курсор и ещё 20 за ChatGPT/Claude для research-режимов и это покроет 90% задач.
Повторюсь: возьми
нормальный проверенный топовый инструмент, а не говно-плагины неизвестные. Изучи этот инструмент хотя бы наполовину. Изучи какие есть ещё вспомогательные для него. Изучи так же, поставь, чтобы один помогал другому. И так со временем обмазывайся ими. И продуктивность возрастёт в десятки раз!