Задать вопрос
  • Порекомендуйте плагин для интеграции ИИ в MSVC?

    TrueBers
    @TrueBers
    Гуглю за еду
    Вдруг завтра уже наступило, а я не заметил
    наступило уж хз когда. Просто есть 2 вида пользователей LLM'ок:
    Кто задаёт странный one-shot вопрос с неподходящим контекстом, а то и без него и пытается получить из него ответ. Туда-сюда копи-пастит, получает кучу галлюцинаций, кривого нерабочего кода, бомбит, что нейросети ваши только котиков рисовать и сидит злой, смотрит, как другие за день месячные задачи закрывают.

    А есть второй вид, который берёт нормальный инструмент (Cursor, Refact, Windsurf, RooCode, Cline), изучает его и пользуется. Да, надо потратить время на изучение! Изучить prompt engineering, обмазаться инструкциями к проекту, системными промптами, подкинуть документацию, context7, подключить MCP, RAG, разобраться, как пользоваться агентом, воткнуть кастомный режим типа memory bank, поставить улучшайзер промптов типа supercode.sh, мультиагента типа Roo Commander. И кодинг одной кнопкой левой пяткой станет реальностью.

    Но есть проблема. Всё это нужно изучать. LLM'ки развиваются такими темпами сейчас, что пока ты ищешь какой плагин поставить, выходят ещё несколько. Громадное количество времени нужно тратить на это всё. 1-2 часа в день приходится уделять, чтобы быть в курсе всех сумасшедших темпов развития и изменений.

    В идеале, чтобы ИИ понимал, что такое структура проекта
    Это не в идеале, это чуть ли не единственный рабочий вариант. LLM это языковая модель, token predictor. Она ничего больше не умеет, кроме как предсказывать следующий токен(букву, слово, строку, и т. п.). Без контекста проекта ему нечего предсказывать, грубо говоря. Это рулетка рандомная получится, если не давать ей контекст.

    Я знаю, что я слишком многого хочу
    То, что ты хочешь, LLMки уже умели года 3 назад. Главное написать правильный prompt.

    однозначно твоя задача красиво не решается, а еще она очень специфическая, онозначно нужно разрабатывать ИИ агентов под это дело
    уже давно всё разработано, надо просто изучить, как это работает. Ничего специфического в задаче нет. Люди успешно портируют LLMками софт с языков, которые никогда в публичном доступе не были и использовались для 1-2 проектов в дремучих 70-х годах, а вы говорите, что задача описать, как работает код на современном языке, специфическая? Более чем тривиальная.
    LLMки при грамотном использовании могут сейчас буквально всё, что можно придумать: пишут код, тесты, прогоняют эти тесты, смотрят на линтеры, исправляют ворнинги, отлаживают сами код, закрывают задачи на трекерах, делают запросы в базу, решают теоремы используя солверы и всякие Wolfram'ы, даже реверс-инженерят бинарники без исходников! Объяснить, как работает функция — это не запрос, это ничто.

    а потом ещё расписыет, что и зачем он сделал
    Для этого системные промпты придумали. Там можно попросить не расписывать, и он перестанет это делать. Можно попросить любой формат и стиль кода, комментов, архитектуры. Но надо же изучать, время тратить, да?

    Для чег ои хочу приемлемый плагин сразу поставиь, чтобы тратить время только на полезное
    Так не работает. Для крутого результата надо 8-10 инструментов поставить, изучить их, связать для работы вместе. Это тупо конструктор, один плагин не даст никакого результата.

    Постоянно — ассоциация с людьми, которые говорят, что ЛЛМки не работают:
    когда купил себе рабочую станцию под 10к баксов, а всё, что на ней делаешь, это почту проверяешь, погоду, рецепты ищешь, в одноклассниках сидишь. Написать в чат без контекста и ждать, что он ответит как нужно это из пушки по воробьям, а не нормальное использование громадных возможностей.
    Или другая аналогия: установил блокнот и пытаешься там код скомпилировать, автодополнение получить, тип переменной узнать. Так это же блокнот, он просто чтобы текст писать и читать, для остального нужно поставить компилятор, настроить, узнать какие флаги передать. Отдельно настроить автодополнение, понимать, что есть разные его типы: можно по токенам показывать, можно семантически полностью разбирать. Зависит от настроек и от того, как читалась документация (и читалась ли вообще).
    Нет пока что варианта "установить одной кнопкой и всё завайбкодится". Нужно очень много приложить усилий, но они окупятся.

    Локальная LLMка не нужна, если у тебя не супер-секретные данные, которые ни в коем случае нельзя светить, иначе смерть. Железка, которая потянет это всё на уровне сервиса за 20 баксов, будет стоить под десятку зелени. Если у тебя не госразработка, ядерные исследования и прочие чувствительные данные, нет никакого смысла ставить локальную молотилку за громадные деньги, заплати 20 баксов за Курсор и ещё 20 за ChatGPT/Claude для research-режимов и это покроет 90% задач.

    Повторюсь: возьми нормальный проверенный топовый инструмент, а не говно-плагины неизвестные. Изучи этот инструмент хотя бы наполовину. Изучи какие есть ещё вспомогательные для него. Изучи так же, поставь, чтобы один помогал другому. И так со временем обмазывайся ими. И продуктивность возрастёт в десятки раз!
    Ответ написан
  • Vpn и бот на одном vps сервере одновременно?

    CityCat4
    @CityCat4
    Дома с переломом ноги
    Могу так сделать и если да, то как?

    Конечно. Ищем мануалы по тому дистрибу, который выбрали, читаем, пробуем. Если что-то не получается - пишем, что пробовали и что получилось.
    Ответ написан
    Комментировать
  • Зачем делать прокси на pm2?

    @hello_my_name_is_dany
    Backend Developer (Node.js, PHP, C#)
    Всё довольно просто. NGINX - это веб-сервер, а PM2 - менеджер процессов Node.js.
    NGINX умеет работать с доменами, поддоменами, умеет делать маршрутизацию определённых роутов к определённым сервисам, в него легко добавить сертификаты SSL/TLS для HTTPS/HTTP2. PM2 ничего этого не умеет, потому что он не является веб-сервером, он буквально просто управляет процессами Node.js, всё остальное остаётся либо на разработчике, либо на frontend-сервере (напр. NGINX). Если не использовать NGINX или другой frontend-сервер, то вам придётся писать работу с доменами, как-то отдавать статику, например, клиентское приложение (HTML, CSS, JS, картинки и тд), подключить сертификаты к node.js приложению, думать, как поддерживать несколько портов (80/443). В конце концов это просто небезопасно, все процессы, которые прослушивают порты до 1000, должны иметь особые привилегии, если в вашем коде найдут дыру, то смогут исполнить любой код с этими самыми привилегиями, что может оказаться очень плачевно. А в схеме с nginx ваши процессы node.js могут быть запущены на более высоких портах (1000+) и запускаться от имени пользователя, у которого минимальные права, и если хакер и найдёт дыру в вашем приложении, полностью захватить сервер не сможет. За дырами в безопасности nginx следят очень многие люди и компании, поэтому их относительно быстро закрывают, а в вашем приложении следите за ними только вы.
    Ответ написан
    Комментировать
  • Какой использовать стек для написания онлайн сервиса управления производством?

    Adamos
    @Adamos
    Человек, задающий такой вопрос, вряд ли сможет написать не то что такую систему, но даже сколько-нибудь вменяемое ТЗ по ней.
    Самописные системы - это сильно отдельная песня от прочих программ. Их разработка практически никогда не заканчивается, просто увеличивается доля поддержки уже существующего кода. Если вы не готовы держать хотя бы одного программиста, который будет в этом вариться, или если у вас высок шанс, что после попадания такого программиста под автобус вам впору будет броситься под него же - лучше и не начинать писать что-то свое.
    Вариант заказать какой-нибудь студии, чтобы она вам написала с нуля, отличается только тем, что под автобус может попасть вся студия.
    Если вы сами не горите энтузиазмом сделать и поддерживать решение под себя - то рассматривайте только готовые решения. Такие, на которых в случае проблем можно написать объявление на полстранички на фрилансе - и найдутся спецы именно по тому, что вы перечислили.

    (а если бы вы горели энтузиазмом - вы бы, скорее всего, не задавали на Тостере такие вопросы...)
    Ответ написан
    Комментировать
  • Актуален ли yii2 в 2025?

    SamDark
    @SamDark
    Yii2 core team
    Актуален. Поддерживается. Нужно искать разработчика не на фреймворке, а просто нормального разработчика. Разобраться с фреймворком нормальный разработчик сможет довольно быстро.

    Сейчас в общем не очень хорошо с рынком труда, сам фреймворк тут не особо влияет.
    Ответ написан
    4 комментария
  • Что делать если клиент не отдает деньги?

    @Drno
    отключи сайт и всё
    Ответ написан
    Комментировать
  • Обьясните в чём суть инкапсуляции?

    Инкапсуляция защищает не от хакеров, а от неправильного использования объектов.
    Как пример - у тебя может быть класс "Заказ" и у него может быть какой-то статус (оплачен/ждёт оплаты/отменён итд).
    При этом у тебя могут быть правила типа: уже оплаченный заказ не может стать вдруг неоплаченным, а отменённый заказ нельзя взять обратно в работу.
    Тогда логично будет сделать поле статуса приватным (не доступным для изменения извне напрямую), а менять его только через методы, где будет происходить вся валидация.
    (В некоторых языках такие правила принято описывать на уровне типов, чтобы даже валидаций никаких было делать не нужно)

    Приватные поля объекта - это его состояние.
    Методы объекта - это способы его использования.

    Если у тебя в объекте появляется поле x и методы getX / setX (или авто геттеры/сеттеры в C#), то значит, что у тебя и нет явных причин делать это поле приватным, кроме соблюдения общепринятых соглашений.
    Ответ написан
    15 комментариев
  • Как привязать домен к серверу nginx?

    У битрикса огромный конфиг nginx-а, он и должен использоваться. Там множество всякого разного
    Ответ написан
    4 комментария
  • Виновен ли я в самописном движке?

    master2016
    @master2016
    Всё нормально.
    Наплюйте. Если при постановке задачи вас не ограничивали каким-либо движком, то претензии вашего заказчика непонятны. Я тоже могу заказать пиццу, а потом капризничать, что мне привезли ее на мотороллере, а не на Бентли.
    Ответ написан
    4 комментария
  • Как сделать Linux более безопасным?

    paran0id
    @paran0id Куратор тега Linux
    Умный, но ленивый
    гуглите "linux hardening"
    Ответ написан
    Комментировать
  • Создал личный сервер в майнкрафт. после закрытия программы Putty, сервер закрывается (я полный ноль, все делал по гайдам), что делать?

    @rPman
    после авторизации в putty нужно запускать screen и уже в нем запускать сервер.
    Что бы подключиться позже к этому screen, нужно запускать его с опцией screen -rd (-d это закрытие уже открытого соединения с screen в другом окне или если оно 'повисло', например если закрыл putty не закрыв screen с помощью кнопок ctrl+a d)
    Ответ написан
    2 комментария
  • Провайдеры связи всегда в курсе всего, что происходит?

    У провайдера стоят как минимум 2 железяки СОРМ и ТСПУ, а как правило еще и свой dpi, кроме того пишутся логи nat и NetFlow, т.ч. да все в том или ином виде, как на ладони... А еще все пишут и операторы мессенджеров и соцсетей, да и операторы VPN, которые не хотят, чтобы их блочили тоже пишут и делятся, tor тоже при должном старании и стремлении разматывается. Всё вам правильно сказали, хотите анонимности - личные встречи а лучше закладки. Но если вам есть чего бояться, значит что-то вы делаете не так.
    Ответ написан
    1 комментарий
  • Архитектура кластера баз данных для географически распределенного проекта?

    Eugene-Usachev
    @Eugene-Usachev
    Если "чат/мессенджер/что-то подобное", будет лежать очень много данных. То есть профили можно сохранить хоть в Postgres + Redis (шардированный по регионам), и иметь вполне себе хорошую производительность. Проблема будет именно с сообщениями.

    Если решать проблему по логике "почему бы не стремиться к 8 млрд пользователей", для профилей можно взять Aerospike или Tarantool. Оба решения имеют возможность шардирования по вторичным ключам, так что их можно разнести по разным регионам. Причём надо именно шардироваться, а не только реплицироваться. Таким образом, можно избежать "узких горлышек". В этом случае оба решения будут выдавать более миллиона запросов в секунду на один кластер с маленькой задержкой (скорее всего двухзначной в медиане) и не иметь единой точки отказа.

    С сообщениями сложнее, так как их будут петабайты. Тут советую не "изобретать велосипед" и взять ScyllaDB, как это сделал Discord. ScyllaDB работает с огромными массивами данных довольно быстро и прекрасно масштабируется. Ради двухзначных чисел задержки в медиане достаточно шардироваться по регионам.

    Выводы очень простые. Если "стремиться к 8 млрд пользователей" надо
    1 - использовать нереляционные СУБД
    2 - шардировать БД по регионам (тогда можно отказаться от очередей)
    3 - использовать кэширование "горячих" данных
    4 - использовать Write-Optimized СУБД для больших массивов данных.

    Если у Вас "8 млрд пользователей" Вы можете позволить себе по датацентру в каждом регионе, поэтому основной задачей является правильное шардирование. И ещё один совет. Если гнаться за производительностью, надо использовать не очереди сообщений, а многопоточные асинхронные серверы, которые "кучкуют" сообщения пачками, чтобы как можно реже обращаться по сети.
    Ответ написан
    1 комментарий
  • Возможно ли использовать модель LLAMA-405B на обычном железе 64GB + 8GB?

    @rPman
    Да, уже считал, и это действительно реально, с относительно небольшими затратами (16-20т.р.) если тебя устроит скорость исполнения в 15-30 секунд на токен (на твоем железе llama31-70b на процессоре и 64гб оперативке будет работать токен в 1-1.5 секунд).

    Необходимо собрать самый дешевый pcie nvme ssd программный raid0, купив контроллер pcie-x16 3.0 или 4.0 из четырех разъемов nvme либо четыре pcie-4x дешевых 3.0 и закупить самые дешевые nvme ssd диски от 128гб (со скоростями чтения от 2гбайт/сек).

    Затем собрать из них raid0 с чередованием (win/linux это поддерживают) и разместить на нем gguf файл. llama.cpp поддерживает загрузку файла с весами с диска, без выделения оперативной памяти (но она нужна на контекстное окно, в зависимости от его размера это будут десятки гигабайт). Файл будет считываться по кругу целиком, по разу на токен, а значит скорость будет определяться именно этим. 2гб/с*4 диска = 8гб/с, 256гб 4бит квантизация будет считываться за 32 секунды.

    Есть еще ограничения в скорости исполнения из-за процессора, но по уму, если бы была оперативная память то типовой десктопный процессор работал бы на скорости 15-20 секунд на токен.
    Ответ написан
    7 комментариев
  • Как в Linux пустить весь трафик через socks5 прокси?

    ky0
    @ky0
    Миллиардер, филантроп, патологический лгун
    Есть два вида странных людей:
    1. Желающие использовать VPN для определённых приложений.
    2. Желающие использовать прокси для всего трафика.

    В обоих случаях эти люди хотят использовать неподходящие инструменты, из-за чего и возникают сложности. Почему они так делают - вопрос риторический.
    Ответ написан
  • Как перенаправить трафик в 3proxy с локального http на локальный socks?

    смотря что именно надо, например

    auth iponly
    allow *
    parent 1000 socks5+ 127.0.0.1 порт логин пароль
    proxy


    или

    auth useronly
    allow *
    parent 1000 socks5+ 127.0.0.1 порт * *
    proxy


    если надо прокинуть логин/пароль переданные в http прокси в socks
    Ответ написан
    2 комментария
  • Могли ли меня взломать звонком в телеграмме?

    @Everything_is_bad
    50 на 50, при наличие шапочки из фольги, шанс 90%
    Ответ написан
    2 комментария
  • Что за киберзащитники?

    CityCat4
    @CityCat4 Куратор тега Информационная безопасность
    Дома с переломом ноги
    Ну, тут надо начать с того - а действительно ли вы КИИ и действительно ли письмо пришло оттуда, откуда написано? А то на заборе написано XYZ, а за забором почему-то .wood
    Ответ написан
    Комментировать