Задать вопрос
  • Апгрейда разраба с помощью нейросетки, с чего начать в 2025 году?

    TrueBers
    @TrueBers
    fkk,
    а 3.5 или 3.7?
    3-й вообще не мог использовать. А 4-й, конечно, пробовал несколько раз и Соннет, и за Опус 4.1 платил конские деньги. Вообще не зашло. Задачи то он может и решает, но качество кода отвратительное.
    Написано
  • Апгрейда разраба с помощью нейросетки, с чего начать в 2025 году?

    TrueBers
    @TrueBers
    не совсем понятно как войти в эту сферу программирования с нейросетями
    С ноги. Взял и вошёл.
    Нужно ПРОБОВАТЬ. Само ничего не произойдёт без твоих попыток.

    Каждый инструмент даёт как минимум 2 недели пробного периода. На худой конец куча вариантов получить годовую подписку с читами на тот же Курсор бесплатно, если нет принципов и совесть не будет мучить:
    спойлер
    гугли на китайском
    Но мне, например, хватило обычного бесплатного периода вполне ещё вначале, когда появилась бета Github Copilot. Cursor же купил не думая, даже не тестируя.
    Если не хочется платить 20 баксов, есть Copilot, который чуть похуже, но стоит $10 вместо 20-ти.
    Если уже платишь за ChatGPT Plus, тебе доступен Codex -- агент, который неплохо себя ведёт в различных задачах разработки.

    Я жду самую оптимальную комбинацию
    ключевое слово "жду". Пока ты ждёшь, жизнь проходит, конкуренты учатся, получают опыт, находят работу, пилят проекты, а ты ждёшь...

    Жди.
    Написано
  • Апгрейда разраба с помощью нейросетки, с чего начать в 2025 году?

    TrueBers
    @TrueBers
    Ничего лучше claude-sonnet как по мне нет

    ОЧЕНЬ зависит от языка и от контекста.
    На системных языках и низкоуровневой разработке Sonnet — слабенький среднячок. Он всегда пишет в стиле (Java|Type)Script, или Python, любит создать "менеджер менеджера для менеджера адаптера обсервера", когда нужно, сука, 2 строки просто написать и задача решена.

    chat-gpt5-high в универсальных задачах самый адекватный, это любые бенчмарки давно подтверждают. Sonnet хорош для мейнстрим кодинга, где инженерии от силы пара процентов. Чуть что-то сложнее, отличное от фронтенда/бекенда, типовых баз данных, json'а и всё, салам-алейкум, такую пургу гнать начинает, когда как gpt5 доходчиво объясняет, что так делать лучше не надо, потому то и потому то. Sonnet же будет молча бредогенерировать.

    Вообще в упор не понимаю людей, которые не замечают преимущества gpt5. Он же КРАТНО меньше галлюцинирует! Ну прямо раз в неделю только можно почувствовать какой-то запашок от него. Тогда как остальные модели в уши ссут только в путь.

    Раз уж нравится Соннет, лучше пользоваться Claude Code, а не Курсором. Там агент в разы адекватнее себя ведёт. А если ещё субагенты поставить... говорят, топ. Но, хорошо, что мой код не мейнстримовый :D
    Написано
  • Апгрейда разраба с помощью нейросетки, с чего начать в 2025 году?

    TrueBers
    @TrueBers
    knigaman,
    имелись в виду решения по типу вкладки в браузере с окном для ввода промпта
    я думал, вопрос про серьёзную разработку, а не баловство с чатами

    Какой смысл тратить на какой-то инструмент 200 баксов, если тот же импакт можно получить за 20 баксов
    обычно за 200 баксов идут Pro подписки, которые как раз для работы люди и используют. Там выше лимиты, топовые модели, больше токенов на размышления даётся, выше приоритет, скорость.
    Можно получить тот же импакт и руками, а можно ещё рабов купить, которые будут делать это бесплатно, можно много чего, вопрос в другом: сколько времени на это потратишь. Деньги == время. Чем больше тратишь денег, тем меньше надо потратить времени. Чем больше тратишь времени, тем дешевле всё выходит. Элементарная истина работает всегда и везде, нейронки не исключение.

    Во-вторых, чтобы что-то изучить, это надо попробовать. Допустим, ты покупаешь автомобиль. Можешь читать отзывы от умников в интернетах и смотреть обзоры не пойми кого, а можешь взять и потратить значительную сумму денег на аренду понравившейся тебе машины, проверке её в боевых условиях, типовых поездках и на ТВОИХ задачах. Да, придётся потратиться, но ты никогда не узнаешь нужна ли тебе эта машина на самом деле, пока не попробуешь, пока не вложишь ценность в это.

    Тут такая же история: если тебе непонятно, сколько придётся заплатить, стоит ли это того, и ты задаёшь вопросы анонимам, то нет, тебе это не нужно. Если бы было нужно, ты бы уже давно заплатил и попробовал.

    чисто задавая вопросы во вкладку браузера и получая ответы от прокаченной нейросетки достаточно приемлемое решение
    именно эта фраза и говорит, что тебе не нужны нейросети для работы.
    Люди делятся на 2 типа:
    Кто "кодит" во вкладке чата, и тех, кто таки пользуется нейросетями.
    Копипастя в чаты туда-сюда код, можно разве что крестики-нолики написать. Для реальных задача это как мёртвому припарка.
    У меня, например, запущено всегда в фоне несколько агентов, которые пилят параллельные таски. Запущены MCP серверы, векторные базы, развёрнут свой системный контекст для каждого языка и технологии, отдельные контексты для прогрева каждого проекта, подтянуты документации, снипеты. На сложные архитектурные задачи работают research агенты. Сейчас ещё пытаюсь осилить SGR вместо встроенных режимов. Отлаживая проект, я запускаю самописный отладчик с MCP сервером, который за меня будет искать баг, решать его, а потом просто предложит пулл-реквест, которому сначала сделает ревью другая модель, а потом я либо приму его, либо скажу, что поправить. Когда нужно реверсить какой-то бинарник, довольно неплохой bird's eye view даёт IDA с MCP плагином. Экономит иногда день-два работы за 20-30 минут вдумчивого написания промпта.
    И при всём при этом, я считаю, что я процентов на 30 использую возможности, которые дают LLM'ки. Поэтому, когда мне говорят, что в чате разрабатывать — это ок, я даже завидую этим людям, когда они наконец откроют для себя, что они ещё не пользовались нейросетями, а просто балуются как дети, их жизнь никогда не станет прежней.
    Написано
  • Апгрейда разраба с помощью нейросетки, с чего начать в 2025 году?

    TrueBers
    @TrueBers
    knigaman,
    Есть ли смысл использовать комплексные решения по типу cursor
    а какие-то другие решения можно использовать? Других то особо и нет.

    слышал они зажрались и убрали безлимиты недавно
    странное что-то ты слышал, ибо безлимитов там никогда не было

    юзать его теперь дорого
    как было 20 баксов в месяц на старте, так и осталось, ничего не поменялось. Если 20 долларов для разработчика дорого, то стоит задуматься о смене работы или профессии.

    или же вполне достаточно умной нейросетки в виде вкладки в браузере куда можно вывалить запрос и получить ответ
    чтобы получить ответ, да, достаточно. Но вопрос вроде как был про разработку и написание кода. Без кодинг-агентов эту задачу не решить.
    Написано
  • Какая AI модель дешевле в пересчете на решение задачи в программировании?

    TrueBers
    @TrueBers
    однотипных повседневных, рабочих задач
    для меня, например, на сегодняшний день однотипная повседневная задача это реверс-инжиниринг запакованных самомодифицирующихся руткитов через гипервизор уровня драйвера UEFI и SMM режима, трейсинг потока исполнения через аппаратные средства процессора, аппаратная отладка на уровне железа. Это моя ежедневная рутинная работа, которой я занимаюсь уже несколько лет.

    Для кого-то повседневная задача это архитектурный дизайн сложных распределённых приложений и кластеров обработки данных.
    Для тебя это "кодинг python, javascript, html, css, sql и т. п.".
    У всех разные повседневные задачи. И под эти разные задачи нужны разные инструменты.

    Что она должна делать? — Писать код, проверять
    ну вот, твоя задача под силу ЛЮБОЙ модели. Поэтому это отвечает на вопрос ещё как.
    Мне, например, нужно чтобы модель умела в тулинг, вызов агентских инструментов, MCP, умела подтягивать к контексту документацию хотя бы, работать с отладчиком, с инструментами реверс-инжиниринга.
    Кому-то нужны запросы в векторные базы данных, всякие RAG-кластеры, и прочая объёмная и сложная хрень.
    И для всех этих задач опять таки нужны разные модели. Одни умеют лучше одно, другие — другое.
    Поэтому я использую. минимум 4-5 разных моделей, под каждую задачу свою.

    Мне кажется, вы пытаетесь подобрать инструмент под задачи
    ИМЕННО это я и пытаюсь объяснить! Каждой задаче — свой инструмент!
    Любой человек, чтобы забить гвоздь, знает, что нужно идти за молотком, а не за отвёрткой. А ты задаёшь вопрос: посоветуйте, какие мне инструменты купить? Какие дешевле, а какие удобнее и надёжнее? Ну вот я знаю классный функциональный шуруповёрт, но сомневаюсь, что он тебе поможет в задаче забивания гвоздей. Пока не расскажешь вопрошаемым про то, что надо забить гвоздь, советы людей не имеют смысла, потому что задачи людей совершенно могут не совпадать с твоими.

    Не увидел тут связи между наблюдениями людей о стоимости
    Ну потому, что для твоих задач этой разницы нет!
    Но когда тебе нужно, например, запустить итеративный процесс планирования архитектуры приложения, а не вывода формочки на html+css, ты запустишь самую мощную доступную тебе модель на максимальных настройках, чтобы она максимально долго и тщательно продумала твою архитектуру. А ещё лучше, запустишь SGR-агента, который несколько часов будет работать и вернётся с охренительно продуманной архитектурой. Это может потратить под сотку баксов, но сэкономит несколько недель(!!!) рабочего времени. Для задачи архитектуры это будет очень дешево и эффективно, для твоей задачи с html и javascript это будет тупейшая трата денег и нерациональное использование. Видно разницу в моих примерах?

    Другой пример:
    Мне вот надо перед каждой задачей прогревать контекст документацией в несколько сотен страниц формата А4, плюс language reference языка, на котором будет модель выдавать мне код. На что я для этого смотрю? Правильно, на окно контекста! Как считается контекст? А по-разному он считается, у каждой модели свой токенизатор, который размер посчитает по-своему. Мне нужно подобрать подходящую модель, чтобы мой запрос или серия размышлений не вышли за пределы окна, ибо если они выйдут, модель начнёт галлюцинировать и все потраченные деньги на запрос уйдут коту под хвост из-за неверно рассчитанного мной размера окна.
    Input-окно контекста выходит за пределы окна любой существующей модели? Ну тогда надо думать про векторную БД и искать модель, которая умеет с этим хорошо работать. Это новые требования, новые цены, всё снова своё.
    Не важно всё это? Ну конечно же важно!

    но это я отвечаю на вопросы, а не люди делятся опытом
    Ответив СЕБЕ на все эти вопросы, ты сам дойдёшь до ответа. Правильно поставленный вопрос — это половина ответа.

    Итого, раз уж ты хочешь сферического опыта рандомных людей для их задач в вакууме,
    я использую:
    Для сложных архитектурных или исследовательских задач — GPT-5 Deep Research или Gemini Deep Research. Но он код не пишет, он читает пейперы, извлекает и подготавливает из них контекст, которым можно прогревать уже агента для конкретных задач.
    Для онлайн кодинга пользую Cursor за 20 баксов. Там могу выбрать нужную мне модель опять таки под конкретную задачу и язык. Если это что-то среднее, то подойдёт стандартный gpt5 meduim ризонинг. Если это какой-то быстрый CLI-флоу, то нужен минимальный latency, например gemini flash. Тот же Grok 4 fast очень неплох и сейчас бесплатный в курсоре пока stealth mode.
    Для standalone задач — Gemini Flash/Pro выходят недорого. gpt5-mini неплох иногда бывает. Grok 4 Fast ещё не пробовал, но потенциал судя по бенчмаркам у него огромный.
    Быстро погуглить что-то когда лень — кидаю в Perplexity Research-таску или лабу создаю и мусора туда закидываю в контекст чтобы быстро побрейнштормить и прочитать по диагонали, что он там набредил.
    Qwen иногда удивляет, но он очень контекстозависимый и в тулинг с трудом умеет. Зато там нет общераспространённой сраной цензуры.
    Для тяжёлого реверса и MCP использую gpt5 в максимальном high ризонинге, если через Курсор, или что-то из мини-моделей, если API. Но в то же время, high-ризонинг может навредить, ибо у него "горе от ума" иногда случается и он слишком оверинжинирит простые кодинг-таски, а вот для реверса идеально.
    Если нужно максимально быстро закрыть типовой баг в коде и запушить изменения как можно менее напряжно, заюзаю Codex.

    И это не полный список, а только то, что удалось вспомнить с ходу.
    Написано
  • Какая AI модель дешевле в пересчете на решение задачи в программировании?

    TrueBers
    @TrueBers
    weranda, тебе же сказали: ответь хотя бы для себя про ЗАДАЧИ, которые у тебя стоят. Невозможно без вопроса дать ответ. У каждого свой опыт под СВОИ задачи. Мы не знаем, что тебе нужно, что ты разрабатываешь, какие требования.
    Для каких тебе задач нужна модель? Что она должна делать? На каких языках кодить? Должна уметь в фундаментальные алгоритмы или просто на джаваскрипте формочки двигать? Какие фичи? Агентская? Должна уметь вызывать тулинг, MCP? Или просто считать бакс на фикс в тупую? Нужна скорость? Нужна точность? Итеративность или one-shot? Насколько большое контекстное окно ожидается?
    ответь на все эти вопросы хотя бы у себя в голове, и всё станет понятно

    Если ответить не можешь, значит либо бери любую, либо тебе не нужно это вообще.
    Написано
  • Отечественные нейронки для кодинга и не только сентябрь 2025?

    TrueBers
    @TrueBers
    или наоборот наши решения лучше где-то?
    очень смешно :D
    Сейчас у ИИ в целом затрат в несколько раз больше, чем весь бюджет РФ как государства вместе взятый, в котором ещё и пилится большая часть. Какие ещё к чёрту отечественные нейронки? Их нет и никогда не будет в ближайшие десятки лет.
    Написано
  • Какая AI модель дешевле в пересчете на решение задачи в программировании?

    TrueBers
    @TrueBers
    Очень странная экономика.
    Железо, которое потянет тот же уровень, что подписка за 20 баксов, будет стоит в районе $10к
    локальные модели пока что не нужны для личной разработки. Если секретные данные и ядерные исследования -- ну ок тогда, можно заморочиться. Но для личного пользования можно 20 лет тратить на подписку эти деньги с железки.
    Написано
  • Как настроить оркестрацию вайбкодинга?

    TrueBers
    @TrueBers
    Mcdos,
    скармливать их ответы друг другу
    ты, похоже, не очень понимаешь, что такое вайбкодинг вообще.
    Какое зеркалирование ошибок? Какие скармливания ответов друг другу? Ты говоришь про чаты. В чатах кодить это примерно как сесть в ламборгини съездить на поле мешки картошки забрать. Для этого придумали КамАЗ, несмотря на то, что у него движок слабее в несколько раз.

    Задача чатов — чатиться. Кодят агенты. Задача агентов как раз вызывать тулы, тестить код, дебажить, исправлять линтеры, итерироваться по todo чекпоинтам и т. п. Их для этого исследуют годами и создают. В чате ты будешь кодить несколько месяцев то, что агенты за день тебе соберут.

    Я уже написал выше: ставь либо Claude Code, в идеале с суб-агентами, либо Codex от OpenAI, либо Cursor с каким-нибудь кастомным режимом типа memory bank, будет в разы проще. Это уже готовые агенты для разработки, чаты к разработке не имеют никакого отношения.

    И главная проблема — твои задачи. Смотря что ты хочешь разрабатывать. Если проект больше пары недель неспешного вайбкодинга, то лавинообразно копится технический долг, который приведёт любую систему в нерабочее состояние со временем. Нужно хорошо понимать, что тебе пишет ллмка, чтобы минимально вносить этот долг.

    Например я, имея больше 20 лет опыта глубокой инженерной разработки, перезапускаю по 7-10 раз агента с новыми требованиями, когда понимаю, что он меня в могилу заведёт с таким кодом. Очень важно понимать, что тебе высрала эта железяка. Коду недостаточно просто работать. Основная задача кода — быть легко прочитанным. Вторая задача — поддерживаемым и расширяемым. И лишь потом он должен работать эффективно и без ошибок. Пока что нейросетки пишут лишь на 80% рабочий код и на 15% поддерживаемый. С каждой новой итерацией наворачивают столько мусора, что потом уже чтобы добавить одну фичу, придётся целый клубок разматывать и с нуля переписывать.
    Написано
  • Как настроить оркестрацию вайбкодинга?

    TrueBers
    @TrueBers
    Claude Pro и Gpt Plus
    зачем жадный человек купил 2 заменяющие друг друга подписки?
    Если есть Claude платный, то надо ставить Claude Code. Если OpenAI — Codex. В них либо напрямую кодить, либо через интеграцию в IDE.
    Чтобы не платить за обе, проще заплатить за Cursor. Там можно будет выбирать нужную модель под задачи, видеть код сразу, принимать, отлаживать, тестировать.

    Зависит так же от языка, на котором будет разработка. Для вайбкодинга подходит крайне ограниченный набор самых популярных языков, чуть влево-вправо какой-то не топ-5 язык и всё — на таких языках LLM'ки вайбкодят крайне плохо, без понимания будет очень больно.

    Для непрограммиста это будет страданием, разбираться всё равно нужно, понимать, что он пишет, помогать ему. Без знаний получится шляпа.
    Написано
  • Как по Wi-Fi получить скорость линии 4.8 Гбит/с?

    TrueBers
    @TrueBers
    Alexander23777,
    нельзя ли его как то совместить с Windows 11 Pro
    нельзя. Таких адаптеров под консьюмерские устройства не существует, только под enterprise, а это — исключительно Linux. И вряд ли появится под WiFi 6, если нужно быстрее и под винду, то только WiFi 7, но с ним тоже сейчас куча проблем.
    Написано
  • Как увеличить скорость приема/передачи?

    TrueBers
    @TrueBers
    Дмитрий Прокопчук, смотря по какому протоколу и какие файлы копируются. Смотря как нагружен NAS. По кабелю в пике может быть 125 мегабайт/с если прям чистого трафика в вакууме без учёта накладных расходов прокотола. В реальности это где-то 115 будет "реального" трафика ещё до оборачивания в протокол шары.

    Будет время посмотрю какая скорость копирования по кабелю.
    если 62 будет по кабелю, значит затык в NAS'е. Либо много мелких файлов копируются, либо диск сам по себе не может выдать больше. Нужно плясать хотя бы от максимальной скорости чтения диска. Что тест скорости показывает?
    Вообще, по гигабитному кабелю вместо того, чтобы делить эфир на одной WiFi точке, вероятнее всего, будет быстрее. 2400 хватило бы в идеальных лабораторных условиях, а в реальных может быть медленнее из-за большого количества соседних точек, с которыми делится эфир, прерывая и приём, и передачу, чем если бы NAS висел на железобетонном 1G, в который никто не может вклиниться.

    1. Если NAS отдаёт с шары через SMB, то ещё минус несколько процентов. Где-то в районе 110Мбайт можно вытащить в идеальных условиях.
    2. Если NAS на отдачу с шифрованием/подписью, то можно ещё 15% минусовать, если проц слабенький и криптографию слабо тянет. Но такой случай в домашних хранилищах редко встречается.
    3. Если передаётся много мелких файлов, то будет в разы меньше скорость.
    4. Если файлы потенциально заражаемых форматов, то их может на лету сканить какой-нить Windows Defender или другой реалтайм-антивирус, сжирая кучу ресурсов и тормозя передачу.
    5. Можно между портами NAS'а и роутера, если все пользователи были бы подключены по витой паре, увеличить MTU до размера Jumbo фрейма, тогда чуть упадёт нагрузка на матрицу при агрегации. Но в твоём случае доступа с WiFi такое сделать не получится. Да и потребительские Хуявеи не поддерживают Jumbo.

    Итоговый совет:
    1. Просто подключи NAS по 1G витой паре, должно стать быстрее.
    2. Убедись по тесту скорости диска, с которого идёт отдача, что он вообще способен отдавать такой поток.
    3. Посмотри на загрузку процессора хранилища в момент пиковой скорости, есть ли ещё запас?
    4. Отключи антивирус чтобы убедиться в пиковые падения скорости, что это не он тормозит приём.
    Написано
  • Как увеличить скорость приема/передачи?

    TrueBers
    @TrueBers
    Ziptar, где отображаться? В глаза не видел систем/устройств, которые бы отображали таким странным образом. Во всех известных мне ОС отображается Aggregated Link Speed, он же PHY rate.
    Что это за системы такие?
    Написано
  • Как увеличить скорость приема/передачи?

    TrueBers
    @TrueBers
    Ziptar,
    это максимальный data rate для 802.11ax

    1200.98 Mbps — это максимальный data rate для 802.11ax на один пространственный поток! А их по стандарту может быть 8 -> 1200.98 * 8 = 9607.84 Mbps!
    У автора оба устройства имеют по 2 пространственных потока — 2х2 MIMO, то есть 1200.98 * 2 = 2401.96 Mbps.
    Написано
  • Как в юнити 2д попиксельно изменить цвет текстуры?

    TrueBers
    @TrueBers
    Gemer907, интересно ты используешь Юнити, не зная, что такое шейдер.
    Я постарался загуглить, но ничего не нашёл
    ты ж не старался, не обманывай.

    Фрагментный шейдер именно для цели изменения цвета фрагмента (пикселя) и создавался 30 лет назад. Это его прямое назначение.

    У тебя элементарная задача ротации палитры по LUT:
    Фрагментный шейдер делает lookup по палитре, и заменяет значения цвета согласно таблице. Из этого шейдера делаешь материал, прикручиваешь к спрайт рендереру. Палитру пихаешь в MaterialPropertyBlock и тоже вешаешь на рендерер.
    Всю эту канитель цепляешь на каждый инстанс спрайта, которому нужно менять цвет.
    Всё
    Написано
  • На какой freelance бирже искать заказы?

    TrueBers
    @TrueBers
    заказчики сейчас пользуются только одной биржей — ChatGPT называется
    Написано