В современных процессорах есть генератор случайных чисел (команда RdRand).которую ни в ком случае нельзя использовать как единственный источник энтропии! Там столько дыр, что этот источник нужно подмешивать к другим, а никак не использовать в одиночку.
это студенческие лицензии продаютне совсем так. Студенческая сейчас только OpenAI Edu. И они их не продают, а сами регают на себя, а других просто добавляют в свой workspace. Это даёт полный доступ как на Plus-подписке, плюс ещё крутая исследовательская Pro модель в чате, которая иначе есть только в Pro-подписке за 200 баксов в месяц. Так что, я воспринимаю это как расходник, если забанили учётку за 2 бакса, которая даёт плюшки от 200-баксовой, вообще не велика потеря, я за первые минуты использования отобью эти 2 бакса.
Я тут запускал в опенроутере, 10 лямов токенов сожрал минут за 40.Смотря на каком harness. Большинство — максимально ублюдские в плане экономии токенов, если найти нормальный под свои задачи (или написать самому, разбираясь в теме), оптимизировать кеш-хиты, можно на 80-95% снизить потребление токенов. Звучит как сказка, но это реальность. Грамотный выбор инструментов под свои задачи — залог успеха в любом деле, тут так же.
qwen3-coder-next и gpt-oss:120bЭто игрушечные модели, что с ними можно сделать? Это максимум делать какую-то классификацию в SO, детект каких-то паттернов естественного языка, сварганить команду для терминала и запустить, распарсить вывод, запустить тесты, распарсить ошибки, выдать отчёт для более взрослой модели — всё, на что способны эти модели, уже пофиксить упавшие тесты они вряд ли смогут.
А что может делать огрызок такого, что не может делать аналогичный по параметрам ноут с Линем?ну, например в 5-10 раз быстрее память. "У ноута с линем" 50-70 GB/s, у M4 Max — 546 GB/s. Каждый GB/s это скорость декодинга, то есть сколько токенов в секунду получится. "Ноут на лине" типовую задачу, которую подписка за 20 баксов сделает за несколько секунд, будет делать несколько часов. Мак сделает от нескольких десятков минут до нескольких часов.
M4 Max и от 64–128 ГБ памяти вы сможете локально использовать вайбкодинг на серьёзных моделяхчто за такие серьёзные модели? M4 Max сейчас тянет разве что 33B модели с более-менее выносимым декодингом. 70B на нём 5-7 токенов в секунду выдаёт. Это можно идти курить на полдня, пока задача выполнится, какие 200B?
если вы не готовы отдать до полумиллиона долларов на топовые nvidia картыЧто за карты такие? Из платины делают?
проблема и в том что генерация отнимает времяэту задачу потянет самая минимальная модель при правильной настройке, там не нужен ни thinking, ничего такого. SO даст 80% успеха, агент-валидатор поверх ещё 15-17% сверху.
Там мало того, что full fs encryption, так ещё и аппаратный keystore может быть, где уже отдельные приложения хранят свои ключи для шифрования данных профилей.
Забей на эту затею, если не было синхронизации с облаком, то можно забыть о данных.