Михаил Р., если бы жалоба можно было отправить из браузера кнопкой в его меню, я бы понял.. каков процент людей вообще понимает, что тела можно жаловаться и это на что то повлияет
я, как человек, который побыл во времена без интернета, во времена его становления и вот сейчас во время его 'смерти' (централизации) и это как взгляд со стороны, сам факт того что такой вопрос в принципе может возникнуть, уже шокирует.
p.s. почему это вообще должно волновать поисковые системы? поставьте себя на их место, как бы вы ранжировали магазины? волновало бы вас что там есть такого типа приписки? как это повлияет к примеру на ваши рекламные доходы?
до какого же абсурда довели поисковые системы, что пользователи и бизнес уже любого чиха боятся
p.s. ответ, не должна, но я не удивлюсь если в алгоритмах анализа контента (который не в краулере а выше уровнем, ранее там тысячи людей сидели и контент сайтов размечали, типа хороший/плохой, официальный/нет) что то похожее можно будет найти
CityCat4, гугл сделали все, что бы сломать нормальную ОС, на столько что умельцам приходится хакать ядро что бы добиться от него хоть чего то вразумительного
Valdemar Smörman, таких приложений много, есть termix, есть debian_no_root, там вообще apt пакетный менеджер... но это не чистый linux, а песочница по типу docker
Потому что это решит твою проблему с 'разрешением', беда в том что готовые инструменты сборки live системы не умеют (или это баг) работать с проприетарными драйверами nvidia, а вот полноценная установка такой проблемы не имеет
Установить необходимые программы - вопрос нескольких минут.
the_greatesttt, что такое портативность?
установленная на флешку linux будет работать везде без проблем, так как по стандарту uefi с флешки загрузка будет работать без необходимости настраивать биос, и уж конечно это прекрасно работает и в старом legacymbr режиме
Refguser, любая г..но, лишь бы было суммарно много видеопамяти, буквально майнинговые материнки с кучей любых (лучше одинакового вендора intel/amd/nvidia а то есть проблемы с дрейверами) видеокарт
У меня 2х16гб nvidia 4060ti, они для игр медленные, а вот для нейронок соотношение стоимость/скорость наилучшие.
vseminelybim, 32гб на адекватные модели мало, нужно 64гб, лучше 128гб, тогда в режиме batching можно получить хороший прирост в 'токены в секунду', т.е. к примеру нужно тебе обработать один файл несколькими запросами (системный промпт+данные+запрос+...), при использование кеша системный промпт+данные закешируются не не будут обрабатываться, а значит время и ресурсы будут тратиться только на анализ запроса и генерацию ответа, а если у тебя много разных запросов над одними и теми же данными, они в режиме батчинга одновременно будут обрабатываться... памяти для этого нужно много.
Точно знаю, можно неплохо грузить модель с диска (особенно озаботились когда deepseek вышел с требованиями в 600гб только на веса), что так же для батчинг режима хорошо.. но все же, ждать пол часа ответа на вопрос (даже если их одновременно было задано 100) это садомаза.
Что то я сомневаюсь, что вы смогли свою задачу решить такими простыми алгоритмами, вы проводили проверку, какой был процент верных ответов?
Я верно понимаю, что у вас огромный объем описаний, которые не формализованы? потому что иначе задача решается серией парсеров на основе регулярых выражений.
Боюсь вам нужна gpt, она буквально может на вход получить ваш текст а на выход к примеру json с нужными полями.
если готовы сами обучать (у вас большой обучающий датасет тысячи - десятки тысяч примеров) то берете какой-нибудь pretrain (хоть того же yandex или facebook llama или гугл gemma или qwen) небольшого размера (думаю хватит 1..8 b их можно дешево до тюнить) и набор утилит peft (погугли, есть готовые статьи с примером в т.ч. на хабре)
если не готовы, берете модель по умнее (скорее всего уже не локально), и составляете качественный помпт, в котором есть максимально качественные примеры (будет работать с десятками или даже единицами)
p.s. я бы вместо отправки мощной модели самого текста, заставил бы ее создать приложение (как я бы его создавал, вся проблема не в нем а серии описаний разных типовых и не очень форматов данных, ведь не все же они отличаются друг от друга, наверняка можно выделить группы похожих) причем такое, что если встречается новый формат, снова топать к ИИ и обновлять приложение, добавляя новый или подправляя уже имеющися