без подключения людей имеющих доступ к закрытому контуру.
не видел ничего лучшего, чем когда то был делфи для этой задачи. Два тычка и у вас готовая форма с коннектом к базе.WinForms и его идеологический потомок WPF для microsoft windows .net, на столько легкого способа разработать прилоежние баз данных я не видел ни до ни после (WPF у меня глючил, мне не понравилось что прямо на пустом месте, при создания приложения примера по гайду от майкрософта, я бы предлагал WinForms но его почему то многие считают жутким легаси и недостойным к использованию)
Прям за пару тройку вечеров ?
Внесения данных о производимом оборудовании, у каждого оборудовании детали. Каждая деталь изготавливается отдельно, необходимо отслеживать на каком этапе производства деталь, в каком цеху и тд.я прекрасно понимаю что ERP системы это не то что описал автор вопроса, а так же прекрасно понимаю что компании в конце концов нужна ERP система, поэтому повторюсь, начинать нужно с аналитики и построения ТЗ
Повторюсь, квантизация малых моделей 8b/14b/32b (особенно MOE) сильно ухудшают и без того глупые модели, поэтому ниже 8bit квантизации я не рекомендую
При использовании только GPU настоятельно рекомендую не пользоваться llama.cpp (например olama) а использовать проект vllm, это и библиотека и api совместимый с openai (его можно прописать в плагинах к ide например или использовать в своих скриптах),..
Установка в python venv
python -m venv /путь/для/хранения/python/окруженияДальше можно либо activate /путь/для/хранения/python/окружения и в терминале дальше будет эта песочница, либо прописывать до python и pip полный путь (внутри этого каталога будут подкаталоги bin а в windows - scripts)
pip install vllmДальше я использую команду
модели оно будет подгружать из текущего каталога (модель - каталог) в формате .safetensor прямо как они лежат на huggingface, у нее есть свои cli для загрузки моделей или пользуйся git-lfs для клонирования многогигабайтовых репозитариев (оно глючное и требует много cpu ram)
--model gpt-3.5-turbo-instruct - это автозагрузка модели заранее (тут имя подкаталога) если указать в api вызове модель, она будет загружена
Я встретил странный баг, некоторые модели не хотят загружаться по своему имени, и я создавал символическую ссылку gpt-3.5-turbo-instruct на них (конкретно в моем примере DeepSeek-R1-Distill-Qwen-14B), все работает.