ааа, так у вас десктопная версия windows, с ограничением на на количество одновременных подключений. На десктопах искусственно ограничена одновременная работа нескольких сеансов.
Для старых версий windows (до 10-ой но уже несколько лет как это сломано) был rdpwrap (напомню, использующий штатный инструментарий windows api, ничего не взламывающий, но майкрософт с этим борется)
для десктопных windows из рабочих решений остался только ibik aster, он требует порт видеокарты (можно подключить к нему заглушку) на каждое рабочее место, но зато это не сетевое подключение а настоящая консоль, все они работают независимо без каких-либо замедлений и ограничений, присущих rdp.
приведите пример метода в Firebase, который отсутствует в чем то типа mysql/postgresql?
p.s. у вас три таблицы!? полагаю, переписать весь sql код вручную займет вечер/два, если вы знаете, что делает каждая строчка и зачем
Сергей delphinpro, в момент подписки владелец канала может подписать тебя на другой мусор без спросу, как минимум я такое видел, хз как это делают но отбивает желание подписываться на корню
Надим, подход 'в лоб', когда ты все помещает в контекстное окно и дальше ведешь беседу в режиме чата, работает кое как с топовыми моделями типа openai/claude, а вот с открытыми, даже лучшими, это работает отвратительно.
gpt работают хорошо, когда контекстное окно содержит только необходимую здесь и сейчас информацию и минимум не нужной, потому что даже если пишут сотни тысячи токенов окно, реально работает хорошо в родных 8к максимум.
... и даже в этом случае можно получать проблемы переобучения, даже на топовых моделях, тупой пример - если модель при написании программы увидит в форматах массивов похожее на что она знает, она будет ответ корректировать в угоду своему знанию а не тому что ты попросил, например попробуй убедить работать модель gpt4o с api openai, тот же json файл запроса к gpt, измени в ней какую-нибудь мелочь, и в запросе не говори что это openai api, так вот модель молча сама это поймет, и 'исправит твою ошибку', в реальной эксплуатации такие нежданчики могут аукнуться сложно обнаруживаемыми ошибками.
LanaDelRay, у тебя недостаточно информации, чтобы понимать 'причины' и это точно не исправить.
чтобы уменьшить вред в будущем, нужно разделять активы и использовать независимо... условно несколько аккаунтов, несколько обменников, несколько интернет личностей (условно), не перемешивать,.. потеря одного не повлияет на остальные
Air_Sev, дообучать нейронки СЛОЖНО, по простому, даже при наличии железа, finetuning в лоб (без изначальной обучающей выборки, а ее в хороших моделях не открывают, ни llama ни qwen) будет ломать нейронку, она будет забывать что уже знает, концентрируясь на твоей выборке.
И даже тут потребуются качественные данные, большого объема (тысячи и десятки тысяч примеров) и повторюсь, совпадающие с исходной обучающей выборкой по фактам, иначе сеть повысит галлюцинации там, где найдет противоречие с прошлыми знаниями.
finetuning используют для настройки формата ответа, стилистики, и прочей не информативных но полезных способностей модели. Например дотюнить сеть на своих чатах, чтобы она смогла симулировать общение, были на хабре и не только статьи примеры как раз на llama 8b, для этого требуется не дорогое железо (кажется хватит двух nvidia 4060ti 16gb, стоят они по ~55т.р.) или арендовать за порядка 100$-200$ на том же vast.ai
Советую вместо дообучения модели, сначала попытаться вытянуть из возможности рассуждать и следовать инструкции (выбирать модели типа instruction), составляя соответствующий промпт (в мире llm ии это чуть ли не программа), а так же строить агентные системы, которые будут работать с вопросом, базами данных, внешними сервисами, циклами рассуждений (когда модель сама принимает решение, стоит ли дальше исследовать задачу или можно завершить работу) и прочее прочее, тот же RAG например.
Советую полистать какой-нибудь новостной канал на эту тему, там почерпнешь ключевые слова и название технологий. Так же неплохо поболтать с нейронками от openai, они знают очень много и могут предложить неплохой план работы... только помни, что они могут очень убедительно говорить чушь,..
LanaDelRay, задайте этот вопрос им
правила определения aml кстати не рзглашаются, о них можно только догадываться, и у менял, совершающих сотни тарнзакций есть больше средств это понять.
как именно эта документация используется?
как много человек с ней работают?
как много данных в среднем считывается в единицу времени и как много происходит запросов?
как производится поиск?
как производится редактирование базы? добавление, исправление, удаление?
какие требования к правам доступа? система авторизации, регистрации и т.п.? например системы типа биллинг (учет и лимитирование объема использования)?
sdk это просто файлы (утилиты командной строки типа adb, набор библиотек и кажется компилятор), объем которых сотня другая мегабайт (можно выбрать какую версию устанавливать, не уверен, можно ли вообще не устанавливать, но по уму должна быть возможность), там же есть чекбоксик установки qemu/kvm виртуалки с настроенным android
Есть Android Studio
за работу android там отвечает android sdk, его можно скачать отдельно они теперь называются утилиты командной строки
В ubuntu идет пакет google-android-tools-installer который уже все скачает (вообще как обычно в нашем мире, все открытое оказывается чуть чуть закрытым, нет полностью открытой инфраструктуры)
Представь как ты сам будешь делать обучающую выборку для тюнинга модели.
Ты наверняка же начнешь с того, что возьмешь существующие clip модели и их тексты, дополнишь какой то информацией (вот это сложно)... начни с того что бы собрать информацию о том чем тебе существующие решения не устраивают.
само обучение не так страшно, арендовать на vast.ai будет дешево, тем более это не llm-ка, а мизерные clip модели, на сколько я помню их на 8гб тюнят (но это peft 8-битный), 16-гб видеокарта сейчас стоит 50т.р. (nvidia 4060ti тормозная для геймеров но самая дешевая по стоимости vram)
а если работать только с текстовыми описаниями, полученными для каждого изображения? формально они содержат исчерпывающую информацию (в реальности конечно нет, но не думаю что вам важно к примеру цветовая схема изображения, стилистика и т.п. ее вытягивать другими методами нужно)
с текстами... скорми их универсальной instruction llm-ке, ну а если у тебя достаточно большой объем обучающих, то дообучи completion вариант, тем более 8b llama для таких задач можно на паре 12gb-16gb видяхах дообучить (правда долго)
Надеюсь понимаете разницу между фейковым мусором, который предлагают под видом 'рекомендаций' практически все крупные площадки и действительно рекомендаций, которые можно делать на основе достаточно количества информации о клиенте?
Для старых версий windows (до 10-ой но уже несколько лет как это сломано) был rdpwrap (напомню, использующий штатный инструментарий windows api, ничего не взламывающий, но майкрософт с этим борется)
для десктопных windows из рабочих решений остался только ibik aster, он требует порт видеокарты (можно подключить к нему заглушку) на каждое рабочее место, но зато это не сетевое подключение а настоящая консоль, все они работают независимо без каких-либо замедлений и ограничений, присущих rdp.