Задать вопрос
  • Возможен ли запуск character ai на домашнем пк?

    @rPman
    Llama31-8b можно запустить на видеокарте nvidia 12..16gb с отличной скоростью, контекстное окно 128к токенов, характер и прочее можешь описать в стартовом промпте. На cpu так же работает с помощью llama.cpp.

    Такую сеть можно за разумные деньги тюнить под свои задачи.

    Есть ещё китайская qwen, у нее неплохие характеристики.

    Старшие версии llama31-70b и qwen близки а топу, но требуют много оперативной памяти, с использованием квантизации 64..96гб ram на скорости 1-2 токена в секунду можно решить сложные интеллектуальные задачи, например адекватно допридумывать рассказы...
    Ответ написан
    2 комментария
  • Как сделать такое приложение для пожарных, суть- пожарные водоисточники?

    @rPman
    Ваша задача делится на 2 большие задачи:
    1. преобразование 'бумажных' (в виде изображения) карт гидрантов в цифровой вид, совмещенный с уже существующими картами (например openstreetmap).
    Вручную это можно сделать там же на openstreetmap (у них были инструменты для такой работы)
    Формально, любая GIS система имеет для этого инструменты, возможно даже полуавтоматические, в вашем случае это явно точки, а не полигоны, с этим проще.
    2. Создание интерфейса
    настятельно не рекомендуется пилить интерфейс самому, воспользоваться лучше инструментами google/yandex, у них хорошие карты и с навигацией у них есть соответствующие api

    p.s. если у вас нет навыков, то настоятельно рекомендую найти специалиста, который это реализует, даже если вы хотите учиться, без ментора или умения самостоятельно искать ответы, вы не справитесь.

    p.p.s. хотя, современный ИИ может стать таким ментором (openai/anthropic), но нужно будет набраться терпения, много общаться с ним и быть готовым что он будет тупить.
    Ответ написан
    5 комментариев
  • Можно ли восстановить удалённое 10-й виндой при проверке диска?

    @rPman
    Настоятельно рекомендую нести диск на восстановление, но шансов у вас мало.
    Основной рабочий пока первый, с 7кой.
    ...
    После этого ребутнулся в 10ю винду и запустил проверку первого диска.

    Об этом моменте все забывают, что в windows 10 (начиная с win8) есть механизм ускорения загрузки, который при использовании последовательно нескольких ОС может угробить ваши данные (полагаю это сделано специально, как одна из миллиона мер борьбы с linux конкуренцией, иначе об этом бы везде писали большими буквами). Принцип следующий - windows 10 при выключении, закрывает рабочие приложения (делает быстрый logout) а затем вызывает гибернацию (hibernation), сброс оперативной памяти и состояния устройств (включая gpu) на диск в файл hiberfil.sys в корне диска, т.е. не завершая процессы, не закрывая файлы, не сбрасывая кеши записи на диски и кучу всего, что могло бы замедлить этот процесс... при включении, данные очень быстро и эффективно считываются с диска (линейная скорость даже медленных дисков hdd - сотня мбайт/с), включение занимает считанные десяток секунд, после чего идет login и запуск процессов пользователя.

    Если после гибернации вы загружаетесь в другую ОС, файловые системы на дисках находятся в не консистентном состоянии, и вероятность сбоя и потери данных на них очень сильно повышается, причем самым странным образом (например позже, после пары перезагрузок). Если постоянно туда сюда переключаться, ошибки накапливаются.

    Но вот винда ругнулась на этот диск и я решил его проверить. Забекапил что нужно и на 2й и на 3й диски.
    Что это была за ругань, сообщение в подробностях скорее всего раскроет подробно, что случилось.

    p.s.
    эту фичу зовут Fast Startup (включена в win10 и 11 по умолчанию) можно не выключать всю гибернацию, а вручную выключать компьютер в правильном режиме:
    shutdown -s -t 0

    отключается в Панели управления, электропитание, действия кнопок питания, изменение параметров которые сейчас недоступны, выключить быстрый запуск.
    либо отключить гибернацию полностью, выполнив в командной строке:
    powercfg /h off
    Ответ написан
  • Как скопировать все файлы из ftp в сетевую папку в комадной строке?

    @rPman
    Использовать wget, ключ -l 1 -r или -m (осторожно, по умолчанию будет качать все каталоги, смотри опции ограничения в пути).

    Ещё лучше, уйти от ftp, как устаревшего протокола, с кучей проблем. И использовать штатный встроенный функционал ssh - scp/sftp , которым может пользоваться как стандартный scp так и rsync, у которых возможностей и удобства на порядок больше.

    Ssh сервер идёт с любым linux штатно, а также с windows устанавливается ее штатным инструментарием
    Ответ написан
    Комментировать
  • Куда класть soho/стартап бэкапы?

    @rPman
    Мне кажется вы перечислили самые дешёвые варианты, amazon s3 glacier deep будет тоже уровня цены.

    Если нужна какая то независимость от санкций (серая зона), то предлагаю посмотреть на криптопроекты типа siacoin, инструментарий и сообщество в стагнации, но вот как хранилище работает до сих пор.

    Не представляю что то дешевле чем хранить данные там (порядка 2..5$/м за терабайт +-)... Когда-то по тестам скорость там получалась сотни мегабит, но логично лучше тестировать в своей локации, это ведь как торренты.

    https://siascan.com/ смотреть на цену тут с осторожностью, так как могут не учесть x3 резервирование по умолчанию, лучше поставить клиент и смотреть цены там.
    Ответ написан
  • Где скачать образ диска Visual Studio 6.0?

    @rPman
    Благодаря mono и wine, ты можешь запускать приложения, созданные в современной visual studio, но с постоянными тестами и оговорками по лицензиям.

    Если тебе не нужно WYSIWYG редактирование gui, то создать приложения кроссплатформенные ты можешь и так с помощью mono и .net sdк 5+, а там ещё всякие avalonia есть....

    p s. Несколько лет назад Майкрософт уничтожила (купила и выбросила) отличный проект monodevelop, его старые версии ещё можно запустить в контейнере или виртуалке на старых linux, но приложения, созданные с его помощью будут работать везде.
    Ответ написан
    Комментировать
  • Какая нейросеть оживляет картинки?

    @rPman
    Stable video diffusion, будет работать на 12-16gb gpu (например nvidia gtx 4060ti стоит 59т.р., а 3060 12гб - 35т.р. ), работает неплохо, но на сколько я знаю он работает от картинки а не запроса (т.е. если ты задаешь запрос, она генерирует из него только стартовать картинку).

    Облачные ресурсы дороже на порядок, как ни крути.

    Кажется Runway позволяет платить через alipay в России.

    p.s. Кандинский от Яндекса ты не использовал?
    Ответ написан
    Комментировать
  • Телефон не видит компьютеры в локально сети?

    @rPman
    Удостоверься что смартфон действительно подключился к локальной сети, а не к примеру, гостевой на роутере. Посмотри его ip адрес в подключении wifi, попингуй в обе стороны (комп -> смартфон и наоборот).

    Удостоверься что на смартфоне не включен vpn или не используется прокси (например ускорялки от гугла и опера).

    Удостоверься, что ты указал правильный протокол (http но не https), так как браузера могут автоматически выбирать https.
    Ответ написан
    1 комментарий
  • Как хранят базы данных в продакшене, в докере или как-то по другому?

    @rPman
    Любые прослойки, включая многоуровневые - это значительные затраты на процессор... Нужно четко понимать, за что ты платишь эту цену.

    Во первых виртуализация и контейнеризация добавляют возможностей в администрировании и управлении, например простота масштабирования, но это ведь не единственный способ так делать.

    Многие разработчики даже не понимают, зачем нужен docker и разбивают задачу на несколько бессмысленных машин, и вместо удобства администрирования, создают лишнюю нагрузку на персонал.

    p.s. Один раз получив серьезную нагрузку и попробовав bare metall железо без даже lxc/docker , назад возвращаться не захочешь.

    Напоминаю, наилучшая производительность современных (уже лет 10 как) процессоров достигается только при попадании необходимых данных и кода в кеш процессора, причем если это не так, то производительность падает на порядок буквально (в 10 раз)... когда на одном железе мешаешь разные сервисы, они делят один процессор и его кеш,.. .. База данных может дать основную нагрузку на процессор, поэтому и выделить в этом случае для нее отдельное железо... даже если это не топовый процессор, правда точный ответ может дать только эксперименты на реальных данных и типовых ситуациях.

    Очень жаль что датацентры не практикуют 'узкие лезвия' (очень компактные небольшие сервера, размером с ладонь), из-за чего из стоимость на столько неадекватна, что эффективнее собирать неэффективные конфигурации
    Ответ написан
    Комментировать
  • Как правильно прописать конфигурацию данные Postgres в Node js?

    @rPman
    имена переменных бери из строки:
    const connectionString = `postgresql://${process.env.POSTGRES_USER}:${process.env.POSTGRES_PASSWORD}@${process.env.POSTGRES_HOST}:${process.env.POSTGRES_PORT}/${database}`;

    Хост у тебя судя по скрину - localhost, в крайнем случае используй то что возвращает консоль по команде hostname

    чтобы понять что происходит, назначение ключей psql смотри в документации или по команде psql --help
    p.s. смотри внимательно сообщение об ошибке
    в особо извращенных случаях сервер может быть не локальным, а его адрес прописан у пользователя в домашнем каталоге в .pgpass или pg_service.conf
    Ответ написан
    Комментировать
  • Как синхронизировать проекты между компьютерами?

    @rPman
    syncting или rsync (если подойдет ручное управление) и git (не смешивая их).

    syncting хорошо работает с большими данными и любыми схемами передачи данных (вплоть до источник -> смартфон пользователя offline, смартфон -> целевая машина, и так же обратно, т.е. без интернета)

    git - дисциплинирует ставить 'точки в правильных местах', т.е. вы работаете не абы как а до commit-а, даже если вы один работаете, это дает вам историю изменений, которая может и нужна очень редко, но метко.
    Ответ написан
    Комментировать
  • Как лучше спроектировать апи с большой нагрузкой?

    @rPman
    Ты не сообщил самое главное - как будут читаться собираемые данные. Будут ли они считываться и тем более фильтроваться в процессе записи, можно ли вводить запаздывание при чтении данных (например до 'некоторых' данных в прошлом).

    Если ничего этого нет, то ничего между базой данных и бакэндом ставить не нужно... таблицы, в которые складываются данные должны быть без индексов, можно ввести искусственное партицирование, например таблица без индексов - последние не обработанные данные, вторая таблица - данные с индексами в которых будет проводиться поиск и анализ, для размазывания нагрузки использовать штатную репликацию базы данных, разные ноды - разные задачи. Кстати один из способов партицирования - писать данные блоками, каждый блок в свою новую таблицу, количество таблиц сравнимо с количеством нод, обрабатывающих их данные (таким образом можно отключить даже транзакции, ведь пока обрабатывается таблица, данные пусть пишутся в следующую, управление таблицами вести тут же на таблицах но уже с транзакциями)

    Проблема не столько в данных и в их объеме, а в надежности всей схемы, т.е. например можно не делать единую точку отказа и сделать несколько независимых api endpoint, клиенты должны сами переключаться между ними, при ошибках, ну а сам выбор куда подключаться делать случайным.

    Кстати, собственно сбор оперативных данных не обязательно делать в ОДНОЙ физической базе, это могут быть разные БД, а вот последующий анализ уже делать следующим сервисом (так же может быть несколько нод), собирающим данные из разных первичных источников в какой то единый или еще в какой то форме... именно подготовка данных к последующему их использованию и есть вопрос реализации.

    Настоятельно не советую городить зоопарк из разных баз данных типа редис и sql-db.. когда sql база используется без индексов (и тем более без транзакций) на последовательную запись у нее нет конкурентов (ну только что совсем низкоуровневым программированием заняться)
    Ответ написан
    3 комментария
  • Как сделать предпросмотр файлов word, pdf, img, txt в рамке прямо на сайте?

    @rPman
    Изображения и тексты это легко, у них 'простой' формат и реализовать все в браузере будет не сложно, а вот для предпросмотра документов word нужен собственно этот word, так как у него сложный формат (еще сложнее был бы excel).

    p.s. pdf

    Если прямо очень нужно, подними на сервере какой-нибудь совместимый headless инструмент (например libre office, у него наилучшая совместимость с майкрософтовским) и используй его для конвертации документа во что то читаемое в браузере - напрямую изображения или pdf (через печать документа в виртуальный принтер), и то и другое уже не проблема отобразить.
    Ответ написан
    Комментировать
  • Как быть если две библиотеки начинают зависят друг от друга?

    @rPman
    а почему бы не объединить эти обе библиотеки в одну?
    зачем мельчить если они друг от друга зависят и так?
    Ответ написан
    Комментировать
  • Сравнение голосов - программы и нейросети - есть ли такие?

    @rPman
    https://huggingface.co/models?other=speaker-recognition как отправная точка для поиска готовых моделей (можно поиграть с поисковым запросом)
    Ответ написан
    1 комментарий
  • Мне подарил мой товарищ лаптоп Каким образом не заметно для меня он бы мог следить за мной?

    @rPman
    Аппаратный способ лучше всего, самый простой это usb симулятор клавиатуры, такой на ардуино сделает любой железячник (вопрос как к этому симуляторы подключается злоумышленник но есть варианты...), в нужный момент такой жучок может набить целый троян (например на wsh js или .net js#/c#), открыв блокнот в момент бездействия пользователя.

    Бывает внутри ноутбука много свободного места, а жучок - плата в пару сантиметров.
    Ответ написан
    Комментировать
  • Почему рекомендуется использовать private а не просто ставить везде Public?

    @rPman
    Одно слово - инкапсуляция.
    Если ты делаешь внутренний метод или переменную публично доступной, и работаешь с ней снаружи класса, то когда тебе понадобится изменить эту переменную или метод по работе с ней, тебе понадобится искать все использования этой переменной, а вот если ты заранее ограничишь себя, и для выхода наружу будешь специально создавать методы класса, то в тот момент, когда ты пожелаешь что либо изменить, тебе будет достаточно сделать это внутри класса.. да и искать влияние таких исправлений снаружи по ошибкам компилятора будет проще.

    Ты не только должен делать переменные приватными, тебе необходимо оформить у класса методы по работе с ними таким образом, по возможности, чтобы при использовании класса тебе было бы все равно, как именно у тебя хранятся эти данные... т.е. часто не достаточно просто заворачивать эти переменные в геттеры и сеттеры.

    Тупой пример с координатами персонажа... делаешь эти переменные приватными, и оформляешь методы 'бег вперед', 'поворот' и т.п. а значит снаружи у тебя не будет чего то типа object.pos_x+=object.speed_x а будет object.moveRight().
    Ответ написан
    Комментировать
  • Возможно ли использовать модель LLAMA-405B на обычном железе 64GB + 8GB?

    @rPman
    Да, уже считал, и это действительно реально, с относительно небольшими затратами (16-20т.р.) если тебя устроит скорость исполнения в 15-30 секунд на токен (на твоем железе llama31-70b на процессоре и 64гб оперативке будет работать токен в 1-1.5 секунд).

    Необходимо собрать самый дешевый pcie nvme ssd программный raid0, купив контроллер pcie-x16 3.0 или 4.0 из четырех разъемов nvme либо четыре pcie-4x дешевых 3.0 и закупить самые дешевые nvme ssd диски от 128гб (со скоростями чтения от 2гбайт/сек).

    Затем собрать из них raid0 с чередованием (win/linux это поддерживают) и разместить на нем gguf файл. llama.cpp поддерживает загрузку файла с весами с диска, без выделения оперативной памяти (но она нужна на контекстное окно, в зависимости от его размера это будут десятки гигабайт). Файл будет считываться по кругу целиком, по разу на токен, а значит скорость будет определяться именно этим. 2гб/с*4 диска = 8гб/с, 256гб 4бит квантизация будет считываться за 32 секунды.

    Есть еще ограничения в скорости исполнения из-за процессора, но по уму, если бы была оперативная память то типовой десктопный процессор работал бы на скорости 15-20 секунд на токен.
    Ответ написан
    7 комментариев
  • Как залить большой файл sql в базу?

    @rPman
    Телепатствую.

    Главная причина, чаще всего, это не отключенные индексы, запись в таблицу с ними это n*log(n), а без индексов это n или даже log(n).

    Раздели sql на место создания структуры и импорт данных. Замени код создания структуры на такой, чтобы таблицы создавались без индексов, и отдельно создание этих индексов уже после (автоматизировать это не сложно, но чтобы так с ходу найти готовый код я не найду).

    Отдельно в sql коде можно расставить commit через некоторое количество (десятки тысяч +-) insert-ов, что бы лог не переполнялся.

    Следующий вариант - оптимизация дисковой записи, найди способ принудительно включить lazy writes на диске с базой, например с помощью виртуализации или хотя бы ext4 опция data writeback. Внимание! в этом режиме любая проблема с ос (например отключили питание) испортит данные. Т.е. на время импорта создай файловую систему для таблиц отдельно, потом данные тупо скопируешь. Но если у тебя норм ssd или дисковый контроллер с хорошим кешем, то это не актуально.

    И если говорить об самым экстремально большом ускорении, размести файлы базы в tmpfs (оперативка, сотня гигабайт сейчас даже дома не проблема)... Можно для этого арендовать в облаке vps-ку, но желательно в этом же датацентре, а то копировать сотню гигабайт может быть долго. И да, следи за тем что бы была та же архитектура процессора и версия mysql
    Ответ написан
    Комментировать
  • Какой бтс кошелек поддерживает импорт приватного ключа?

    @rPman
    Electrum умеет, при создании нового кошелька он спросит какой тип кошелька выбрать, насколько лет назад там прекратили поддержку смешанных кошельков, т е. либо импорт приватников либо Сид.
    Ответ написан
    Комментировать