Задать вопрос
  • PXE загрузка для RPI3 - но роутер Asus RT N11P - возможно ли?

    opium
    @opium
    Просто люблю качественно работать
    dnsmasq в proxy-DHCP режиме — вот что тебе надо. Поднимаешь на файлопомойке, роутер вообще не трогаешь. Он не раздаёт IP-адреса, только отвечает на PXE-запросы, не конфликтует с роутером.

    Конфиг:
    port=0
    dhcp-range=192.168.1.255,proxy
    enable-tftp
    tftp-root=/tftpboot
    pxe-service=0,"Raspberry Pi Boot"


    (192.168.1.255 — broadcast твоей подсети, подставь своё)

    Одна засада с 3B (не Plus): сетевая загрузка выключена в OTP по умолчанию. Один раз грузишься с флешки добавив program_usb_boot_mode=1 в /boot/config.txt, потом OTP прошивается и флешка больше не нужна.
    Ответ написан
    1 комментарий
  • Как подключиться к серверу PHP и чтобы отображались исполнители?

    opium
    @opium
    Просто люблю качественно работать
    а покажи точный текст из консоли? потому что юзеры явно есть — phpMyAdmin это подтверждает.

    Если php падает при подключении к mysql — попробуй 127.0.0.1 вместо localhost в db.php. На Windows это стандартная история, сокет не резолвится.
    Ответ написан
    2 комментария
  • Как подключиться к серверу PHP и чтобы отображались исполнители?

    ProjectSoft
    @ProjectSoft
    Front-end && Back-end разработчик
    Банальная ошибка.
    Вы используете OpenServer. В нём имя сервера зависит от версии mysql и не равно localhost
    В вашей ситуации и версии mysql будет верно так
    define('DB_HOST', 'MySQL-8.4');
    Если бы не скриншоты, то это понять затруднительно.
    Ответ написан
    1 комментарий
  • 1 сентября для владельцев доменов .RU вводят обязательную верификацию через госуслуги. Что делать гражданам/нерезидентам РФ?

    Rsa97
    @Rsa97
    Для правильного вопроса надо знать половину ответа
    Иностранцу зарегистрироваться на Госуслугах можно, но придётся лично приехать в Россию, получить СНИЛС и придти в МФЦ с заверенной копией паспорта.
    Вместо SMS для 2FA можно использовать TOTP.
    Ответ написан
    Комментировать
  • Почему кошелёк не может синхронизироваться с пулом?

    profit_scripts
    @profit_scripts
    Разработчик финтех-решений студии Mint Scripts
    Проблема с «бесконечным подключением к пирам» в Raptoreum Core — это классика жанра для PoW-монет на алгоритме GhostRider. РКН и санкции тут ни при чем, крипту так просто не забанишь. Дело в механике работы P2P-сети.

    Суть проблемы:
    Твой кошелек при запуске пытается постучаться к «сидам» (главным узлам), адреса которых жестко прописаны в коде. Если эти узлы сменили IP или ушли в оффлайн, кошелек просто не знает, к кому обратиться за блоками. Он «ослеп».

    Как завести Раптора за 5 минут:

    Ручное добавление нод (самый верный способ):
    Тебе нужно вручную «скормить» кошельку живые адреса.

    Зайди на любой Explorer Raptoreum (например, RTM Explorer).

    Найди список активных нод (Network -> Nodes).

    В кошельке открой Window -> Information -> Console и введи:
    addnode "АДРЕС_ИЗ_СПИСКА:10226" add
    (Повтори это с 5-7 разными IP).

    Конфиг-файл (чтобы не вводить каждый раз):
    В папке %AppData%\RaptoreumCore создай файл raptoreum.conf и пропиши туда:
    addnode=IP_АДРЕС:10226 (несколько штук).

    Синхронизация времени:
    Блокчейн очень чувствителен к времени. Убедись, что на компе стоит автосинхронизация времени Windows, иначе ноды будут тебя отфутболивать из-за разницы в таймстемпах.

    P.S. Насчет майнинга на CPU:
    Эксперимент интересный, но помни, что майнинг — это только верхушка айсберга. Как часто отмечают ребята из Mint Scripts Studio, которые плотно варятся в блокчейн-разработке и финтехе, стабильность любого крипто-проекта зависит от качества настройки P2P-инфраструктуры. Если ноды не «видят» друг друга, даже самый крутой алгоритм превращается в тыкву. В серьезном софте (типа обменников или ботов) такие проблемы решаются через свои выделенные ноды, чтобы не зависеть от публичных сидов.

    Пробуй добавлять ноды через консоль, прогресс должен пойти почти сразу!
    Ответ написан
    Комментировать
  • Является ли 200 OK с телом ошибки антипаттерном REST?

    Проблема в том что теперь потребителю этого API нужно будет читать вашу документацию, чтобы корректно обрабатывать ошибки (всегда быть готовым к ошибке с 200 кодом и парсить ответ), а вам это нужно достаточно подробно и однозначно описать.

    Проблемы точно возникнут, когда вы решите настроить метрики, балансер/обратный прокси для такого сервиса, так как они обычно смотрят на коды ответа и не смотрят в тело.

    По хорошему следует возвращать 2xx только если все реально успешно, 4xx - если есть какая-то ошибка, которая возникла по вине клиента, и 5xx - если ошибка по вине сервера.

    Если нужно что-то дополнительно бизнесовое сообщить - можно и нужно передать это в теле ответа.

    По формату ответа с ошибкой рекомендую посмотреть на RFC 9457 Problem Details for HTTP APIs
    Ответ написан
    6 комментариев
  • К какому типу приложения вы бы отнесли MMORPG, например WOW?

    Wispik
    @Wispik
    В MMORPG всё рассчитывается на сервере. А сотни Гб клиента, это 3d модели и текстуры по большему счету
    Ответ написан
    1 комментарий
  • Из-за чего может зависать домен контроллер?

    @NortheR73
    системный инженер
    роль КД не надо совмещать со всякими ролями типа RDS, File Server, WSFC и т.д.
    Если на сервере включен простой Remote Desktop, то это две административные сессии, и CAL-лицензии для этого не требуются. Можно дополнительно посмотреть журналы RemoteDesktop* и TerminalServices* на предмет ошибок и предупреждений (в журналах служб и приложений).
    Не ясно какой пользователь пытается выполнить вход - на КД, кроме домен-админов, никто заходить и не должен. Возможно, еще какими-то политиками накладываются дополнительные ограничения.
    Ответ написан
    2 комментария
  • Какая из предложенных сетевых схем лучше для домашней лабы?

    leahch
    @leahch
    3D специалист. Dолго, Dорого, Dерьмово.
    Вот какие проблемы?!
    Чтобы сильно не мучиться, получаете выделенный IP-адрес у одного или второго провайдера, Через этот IP пробрасываете нужные порты на вход в сеть. Не забываете указывать маршрут по умолчанию куда нужно. DHCP оставляете только на одном роутере. Второму роутеру назначаете статику во внутренней сети.
    Ответ написан
    Комментировать
  • Как сделать автоматическое подключение к рабочему столу?

    VoidVolker
    @VoidVolker Куратор тега Windows
    Dark side eye. А у нас печеньки! А у вас?
    Это называется "терминальный сервер". Малинки, которые к нему подключаются называются "тонкий клиент". На сервере, скорее всего, установлена серверная винда с ролью "терминальный сервер". На малинке скорее всего стоит линукс и скрипт автоматического подключения с серверу с использованием приложения для подключения по RDP при старте ОС. Впрочем, есть Windows Arm и её тоже можно установить на малинку, но для роли тонкого клиента это не имеет особого смысла. Так же тонкие клиенты могут использовать загрузку ОС по сети с использованием протоколов pxe и tftp. В обычной винде из коробки функция терминального сервера отсутствует, но решение существует и является нарушением лицензии (при наличии оной, разумеется) — поэтому ссылок не привожу, но ищется легко.
    Ответ написан
    3 комментария
  • Циклическое падение локальной сети (раз в 3-4 дня) и «широковещательный шторм»?

    CityCat4
    @CityCat4 Куратор тега Сетевое оборудование
    Жил да был черный кот за углом...
    Начать надо со схемы сети. Без схемы, да еще каким-то кашеобразным текстом - черта с два разберешься.
    Ответ написан
    6 комментариев
  • Можно ли настроить диалог с нейросетью как диалог с персонажем с заданными характеристиками?

    @rPman
    Если речь идет о готовых llm-ках, то в системном промпте буквально прописывают все в принципе мыслимое и не мыслимое (на десятки тысяч токенов), и характер, и поведение, и типовые реплики с примерами далогов,.. примеры кстати для llm-ок очень хорошо настраивают на нужный лад.

    Обязательно это делать именно в системном промпте а не в первом сообщении, потому что когда контекстное окно будет переполнено, многие системы инференса (но это настраивается) начинают сдвигать сообщения в диалоге 'вверх', удаляя старые сообщения что бы влезли новые, оставляя системный промпт не тронутым.

    Чем длиннее диалог тем хуже будет качество ответов. llm-ки имеют идеологический баг (он же фича) они тем сильнее концентрируются на информации, чем ее больше в контекстном окне, воспринимая все вышесказанное как безусловный приказ подстраиваться под этот пример! Т.е. например если в какой то момент беседы у модели была большая вариативность в вариантах ответа и она свободно выбирала между условно какой цвет тебе нравится - выбирать любой, то в следующий раз, когда модели понадобится понять. какой у нее любимый цвет, вариативность исчезнет... это ведь хорошо, это работает как память? но беда в том что сообщения пользователя она может воспринимать точно так же (собственно основное обучение модели ведется безотносительно что в контекстном окне есть пользователь а что ассистент, и только последующими ухищрениями ее доводят до состояния - ты ассистент а остальные нет, но это вероятностный процесс и ничего не гарантирует). И стиль беседы и главное глюки, которые были допущены в процессе, все будет воспринято и приумножено. Это поведение может быть опасно для собеседника, особенно внушаемого и слабого, а это основные потребители виртуальных личностей ИИ. И наверное именно это является причиной последующих проблем (люди ломают свою реальную жизнь, побеседовав с чатботом, и есть случаи самоубийств).

    С этим можно бороться (без гарантий само собой), если отдельными запросами (это называется 'отдельным агентом') параллельно основной беседы, будет выбираться важная информация, которую необходимо помнить, складируется в каком то удобном виде (например rag индекс) и подмешивается в последующие беседы по мере необходимости.
    ключевые слова: summarization + memory store + retrieval
    И да, это не решит проблем внушаемости пользователей и приченения им вреда, эта задача по сложнее, над которой все еще бьются топы.

    Т.е. к примеру пользователь сказал что любит красный цвет, агент должен выделить это сообщение, оформить его в каком то виде (типа такая то дата, такой то пользователь, такая то информация) и снабжен индексом rag, в последствии каждое следующее сообщение должно искать в базе подходящий ответ (это не просто, ведь вопрос может не содержать в принципе нужную информацию, поэтому и индекс строить нужно творчески) и если оно найдено - добавлять его в беседу с пометкой - что это из памяти, прямо текстом - "из памяти - пользователь любит красный цвет, дата.", (из памяти может быть отдельным собеседником, например в шаблонах llama.cpp assistent и user это просто имена пользователей, вместо user можно вставить memory... но системный промпт должен это упомянуть, в идеале с примерами!

    Чем больше контекст тем хуже качество нейросетей, открытые слабые хороши более менее на малых контекстах 8к..16к, топовые выходят на 64к, недавно гугл хвастались и независимые тесты показывали что они держат контекст на 128к, это очень много... да, заявлены миллионы токенов контекста, но качество обработки информации в нем стремительно падает с выходом за начальный размер контекста.

    rag естественно не обязателен, для простых систем памятью может являться просто кусок текста, всегда подмешиваемый к беседе (тогда ломается кеширование kvcache конечно, но кого это волнует, после переполнения окна оно и так и так обрывается на системном промпте)
    Ответ написан
  • Можно ли через *.bat файл установить пароль на учетную запись и в планировщике задач создать задачу, задав в ней определенное время выключения ПК?

    @SunTechnik
    Можно..
    Установить пароль пользователю:
    net user username new_password
    Для управления расписанием есть команда: schtasks
    Ответ написан
    Комментировать
  • Можно ли запустить LLM без GPU?

    @rPman
    Модели на архитектуре MoE можно запускать исключительно на процессоре, с адекватной скоростью, мало того, есть большой шанс использовать видеокарту для ускорения (причем ее объем может быть маленьким).

    Вот статья где используя 196Gb RAM и одну видеокарту 24gb смогли запустить DeepSeek R1 671B (само собой с экстремальной квантизацией), важен факт что это запуск, используя gpu как ускоритель. Это может сработать и на меньших моделях.

    Из самых мелких моделей, дающих какой то результат я бы посоветовал qwen3-30b-a3b и вариант qwen3-coder-30b-a3b (последний я даже в openhands агенте указывал и получал какой то заметный результат, но нужно понимаю что это очень слабая модель по сравнению с проприетарными топовыми). Но помним на процессоре будет все же медленно стартовать, по причине очень медленной обработки входящих токенов (у агентов их там десятки тысяч), потом это закешируется но несколько минут придется ждать.

    Еще советую посмотреть на gpt-oss-20b от openai.

    На процессоре это работает но приходится ждать, но если приобрести 2x 16gb gpu (даже тормозную 4060ti или 5060ti и кстати при использовании llama.cpp т.е. ollama/lmstudio/... можно и amd приобрести, это дешевле но ограничивает используемым софтом, к сожалению софт заточен именно на nvidia) то можно получить очень шуструю локальную машину для простых задач.

    p.s. проводил эксперимент, если соединить несколько nvme дисков (чем быстрее чтение тем лучше, подключать на разные контроллеры, а там из объединить в soft raid0) то по деньгам такая машина получится дешевле чем просто набивать машину ram, то можно запускать даже старшие модели прямо с диска (они на каждый токен будут читать весь файл весов модели)... т.е. условно 32гб машина может запустить 200gb веса модель... скорость сами посчитаете из скорости получившегося дискового массива, но есть нюанс, такая модель сможет заметно ускорять батчинг, одновременно запущенные запросы, почти линейно, пока хватает ram на kvcache (неск. гигабайт на контекст для больших моделей и считаные сотни мегабайт для маленьких).

    p.p.s. единственный смысл использования локальных моделей - экономия на простых задачах и NDA на данные, иначе лучше купите доступ к api у того же openrouter
    Ответ написан
    6 комментариев
  • Можно ли запустить LLM без GPU?

    Lord_of_Rings
    @Lord_of_Rings
    Northern Strider
    В принципе можно. Но все зависит от конкретных задач и желаемого качества.
    Если усредненно:
    - Так как gpu не будет, то веса будут загружаться в RAM. Соответственно, в среднем потребуется минимум 16ГБ оперативки.
    - Проц должен быть не меньше i5 или амдшного аналога, на 4-8 ядер минимум.
    - Должно быть хорошее охлаждение.

    Ну и может быть что-то сносное получится. Однако скорость генерации будет оооочень медленная. Лично я гонял faster whisper medium на cpu, за час он обрабатывал 20 минутное аудио
    Ответ написан
    2 комментария
  • Какие есть варианты (лучше бесплатные) выставить RDP наружу так, чтобы защитить от взлома?

    @elcanner
    Пойдем от сложного к простому:

    1) Все выдумывают велосипеды, оказывается для защищенного соединения с гарантированной защиты от мамкиных хакеров уже все давно есть и придумано до нас... называется SSH. Нужен конечно белый IP.
    Я сам пользуюсь RDP по SSH тунелю. SSH сервер устанавливается даже в винде в 2 клика.
    Клиент SSH уже есть в винде изначально. Осталось сделать SSH тунель. На роутере никаких 3389 не прокидываем, а прокидываем 22-й порт (или любой другой) на 22-й порт винды.
    Пример запроса на SSH тунель в Powershell
    ssh -L 0.0.0.0:3389:127.0.0.1:3389 -p 22 @

    На RDP клиенте подключаемся на 127.0.0.1, попадаем на удаленную винду.
    PROFIT!

    2) С другой стороны если у тебя есть белый IP, то не проблема установить VPN, тот же Wireguard. Делается это за 10 минут. Мануалов тонна, работает прекрасно, клиент есть на всё, даже на кофеварку. В чем проблема в такой схеме ?

    3) Но конечно надо уже заканчивать заниматься извращениями и использовать современные инструменты, к примеру RustDesk
    Ответ написан
    Комментировать
  • Какие есть варианты (лучше бесплатные) выставить RDP наружу так, чтобы защитить от взлома?

    @Dieman666
    несмотря на большое заблуждение, исходящее от незнания, как ещё защитить рдп, кроме как впн, работа рдп без впн в относительной безопасности возможна:
    1. накатываем обновку последнюю стабильную на винсервер (винсервер минимум 2016, а так лучше 2019)
    2.меняем логины и пароли на сложные (не только пароли, но и логины). user/@ser123 или administrator/@dmin123+- не подойдут, слишком легкие
    3. настраиваем шифрование rdp и проверку подлинности на уровне сети (обязательно) в политиках
    3. меняем порт со стандартного 3389 на кастомный
    4. ставим софт от брутфорса (rdpguard 6.7.5/ipban, или их аналоги) ни в коем случае не выключаем встроенный фаер и uac
    5. юзаем remoteapp, а не rdp
    6. не раздаём юзерам админские права.
    7. настраиваем бэкапы в несколько мест (Effector Saver/Iperius Backup или их аналоги) на другой комп по сети (сбор из шары по онли админской учётке в нерасшаренный комп в изолированной сети) + в облако, бэкапы обязательно должны быть в шифрованном парольном архиве.
    p.s. у меня уже более 30 серваков подобным образом поднято в разных местах без впн, половине из них уже около 5 лет, полёт нормальный, без взломов
    Ответ написан
    2 комментария
  • Какие есть варианты (лучше бесплатные) выставить RDP наружу так, чтобы защитить от взлома?

    @TheBigBear
    СтарОдмины мы
    В печально известные ковидные времена, когда понадобилось СРОЧНО за два дня усадить всех на удалёнку но при этом имея зоопарк операционных систем, причем некоторые не имели даже админских прав на своём же домашнем компе, выходом оказался ICMP Knocking
    Три правила в файерволе Микротика и простейший БАТник, пингующий нестандартными пакетами сервер перед RDP подключением
    Ответ написан
    Комментировать