Задать вопрос
  • Пропадает пинг на коммутаторе, в чем может быть причина?

    @Dvach
    Генератор тупых вопросов и ещё более тупых ответов
    У меня был такой момент что камерам не хватало питания по PoE. Хотя и дистанция была небольшой. Как вариант - если есть PoE адаптеры попробовать через него и запитаться от розетки - если после этого проблема с камерой пропадёт - проблема в питании
    Ответ написан
    Комментировать
  • Пропадает пинг на коммутаторе, в чем может быть причина?

    @Drno
    Проверить суммарное потребление камер. Возможно оно превышает возможности свитча
    Проверить тестером провода, возможно где то обрыв\замыкание
    Ответ написан
    4 комментария
  • Не могу открыть свой новый сайт - как починить?

    sergey-gornostaev
    @sergey-gornostaev
    Седой и строгий
    На репликацию изменений в доменных зонах может потребоваться до суток.
    Ответ написан
    Комментировать
  • Какой iso качать amd64 amr64?

    paran0id
    @paran0id
    Умный, но ленивый
    amd64
    Ответ написан
    Комментировать
  • Какой iso качать amd64 amr64?

    Zoominger
    @Zoominger
    System Integrator
    amd64.
    ARM - это совершенно другая архитектура.
    Ответ написан
    Комментировать
  • Как синхронизировать проект с удалённым репозиторием?

    sergey-kuznetsov
    @sergey-kuznetsov Куратор тега Git
    Автоматизатор
    Ох уж эти трудности перевода)) remote обычно переводят на русский как удалённый. Но что если я захочу удалить remote? Удалить удалённый?
    Поэтому лучше говорить «внешний», чтобы не путаться. Мы работаем с локальным репозиторием, а все остальные по отношению к нему будут внешними. В Git нет централизации, все репозитории равноправны и могут обмениваться информацией в произвольных направлениях.

    Итак: у нас есть два внешних репозитория и хочется их синхронизировать? Без проблем.
    Можно использовать локальный компьютер как вспомогательный.

    Я сделал
    git init
    git remote add origin ....


    Начало уже нелогичное. Ты же говоришь что уже выкачал репозиторий с сервера?
    Т. е. выполнил git clone <server1>
    Это уже создало копию репозитория и init не нужен. А ещё это автоматически создало ссылку origin тоже.

    Дальше можно поменять адрес origin на второй сервер
    git remote set-url origin <server2>

    И сразу увидим в git status есть ли отличия.
    Хотя нет, вру. Надо после смены адреса скачать к себе заново внешние ветки командой
    git fetch
    Только тогда будет что сравнивать.

    Примерно так. Это первое что пришло в голову и пожалуй грубовато. Можно придумать более аккуратную схему.

    Я бы лучше не удалял старый remote, а добавил новый. То что ты «скачал с сервера» пусть так и останется как origin. А «удалённый» репозиторий обозначим как upstream
    git remote add upstream <server2>
    git fetch upstream

    Тогда мы сможем сравнивать любые ветки и синхронизировать.
    Ответ написан
    Комментировать
  • Низкая скорость загрузки после смены DNS?

    @Drno
    Проблема в вифи. Не в днс, он не влияет на скорость загрузки

    При использовании функции ретранлятор, скорость вифи автоматом делиться напополам. Это не считая соседей,помех,других клиентов на вашем вифи
    Может просто сигнал слабоват... в целом 70мб с ретранслятором это весьма неплохо
    Ответ написан
    5 комментариев
  • Как скачать файлы по списку URL, а затем переименовать их?

    ky0
    @ky0
    Миллиардер, филантроп, патологический лгун
    Берёте скрипт с циклом, который по очереди читает строчки и делает wget $1 -O $2. Если нет сложных случаев типа пробелов, спецсимволов и прочей бяки - это буквально пять строчек.
    Ответ написан
    2 комментария
  • Какой самый быстрый способ проверить доступность сайтов?

    ky0
    @ky0
    Миллиардер, филантроп, патологический лгун
    Задача какая-то то ли выдуманная из головы, либо впезапно энтерпрайзного порядка. Возникают закономерные вопросы - откуда взялись эти 250 миллионов? Зачем проверять их все? Зачем делать это ежедневно?

    Присоединюсь к предыдущим ораторам - сделать можно по-разному, хоть кёрлом в много потоков. Но ответы же надо куда-то складывать, полученные данные нужно как-то обрабатывать, демонстрируя статистику и т. д.

    Короткий ответ: "готовый софт есть - любой, способный совершить HTTP-запрос, получив код ответа".

    P.S. - 300-ые коды ответа не свидетельствуют о недоступности домена, имхо, их тоже нужно учитывать.
    Ответ написан
    4 комментария
  • Как записать данные из json_decode(file_get_content()) в переменную?

    ipatiev
    @ipatiev Куратор тега PHP
    Потомок старинного рода Ипатьевых-Колотитьевых
    $peremennaya = json_decode(file_get_contents());
    не благодарите
    Ответ написан
  • Почему некорректно считается req_limit?

    ky0
    @ky0 Куратор тега Nginx
    Миллиардер, филантроп, патологический лгун
    Давайте разберём самое начало процесса, когда запускается ab и в нгинкс примерно одновременно начинают лететь 80 запросов. Счётчики в этот момент по нулям, но выставлен лимит в 1000 rps, то есть запросы могут обрабатываться не чаще, чем раз в 1 мсек.

    По факту, внутрь провалятся ровно 1+10=11 запросов, а остальные 80-11=69 отобьются с 503 кодом - это даже больше 62%.

    В дальнейшем, поскольку запросы постепенно размажутся во времени, перестав приходить синхронно, процент отлупов снизится, но отнюдь не до ожидаемых вами (1026-1000)/1000*100%, потому что время от времени (и скорее часто, чем редко) запросы всё-таки будут приходить чаще, чем раз в 1 мсек (бурст в 10 rps можно не учитывать, он по сравнению с лимитом микроскопический) - на это намекает среднее время исполнения 0.974 мсек, делёное на 80 потоков.

    Попробуйте увеличить бурст, скажем, до 500-1000 и посмотреть, как это отразится на результатах.
    Ответ написан
    9 комментариев
  • Как правильно настроить iptables?

    hint000
    @hint000
    у админа три руки
    -A INPUT -i lo -j ACCEPT
    -A INPUT -p icmp --icmp-type  0 -j ACCEPT
    -A INPUT -p icmp --icmp-type  3 -j ACCEPT
    -A INPUT -p icmp --icmp-type  4 -j ACCEPT
    -A INPUT -p icmp --icmp-type 11 -j ACCEPT
    -A INPUT -p icmp --icmp-type 12 -j ACCEPT
    -A INPUT -p tcp  -m conntrack --ctstate RELATED,ESTABLISHED -j ACCEPT
    -A INPUT -p udp --dport 1194 -j ACCEPT
    -A INPUT -i tun+ -j ACCEPT
    -A INPUT -i tap+ -j ACCEPT
    -A INPUT -j DROP
    -A OUTPUT -j ACCEPT


    Upd. добавил про tun/tap
    Ответ написан
  • Почему PMA не дает приконнектиться?

    Pma и mysql в разных сетях. У pma так же должно быть
    networks:
          - app-network

    Или другая общая с mysql сеть
    Ответ написан
    1 комментарий
  • Как "распаковать" параметры из переменной в bash-скрипте?

    shambler81
    @shambler81 Куратор тега Linux
    ncdu посмотри, это типа htop только для du
    ncdu.png
    Ответ написан
    1 комментарий
  • Error 502. Проблема в коде сайта или в настройках сервера?

    art-zhitnik
    @art-zhitnik
    Разработка приложений Битрикс+Next.js+GraphQL
    Включите логирование в битриксе, может что-то прояснится
    Ответ написан
    Комментировать
  • Linux: как выполнить копирование части логов из файла в новый файл по нескольким фильтрам?

    saboteur_kiev
    @saboteur_kiev Куратор тега Ubuntu
    software engineer
    почитайте про sed, как раз под вашу ситуацию

    sed -n '/19:00,/21:00/{/11.11.11.11\/111/p}' file.log > newfile.log
    Ответ написан
    Комментировать
  • Возможно ли копировать полностью всю ОС Ubuntu через ssh?

    @rPman
    файлы заблокированные на чтение в linux есть точно так же как и в других системах, исторически любое резервное копирование предлагается (в любой ос) делать через создание снапшота (в linux это средствами lvm если он используется или при использовани cow файловых систем таких как btrfs/zfs/... прямо их средствами), снапшот является замороженным мгновенным снимком файловой системы, без ограничений по чтению.

    совершенно нормально, используя root копировать с помощью обычного cp (scp если по ssh) или rsync или к примеру tar -c . | ssh user@server tar -x скопирует все удаленно, завернув сначала в tar а на удаленной машине распаковав (с помощью ключей tar можно контролировать например файловую систему --one-file-system или передачу hardlink и symlink, например --dereference и --hard-dereference добавят в архив сам файл а не линк на него...)

    осторожно, в рабочей системе могут быть запущенные базы данных, копировать файлы которых на живую нельзя (не будет гарантий что будут корректно скопированы данные), такие базы нужно копировать средствами баз данных

    p.s. если же все же хочется скопировать систему как есть, а снапшоты недоступны, то лучше перевести диск в режим ro: mount -r remount,ro /dev/sd... и так с каждым разделом, на котором размещена система (тогда начнут отваливаться программы, пытающиеся делать запись) и уже получившиеся данные копировать
    в этом случае можно использовать partclone, умеет копировать раздел как dd но не передавая сектора, помеченные как свободные, что заметно быстрее (собственно это самый быстрый способ скопировать раздел)
    Ответ написан
    Комментировать
  • Как реализовать gitlab ci использую docker-compose?

    Если кратко то как то так.

    1. Образы БД брать из офф репозитория, подкидывать только файлы конфигурации если требуются через docker-compose.
    2. Образ приложения собирать либо на шаред раннерах, либо на своём раннере.
    3. Собранный образ пушить в репозиторий гитлаба.
    4. На сервере куда деплоить поставить гитлаб раннер, привязать к нему тэг.
    5. В докер композ указать в качестве имаджа репозиторий гитлаба/имяобраза:тэг
    6. В gitlab ci добавить 2 стейджа. 1 это сборка и пуш докер образов, 2 это выполнение на установленном раннере docker-compose up -d
    Ответ написан
    Комментировать