Задать вопрос
  • Как понять что не так с SSD?

    Zettabyte
    @Zettabyte
    Проф. восстановление данных ▪ Вопрос? См. профиль
    175 (SMI Program fail count in worst die) - какое-то гигантское число, более 600 триллионов))

    Используемая вами программа некорректно интерпретирует SMART.

    Для SSD Intel атрибут 175 (AF / AFh) - это Power Loss Protection Failure.
    Интерпретируется он вот так:
    • Last test result as microseconds to discharge cap, saturates at max value. Also logs minutes since last test and lifetime number of tests.
    — Raw value:
    Bytes 0-1: Last test result as microseconds to discharge cap, saturates at max value. Test result expected in range 25 <= result <= 5000000, lower indicates specific error code.
    Bytes 2-3: Minutes since last test, saturates at max value.
    Bytes 4-5: Lifetime number of tests, not incremented on power cycle, saturates at max value.
    — Normalized value:
    Set to 1 on test failure or 11 if the capacitor has been tested in an excessive temperature condition, otherwise 100.

    debconf: Fatal IO error 11 (Resourse temporarly unavailable) on X server :0

    Ошибка вообще похожа на какие-то проблемы с выводом на дисплей или графикой, возможно, Wayland. Но я не очень силён в этих моментах.

    что теперь с ним делать: на помойку или как-то можно исправить

    Можете подключить этот ССД другим SATA-кабелем к другой машине с Windows?

    Вы ставите ОС, как я понимаю, важных данных на диске нет. Хорошо бы сделать сначала полный тест записи (уничтожит всю информацию), затем полный тест чтения (именно Read).
    Это можно сделать в нашей программе для тестов (бесплатная, без установки), либо другой "не попсовой", которой вы доверяете.
    В R.tester'e графики можно сделать максимально детальными, это даст хорошее представление о состоянии памяти.

    Также можете показать S.M.A.R.T. целиком, если сомневаетесь в ещё каких-либо параметрах. Р.тестер это тоже умеет, к тому же мне было бы интересно посмотреть на его output для семейства DC S3500.

    Очень жалко диск, если придется выбрасывать, вроде это довольно хорошая модель для серверных нужд...

    Именно так.
    ССД выглядит весьма стОящим, особенно на фоне китайщины и массовых моделей на дешёвой памяти. Да и Интел, как-никак.
    DC S3700 был бы ещё лучше, из-за более высокого ресурса (DWPD / TBW), но и этот очень даже неплох.
    Ответ написан
    1 комментарий
  • Какие БД используют крупнейшие торговые сети для хранения заказов?

    mayton2019
    @mayton2019
    Bigdata Engineer
    Я полагаю, что такие магазины сохраняют всё, например в postgres или greenplum, а затем передают в аналитические базы (или пишут параллельно), типа в кликхаус или oracle?


    XX век прошел под флагом реляционных СУБД. Вокруг них строились все системы.
    Для любой банковской системы БД - абсолютная царица дизайна. Именно от нее шло
    техническое задание. От базы а не от Хибернейта и синтетических таблиц как щас.
    Таблицы любили. Вокруг них строили красивые теории. Модели. EAV. Подгоняли
    аппарат алгебры (Эдгар Кодд со своими формочками).

    В появлением NoSQL и стриминговых систем - пришлось всем признать что реляционка
    исчерпала возможность линейного роста. У Майкла Стоунбрейкера есть статья где
    он меряет БД под нагрузкой и доказывает что треть ресурсов CPU просто сгорает
    в блокировках и защелках и прочих механизмах синхронизации.

    Какой софт использует розничная торговля - сложно сказать. Там будет десяток систем которые
    работают просто всместе как Grid. Например сообщения от кассовых аппаратов и платежных
    систем могут в первую очередь падать в JMS/MQ систему. А уже потом процесситься и ложиться в
    БД операционного дня. И по проишествии периода - сливаться Warehouse и в BigData
    Есть еще вариант что в аналитику сразу попадают данные со стриминга. Я такое видел.
    И это не последняя часть стека. Аналитика в свою очередь является источником для всяких
    BI, витрин данных. ОЛАП-кубиков и прочее что любят смотреть и показывать на презентациях.
    С красивой инфографикой.

    Что использует Магнит - чорт его знает. Это можно поискать по всяким конференциям. Но само
    знание или название продуктов вам ни о чем не скажет. Если они используют допустим
    Kafka+Clickhouse - из этого не следует что вам это пригодится.

    Были странные архитектурные решения. Uber например пытался выжать максимальные мощности
    из Postgres и не смог. Перешел на MySQL. Видимо им было достаточно MyISAM и брали лишь
    только те фичи что надо.

    Facebook строил Rocksdb (Key-Value) с очень сильной оптимизацией по диску. Там уже было
    не R+Tree а другой тип дерева. Тоже видимо у конторы так "пригорело" что им надо было
    штучную NoSQL делать.

    СБЕР по слухам строил на Apache Ignite прослойку между Ораклом и клиентами потому что Оракл
    не справлялся с нагрузками. Впрочем я не могу это нигде доказать. Просто слышал в разговорах
    архитекторов. И это очень штучное и очень деликатоное решение. Другим оно может вообще не подойдет.
    Нужно много думать о механике инвалидации кешей.

    Хедж фонд BridgeWater строит свои хранилища ассетов на базе Amazon S3. Реально эти ребята пихают
    в С3 все что можно. И в этом есть своя стратегия. S3 стоит дешево. И масштабируется. Дешевле чем DBMS.

    Также, я думаю, что множество магазинов могут быть обслуживаться отдельными кластерами, чтобы работа всей сети не остановилась, если какая та БД выйдет из строя?

    Эту задачу тоже можно решать на разных уровнях. Мне нравится решение от Cassandra. Там все
    таблицы имеют 1-2 реплики. И убить всю систему в целом в принципе невозможно пока последний
    датацентр стоит. Но Кассандра платит за это отказом от consistency и вообще она считается не-реляционкой.
    Хотя базовый диалект SQL поддерживает. Фактически она - умный NoSQL c хорошим сетевым протоколом
    обхода сбоев и конфликтов. Кажется Netflix ее активно использует.

    Вобщем можно дизайнить системы по разному усиливая одни части и ослабляя другие.
    Это как тот треугольник дешево-медленно-дорого но в углах стоят разные качества. Например
    CAP-свойства систем. Или приоритеты. Тебе что важно. Быстро записать в БД платеж? Но при этом
    чтение оперативных данных потребует лагов. Или наоборот писать медленно зато чтоб все по ящичкам
    и по коробочкам лежало да и еще в разных копиях и вариациях.
    Ответ написан
    10 комментариев
  • Как автоматизировать установку и настройку VPN сервера?

    @Drno
    bash скрипт с набором нужных команд. Либо Ансибл - если надо массово устанавливать(хотя можно и parallel-ssh использовать)

    Vless элементарно упаковывается в докер. Нужный файл json монтируется в файле docker-compose yml

    Итого...
    ставим нужный софт - докер,компос, fail2ban итд по желанию
    копируем файлы для докер компос
    стартуем docker-compose up -d -f my.yml

    всё...

    краткий пример yml -
    version: '3'
    services:
      xray-turk:
        image: teddysun/xray:latest
        volumes:
          - /opt/xray-turk/config.json:/etc/xray/config.json
          - /opt/xray-turk/geosite.dat:/usr/local/share/xray/geosite.dat
        ports:
          - "443:443"
        restart: unless-stopped


    краткий bash для установки софта (который лично мне нужен) (да я знаю что там старый докер, но меня устраивает) -

    #!/bin/bash
    
    # Обновление пакетов
    sudo apt-get update -qq && sudo apt-get install jq fail2ban mc htop vnstat wget git curl rsync apt-transport-https ca-certificates software-properties-common -qq -y;
    
    # Добавление ключа репозитория Docker
    curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo apt-key add -
    
    # Получение кодового имени текущей версии Ubuntu
    codename=$(lsb_release -cs)
    
    # Добавление репозитория Docker
    sudo add-apt-repository -y "deb [arch=amd64] https://download.docker.com/linux/ubuntu $codename stable";
    
    # Обновление пакетов после добавления репозитория
    sudo apt-get update;
    
    # Установка Docker
    sudo apt-get install docker-ce -qq -y;
    
    # Установка Docker Compose
    sudo curl -L "https://github.com/docker/compose/releases/download/1.29.2/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose
    
    # Добавление прав на выполнение для Docker Compose
    sudo chmod +x /usr/local/bin/docker-compose


    Желание комерческой поддержки - милости просим в ТГ )
    Ответ написан
    Комментировать
  • Как пробросить порты 443 и 25 одновременно на 2 сервера?

    Rsa97
    @Rsa97
    Для правильного вопроса надо знать половину ответа
    Для 443 (https) - реверс-прокси. Порт пробрасывается на него, а он уже перенаправляет запросы к серверам по имени в запросе.
    Для 25 (smtp) - всё принимается одним сервером и пересылается дальше по правилам маршрутизации почты.
    Ответ написан
    3 комментария
  • Как настроить нагрузоспособность Nginx из расчета процессоров для стабильной работы?

    Mike_Ro
    @Mike_Ro
    Python, JS, WordPress, SEO, Bots, Adversting
    Как настроить нагрузоспособность Nginx из расчета процессоров для стабильной работы?

    Т.к. четкого ТЗ не указано, то выдумаю свой конфиг, с 4 ядрами и 8 гигами оперативы, тогда следующие действия:

    Передадим параметры железа nginx-у, nginx.conf:
    worker_processes  4; # cores
    events {
        worker_connections  1024; # 1024 * 4 ram = 4096 (max all rps)
    }


    Настроим ограничения так, чтобы каждый ip мог делать не более 10 rpm (в минуту), nginx.conf:
    http {
        limit_req_zone $binary_remote_addr zone=mylimit:10m rate=10r/m;
    
        server {
            location / {
                limit_req zone=mylimit burst=20 nodelay; # we put no more than 20 requests in the queue over the limit (anti DDoS)
            }
        }
    }

    Эти настройки помогут контролировать общую нагрузку на сервер и предотвратят его перегрузку за счет ограничения количества обрабатываемых запросов как в целом (через worker_connections), так и на уровне отдельных IP-адресов (через limit_req_zone и limit_req). Это эффективный способ защиты от спама и DDoS, а также обеспечивает равномерное распределение ресурсов сервера между всеми пользователями.
    Ответ написан
    Комментировать
  • Что особенного в IP адресе 8.8.8.8?

    sergey-gornostaev
    @sergey-gornostaev
    Седой и строгий
    Многие провайдеры при истощении баланса перенаправляют все клиентские http-запросы на свою страничку с уведомлением о необходимости оплаты и каким-нибудь эквайрингом. Очевидно, что для их работы нужен работающий DNS, а зачастую ещё и доступ к CDN. Провайдеры поумнее оставляют доступ к своему DNS и запросы к CDN тоже через себя проксируют, но некоторые не заморачиваются и просто оставляют часть доступа в дикий интернет.
    Ответ написан
    3 комментария
  • Получится ли запитать MikroTik от блока питания ATX?

    @VuD Автор вопроса
    Всем спасибо за ответы, всё заработало.
    Маршрутизатор отлично работает от 12 V MOLEX'а, даже успевает загрузиться и установить соединение до того, как ОС на компе загрузится.
    Ответ написан
    Комментировать
  • Как настроить работу с историей команд в Linux?

    @sergiodev
    У меня так настроено в ~/.bashrc:

    # History search with Up/Down keys.
    if [[ $- == *i* ]]; then
        bind '"\eOA": history-search-backward'
        bind '"\e[A": history-search-backward'
        bind '"\eOB": history-search-forward'
        bind '"\e[B": history-search-forward'
    fi
    Ответ написан
    1 комментарий
  • Mikrotik: пропадает пинг до шлюза по кабелю. В чем может быть причина?

    hint000
    @hint000
    у админа три руки
    Посоветуйте пожалуйста куда копать
    Копайте в сторону конфликта IP-адресов (выдаваемых по DHCP).
    Например, когда 192.168.1.100 перестанет пинговать шлюз, то попробуйте со шлюза пинговать 192.168.1.100.
    И с разных других компьютеров пинговать 192.168.1.100.
    И если такой пинг пройдёт, то отключите (физически) 192.168.1.100 от сети и снова проверьте пинги до него с разных компов.
    Вдруг обнаружите, что кто-то по этому адресу отвечает, даже когда комп отключен от сети.
    Ответ написан
    3 комментария
  • Почему для скриптинга в шелле используется bash а не более современный язык программирования?

    saboteur_kiev
    @saboteur_kiev Куратор тега Linux
    software engineer
    Насколько я понимаю раньше шеллы использовались в качестве примитивных высокоуровневых языков. Сейчас у нас есть Perl, Python, nodejs, php...


    Ну давайте вместо рабочего стола пользователю дадим сразу Visual Studio, ведь какая разница как программу запускать - иконкой на рабочем столе, или форкать из высокоуровневого языка?

    shell - это оболочка операционной системы. То, что кроме графической есть еще и command line interface - это совершенно нормально и адекватно. И шелл позволяет пользователю и администратору работать в операционной системе гораздо удобнее, чем через язык программирования.

    То, что sh/bash и другие, настолько развиты что сами по себе являются неплохими языками программирования - это просто следствие того, что командый интерфейс и создавался тогда, когда каждый пользователь был немного программистом, и следствие того, что cmd line удобен для автоматизации просто по своей архитектуре.
    Поэтому Powershell, bash/zsh/ksh будут продолжать развиваться.

    Но ты можешь попробовать писать всю автоматизацию на любом другом языке программирования. И со временем немного столкнуться с тем, что скрипт, написанный на шелл 10 лет назад - просто работает, а скрипт написанный на питон 10 лет назад - несовместим.
    Ответ написан
    42 комментария
  • Линукс есть ли махонький dns сервер как альтернатива файлу hosts?

    fzfx
    @fzfx
    18,5 дм
    ещё не называли? кажется нет...
    unbound.
    Ответ написан
    Комментировать
  • Как подключить raspberry pi 3 одновременно на 2 а телевизора?

    @rPman
    Там только один коннектор hdmi, так что по простому никак.

    p.s. почему обязательно мучиться с малинкой? есть куча дешевых mitx материнок (я указал dsub и hdmi, можно перебрать варианты с dvi) со встроенным процессором, на порядок шустрее малинки, стандартным atx разъемом питания и потреблением в 10-20 ват в пике (можно купить бу atx блок питания за 300р и собрать корпус из картона, если надо сэкономить, так как основную стоимость в таком случае будет иметь красивый mitx корпус.. а так стоимость решения будет от 5т.р.)

    так как это стандартная материнка, с pci-e, можно найти ей максимально дешевую видеокарту и подключить хоть 5-6 мониторов
    Ответ написан
    Комментировать
  • Восстановление жестких дисков. Куда обращаться в Москве?

    Zettabyte
    @Zettabyte
    Проф. восстановление данных ▪ Вопрос? См. профиль
    Восстановление жестких дисков. Куда обращаться в Мск?

    Будем рады помочь в Москве: https://rlab.ru/hddrecovery/
    Работаем семь дней в неделю, находимся в центре, одна минута от метро. Также есть курьер. Занимаемся только data recovery с 2002 года, диагностика всегда бесплатная.

    На случай вопросов, в разделе "Контакты" есть полный набор способов связи (в т.ч. для консультаций с нашими инженерами) - от традиционных до соц. сетей и мессенджеров. Основные продублированы у меня в профиле.
    Либо можете писать мне.

    Полистал хабр с грустными историями когда плохие мастера все портят - не хочу так

    Увы, но сейчас это бич отрасли. Шарлатаны-однодневки вешают на свой сайт стоковые фото фармацевтических лабораторий и рассказывают про "восстановление данных от 1500 / 999 / 499 рублей".

    Потом диски после них приносят честным специалистам, в т.ч. нам. Вы всё верно написали - зачастую либо уже ничего не сделать, либо цена совсем не обрадует.
    Стараемся бороться, в рамках этого решили пожертвовать лучший тематический домен в зоне .РФ под памятку о компаниях по восстановлению информации. Москва или другая локация в данном случае не принципиальна - памятка короткая и универсальная.

    какая вилка цен вообще на восстановление данных?

    В честных компаниях стоимость зависит от сложности работ (тяжести повреждений).
    В не очень - от того, как вы одеты, на какой машине приехали, какие часы носите, какой у вас смартфон, что за накопитель принесли, в какой технике он был установлен, какого рода информацию нужно восстановить (личная / корпоративная).

    Для того, чтобы примерно оценить стоимость, нужно знать модель диска, что с ним случилось, что делали после этого, и симптомы.
    Люди обещающие фиксированную сумму, не видя диск, или даже на 100% гарантирующие восстановление заочно, часто обманывают, стараясь заманить вас к себе любыми способами.

    На всякий случай, вот наши цены на восстановление данных. Прайс-лист сделали максимально подробным.
    Оптимальный вариант - это диагностика в специализированной компании. В нормальных она бесплатная. Мы всегда стараемся делать её при клиенте, вы в это время можете, например, попить чай или кофе у нас на диванчике.
    Ответ написан
    Комментировать
  • Как понять на что расходуется память в linux?

    @unseriously
    не благодари:
    ps axo rss,comm,pid | awk '{ proc_list[$2] += $1; } END { for (proc in proc_list) { printf("%d\t%s\n", proc_list[proc],proc); }}' | sort -n | tail -n 10 | sort -rn | awk '{$1/=1024;printf "%.0fMB\t",$1}{print $2}'
    Ответ написан
    1 комментарий
  • Почему не работает Crontab в CentOS 7?

    shambler81
    @shambler81 Куратор тега Linux
    which python3.6
    И вставить получившийся полный путь
    КРОН НЕ имеет по умолчанию ПЕРЕМЕННУЮ PATH как следствие он не в состояние сам определить где лежит бинарник
    Ответ написан
    1 комментарий