Задать вопрос
  • Странные ссылки в поиске Google на Хабр. Какие идеи?

    SLIDERWEB
    @SLIDERWEB
    ИТ-Куроводитель
    Я сталкивался с таким. Та мой домен ссылалась куча мусора. На ДНС у меня было прописано:
    * CNAME @

    И естественно все запросы летели на мой домен, но не совсем.
    Я перешел по одной из ссылок и о чудо — я перешел на какой-то сайт на юкозе. Поласил по сайту, и нашел код, который делал следующее:
    — Получал на вход ссылку вила SELF_URL.ATTAK_URL
    — Загружал SELF_URL с рекламой или СЕО-спамом, а во фрейме подгружал ATTAK_URL.

    Первым делом я убрал ДНС-запись (временно).
    Ручками перелопатил первый TOP-50 подобных ссылок и тупо забанил подсети. Написал письмо хостеру (около 90% мусорных сайтов хостилось на одной площадке). Поправил немного robots.txt (запретил доступ нереальным юзерагентам) + настроил IPS на роутере в части HTTP/DNS/DoS.
    И как то забы(и)л об этом.
    Спустя 3 месяца вспомнил и решил проверить — все хорошо, ссылок больше нет.
    Особо не углублялся в вопрос, но думаю цель здесь одна — прокачка своего домена чужим трафиком.
    Ответ написан
    Комментировать
  • Ошибка в nginx, не пойму в чем проблема?

    VBart
    @VBart
    Ну вот, сами донастраивались:
    Ваш putit.ru:
    upstream putit {
        # Адрес back-end'a
        server putit.ru:8080;
    }

    server {
        listen 80;
        server_name www.putit.ru putit.ru;

        access_log /home/username/domains/putit.ru/logs/nginx_access.log;
        error_log /home/username/domains/putit.ru/logs/nginx_error.log;

        # Перенаправление на back-end
        location / {
             proxy_pass backend;
             include /etc/nginx/proxy.conf;
        }

        ....
    }

    Ваш proxy.conf:
    proxy_redirect off;
    proxy_set_header Host $host;
    proxy_set_header X-Real-IP $remote_addr;
    proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
    client_max_body_size 10m;
    client_body_buffer_size 128k;
    proxy_connect_timeout 90;
    proxy_send_timeout 90;
    proxy_read_timeout 90;
    proxy_buffer_size 16k;
    proxy_buffers 16 16k;
    proxy_busy_buffers_size 64k;
    proxy_temp_file_write_size 64k;
    Ответ написан
    1 комментарий
  • Подскажите сервис для разработчиков

    @Dimusik
    Ко всему вышесказанному можно добавить ActiveCollab. Добротная, легкая система.
    Ответ написан
    Комментировать
  • FreeBSD tzdata?

    Nastradamus
    @Nastradamus
    #cd /usr/ports/misc/zoneinfo
    #make install clean
    #tzsetup

    Как-то так, если память не изменяет. :)
    Ответ написан
    Комментировать
  • Необходимо решение, которое в случае неработоспособности одного сервера, перенаправит входящий трафик на другой сервер?

    shadowalone
    @shadowalone
    В вашем, конкретном, случае, только настроить через DNS, потому как:
    1. Вы не хотите ставить дополнительное оборудование.
    2. Сервера в разных сетях.

    Сделать короткий TTL для A записи, скажем 3-5 минут. На DNS сервере повесить скрипт в крон, или демон, который будет проверять доступность первого сервера и в случае недоступности, менять A запись в доменной зоне на IP второго сервера и перечитывать зону, при возвращении к к жизни первого сервера, соответственно менять обратно.

    максимальные задержки = TTL*2
    Ответ написан
    2 комментария
  • Nginx, ограничение трафика по referer?

    maxout
    @maxout
    блокировать все рефереры не от вашего сайта, конечно, не очень хорошо.
    решение в лоб:
    1. создаёте полный дубль вашего основного location (там где происходит обработка php или что у вас там), называете его как хотите.
    2. в этот дубль добавляете единственное отличие — ставите туда limit_req (limit_req_zone настраиваете по вкусу).
    3. в секцию server добавляете внутренний(!) редирект на дублированный location если реферер не ваш.
    4. profit!
    Ответ написан
    Комментировать
  • SMART и диски за контроллером LSI Logic SAS Mega Raid в FreeBSD

    opium
    @opium
    Просто люблю качественно работать
    Обычно в вебоболочке контроллера можно было глянуть смарты всех винтов.
    Ответ написан
    9 комментариев
  • SMART и диски за контроллером LSI Logic SAS Mega Raid в FreeBSD

    @goletsa
    Имхо стоит купить замену винту, просто так оно не стало бы ругаться.
    Под фрей есть еще mfiutil но я не нашел как через нее смарт вытащить.
    Ответ написан
    Комментировать
  • SMART и диски за контроллером LSI Logic SAS Mega Raid в FreeBSD

    DmZ
    @DmZ
    Попробовать megasasctl. Он умеет выводить логи смарта и запускать тесты.
    Ответ написан
    2 комментария
  • Почему GParted не видит разделы диска?

    @zeleniy87
    Однажды, после некоторых действий, я повредил таблицу разделов на жёстком диске

    можно поинтересоваться каких?
    Я бы посоветовал сделать бэкап важных файлов и отформатироваться как нужно, а то немного стремно получается.
    Ответ написан
    3 комментария
  • Выбор файловой системы для внешнего HDD (Linux + Windows)?

    ahromenko
    @ahromenko
    Таскаю с собой 320 ГБ съемник, система NTFS, везде работает, и в Убунте и на Винде
    Ответ написан
    Комментировать
  • Выбор файловой системы для внешнего HDD (Linux + Windows)?

    marcus
    @marcus
    Так ведь NTFS-3G драйвер включен в дистрибутивы Линукса по умолчанию, стало быть NTFS.
    Ответ написан
    1 комментарий
  • Какой подход к контролю кронов Вы используете?

    Wott
    @Wott
    имхо скрипт должен молчать если все хорошо и информативно ругаться, если что-то не так. Соответвенно на мыло приходит информация если надо что-то че-нить.
    Регулярная инфа скидывается в BD для статистики, графиков и прочего в админке.
    Ответ написан
    2 комментария
  • Какой подход к контролю кронов Вы используете?

    @bondbig
    хм, как правило, добавляю в скрипт, запускаемый по крону, проверку успешности выполнения, if успешно — молчим, else — уведомление на мыло. Или у вас как раз неуспешных тонны?
    Ответ написан
    5 комментариев
  • Выбор неттопа и хостинга под сервер?

    BlackWizard
    @BlackWizard
    А не проще взять нормальный сервак, чем извращаться с неттопом? www.hetzner.de/de/hosting/produkte_rootserver/x2/
    Ответ написан
    2 комментария
  • FreeBSD и ZFS

    @Dyr
    На домашнем сервере (Cel3300, 2Gb, 4xWD EARS 2Tb; FreeBSD 8.1 amd64) использую ZFS в конфигурации 4xRAID1 и RAID10:

    root@server:/usr/local/etc (1768) zpool status
      pool: storage
     state: ONLINE
     scrub: none requested
    config:
    
            NAME                 STATE     READ WRITE CKSUM
            storage              ONLINE       0     0     0
              mirror             ONLINE       0     0     0
                gpt/storage0     ONLINE       0     0     0
                gpt/storage3     ONLINE       0     0     0
              mirror             ONLINE       0     0     0
                gpt/storage1     ONLINE       0     0     0
                gpt/storage2     ONLINE       0     0     0
    
    errors: No known data errors
    
      pool: zroot
     state: ONLINE
     scrub: none requested
    config:
    
            NAME             STATE     READ WRITE CKSUM
            zroot            ONLINE       0     0     0
              mirror         ONLINE       0     0     0
                gpt/system0  ONLINE       0     0     0
                gpt/system2  ONLINE       0     0     0
                gpt/system3  ONLINE       0     0     0
                gpt/system1  ONLINE       0     0     0
    
    errors: No known data errors
    


    Диски разбиты вот так (сделан отступ в 2 Мбайта в начале диска для исправления проблем AdvancedFormat у WD EARS винтов):

    root@server:/usr/local/etc (1771) gpart show
    =>        34  3907029101  ada0  GPT  (1.8T)
              34        2014        - free -  (1.0M)
            2048         128     1  freebsd-boot  (64K)
            2176     8388608     2  freebsd-swap  (4.0G)
         8390784    41943040     3  freebsd-zfs  (20G)
        50333824  3856695311     4  freebsd-zfs  (1.8T)
    
    =>        34  3907029101  ada1  GPT  (1.8T)
              34        2014        - free -  (1.0M)
            2048         128     1  freebsd-boot  (64K)
            2176     8388608     2  freebsd-swap  (4.0G)
         8390784    41943040     3  freebsd-zfs  (20G)
        50333824  3856695311     4  freebsd-zfs  (1.8T)
    
    =>        34  3907029101  ada2  GPT  (1.8T)
              34        2014        - free -  (1.0M)
            2048         128     1  freebsd-boot  (64K)
            2176     8388608     2  freebsd-swap  (4.0G)
         8390784    41943040     3  freebsd-zfs  (20G)
        50333824  3856695311     4  freebsd-zfs  (1.8T)
    
    =>        34  3907029101  ada3  GPT  (1.8T)
              34        2014        - free -  (1.0M)
            2048         128     1  freebsd-boot  (64K)
            2176     8388608     2  freebsd-swap  (4.0G)
         8390784    41943040     3  freebsd-zfs  (20G)
        50333824  3856695311     4  freebsd-zfs  (1.8T)
    


    Проблема: низкая скорость чтения и записи у ZFS RAID10:
    Например, запись:

    dd if=/dev/zero of=/storage/test.file bs=1000M count
    1+0 records in
    1+0 records out
    1048576000 bytes transferred in 33.316996 secs (31472705 bytes/sec)
    


    Или чтение:

     dd if=/storage/test.file of=/dev/nulbs=1000M count=1
    1+0 records in
    1+0 records out
    1048576000 bytes transferred in 13.424865 secs (78107005 bytes/sec)
    


    systat при этом выглядит примерно так:

        2 users    Load  0,29  0,12  0,04                  19 окт 14:27
    
    Mem:KB    REAL            VIRTUAL                       VN PAGER   SWAP PAGER
            Tot   Share      Tot    Share    Free           in   out     in   out
    Act 1048432    7548  2771456    11732   87616  count
    All 1232436   10608 1076589k    29964          pages
    Proc:                                                            Interrupts
      r   p   d   s   w   Csw  Trp  Sys  Int  Sof  Flt        cow    4770 total
                 69      8556  20k  517  776  798  20k  20581 zfod    104 em0 uhci0
                                                            2 ozfod     5 uhci3 ehci
     9,7%Sys   0,0%Intr  0,0%User  0,0%Nice 90,3%Idle        %ozfod  1997 cpu0: time
    |    |    |    |    |    |    |    |    |    |    |       daefr       hdac0 257
    =====                                                     prcfr   667 ahci0 259
                                               dtbuf     3762 totfr  1997 cpu1: time
    Namei     Name-cache   Dir-cache    100000 desvn          react
       Calls    hits   %    hits   %     26371 numvn          pdwak
           2       2 100                 24996 frevn          pdpgs
                                                              intrn
    Disks  ada0  ada1  ada2  ada3   da0 pass0 pass1    429056 wire
    KB/t    128   128   128   127  0,00  0,00  0,00   1103516 act
    tps     156   173   188   145     0     0     0    368484 inact
    MB/s  19,51 21,62 23,48 18,03  0,00  0,00  0,00           cache
    %busy    18    35    35    16     0     0     0     87616 free
                                                              buf
    


    А с самих дисков читает вполне приемлимо:

    1073741824 bytes transferred in 9.673196 secs (111001764 bytes/sec)
    root@server:/usr/home/dyr (1769) dd if=/dev/gpt/storage1 of=/dev/null bs=1024M count=1
    1+0 records in
    1+0 records out
    1073741824 bytes transferred in 9.887180 secs (108599400 bytes/sec)
    root@server:/usr/home/dyr (1770) dd if=/dev/gpt/storage2 of=/dev/null bs=1024M count=1
    1+0 records in
    1+0 records out
    1073741824 bytes transferred in 9.736273 secs (110282635 bytes/sec)
    root@server:/usr/home/dyr (1772) dd if=/dev/gpt/storage3 of=/dev/null bs=1024M count=1
    1+0 records in
    1+0 records out
    1073741824 bytes transferred in 11.112231 secs (96627025 bytes/sec)
    


    В чём причина, не понимаю.

    vfs.zfs.l2c_only_size: 3535428608
    vfs.zfs.mfu_ghost_data_lsize: 23331328
    vfs.zfs.mfu_ghost_metadata_lsize: 20963840
    vfs.zfs.mfu_ghost_size: 44295168
    vfs.zfs.mfu_data_lsize: 0
    vfs.zfs.mfu_metadata_lsize: 0
    vfs.zfs.mfu_size: 11698176
    vfs.zfs.mru_ghost_data_lsize: 22306304
    vfs.zfs.mru_ghost_metadata_lsize: 8190464
    vfs.zfs.mru_ghost_size: 30496768
    vfs.zfs.mru_data_lsize: 512
    vfs.zfs.mru_metadata_lsize: 0
    vfs.zfs.mru_size: 20443648
    vfs.zfs.anon_data_lsize: 0
    vfs.zfs.anon_metadata_lsize: 0
    vfs.zfs.anon_size: 1048576
    vfs.zfs.l2arc_norw: 1
    vfs.zfs.l2arc_feed_again: 1
    vfs.zfs.l2arc_noprefetch: 0
    vfs.zfs.l2arc_feed_min_ms: 200
    vfs.zfs.l2arc_feed_secs: 1
    vfs.zfs.l2arc_headroom: 2
    vfs.zfs.l2arc_write_boost: 8388608
    vfs.zfs.l2arc_write_max: 8388608
    vfs.zfs.arc_meta_limit: 106137600
    vfs.zfs.arc_meta_used: 104179208
    vfs.zfs.mdcomp_disable: 0
    vfs.zfs.arc_min: 53068800
    vfs.zfs.arc_max: 424550400
    vfs.zfs.zfetch.array_rd_sz: 1048576
    vfs.zfs.zfetch.block_cap: 256
    vfs.zfs.zfetch.min_sec_reap: 2
    vfs.zfs.zfetch.max_streams: 8
    vfs.zfs.prefetch_disable: 1
    vfs.zfs.check_hostid: 1
    vfs.zfs.recover: 0
    vfs.zfs.txg.write_limit_override: 0
    vfs.zfs.txg.synctime: 5
    vfs.zfs.txg.timeout: 10
    vfs.zfs.scrub_limit: 10
    vfs.zfs.vdev.cache.bshift: 16
    vfs.zfs.vdev.cache.size: 10485760
    vfs.zfs.vdev.cache.max: 16384
    vfs.zfs.vdev.aggregation_limit: 131072
    vfs.zfs.vdev.ramp_rate: 2
    vfs.zfs.vdev.time_shift: 6
    vfs.zfs.vdev.min_pending: 4
    vfs.zfs.vdev.max_pending: 10
    vfs.zfs.cache_flush_disable: 0
    vfs.zfs.zil_disable: 0
    vfs.zfs.zio.use_uma: 0
    vfs.zfs.version.zpl: 4
    vfs.zfs.version.spa: 15
    vfs.zfs.version.dmu_backup_stream: 1
    vfs.zfs.version.dmu_backup_header: 2
    vfs.zfs.version.acl: 1
    vfs.zfs.debug: 0
    vfs.zfs.super_owner: 0
    


    Ещё немного раздражает наличие опций файловой системы sharesmb и sharenfs — понятно, что они в Solaris делают, но во FreeBSD, насколько я понимаю, они просто не работают.
    Ответ написан
    5 комментариев
  • FreeBSD и ZFS

    click0
    @click0
    Системный & сетевой архитектор
    Эксплуатирую ZFS на FreeBSD 9.0-CURRENT:

    1. raidz2 из 6 дисков + диск для системы — в основном файлопомойка, хранилище торрентов и бэкап-сервер via ftp
    2. raid 1 с загрузкой на ZFS — nginx+php+mysql
    3. одиночный диск ZFS — nginx+php+mysql

    При копировании большого количества мелких файлов ~30G в пределах одного пула система начинает тупить.
    Но тут уже приходится мирится или высокая скорость IO или временные тормоза при переполнении vfs.zfs.arс…
    Ответ написан
    Комментировать
  • Географически распределённый MySQL

    kashey
    @kashey
    Программирую большую половину жизни
    Если географическое разделение делается для ускорение доступа локальных пользователей( те к вынесеным серверам БД еще и бэкенды стоят) то самое лучшее это разделить бд на две части.
    Одна часть «ядро» которая частенько синхриться, второе — местно-географическое отпочкование, которое в неком роде самом по себе.
    И которое можно синхрить без паранои. Что сильно облегчает работу.
    Ответ написан
    Комментировать
  • Географически распределённый MySQL

    pentarh
    @pentarh
    Сейчас засматриваюсь на коммерческий DRBD-proxy по этому поводу.
    Ответ написан
    Комментировать