• Почему пользователь в группе администраторов домена не может получить доступ к каталогу, к которому у группы есть права доступа?

    Kenny00
    @Kenny00 Автор вопроса
    Alexey Dmitriev, Спасибо интересная особенность.

    Проверил, если по сети заходить, проблема не наблюдается \\fileserver\some-to-dir\Tender

    Дополню, вдруг кому пригодится
    Работа удаленных ограничений UAC
  • Почему пользователь в группе администраторов домена не может получить доступ к каталогу, к которому у группы есть права доступа?

    Kenny00
    @Kenny00 Автор вопроса
    А можете в 2 словах пояснить, почему?
    Создать группу супер администраторы домена, и в неё включить группу администраторы домена например?
  • Почему при входе на сетевой ресурс, регистр ресурса зависит в каком регистре набиралось имя сервера?

    Kenny00
    @Kenny00 Автор вопроса
    Станислав Макаров, это пример, суть в том, что при обращении, происходят чудеса с регистром.
  • Почему при входе на сетевой ресурс, регистр ресурса зависит в каком регистре набиралось имя сервера?

    Kenny00
    @Kenny00 Автор вопроса
    Drno, ну это конечно понятно))
    Но меня интересует, больше почему при обращении в разных регистрах, разный вывод))
  • Как исправить потерю пакетов при подключении напрямую к железке?

    Kenny00
    @Kenny00
    Есть управляемый коммутатор? подключиться через него, проверить RX/TX всё же пишет ли ошибки на портах.
  • Почему Python wget может сообщать об http.client.InvalidURL при использовании логина и пароля?

    Kenny00
    @Kenny00 Автор вопроса
    Спасибо, попробую, отпишусь.
    Обычный wget Linux работает, однозначно дело не в устройстве, там в примере я написал не то, поправил.
  • Что Microsoft TMG умеет такого, что не может MikroTik?

    Kenny00
    @Kenny00
    Поддерживаю Выше, Микротик это в первую очередь Маршрутизатор.
  • Можно ли делать image resize в lxc (proxmox ve) без остановки PostgreSQL?

    Kenny00
    @Kenny00 Автор вопроса
    Спасибо, ждал с нетерпением вашего ответа))
  • Можно ли делать image resize в lxc (proxmox ve) без остановки PostgreSQL?

    Kenny00
    @Kenny00 Автор вопроса
    Дмитрий Шицков, Я вот мальца поспешил, и подвинул master))
    Теперь парюсь))
  • Можно ли делать image resize в lxc (proxmox ve) без остановки PostgreSQL?

    Kenny00
    @Kenny00 Автор вопроса
    Дмитрий Шицков, Бекапы то есть))
    Просто возврат из бекапа, это уже не штатное дело.
    А надо на продакшене чуток подвинуть место)
  • Можно ли делать image resize в lxc (proxmox ve) без остановки PostgreSQL?

    Kenny00
    @Kenny00 Автор вопроса
    Дмитрий Шицков,
    Filesystem at /dev/loop7 is mounted on /tmp;

    Разве он не через /tmp перегоняет? Там же партишен двигается?
    Я просто не нашел в документации подробностей работы механизма.

    вот что есть еще в /var/log/syslog
    Jun 15 10:33:04 srv128 pvedaemon[1400178]: <root@pam> update CT 1107: resize --disk rootfs --size 25G
    Jun 15 10:33:04 srv128 pvedaemon[1400178]: <root@pam> starting task UPID:srv128:002AE32E:10432C28:60C857B0:resize:1107:root@pam:
    Jun 15 10:33:05 srv128 kernel: [2728134.342969] EXT4-fs (loop7): resizing filesystem from 20971520 to 27525120 blocks
    Jun 15 10:33:05 srv128 kernel: [2728134.367038] EXT4-fs (loop7): resized filesystem to 27525120
    Jun 15 10:33:05 srv128 pvedaemon[1400178]: <root@pam> end task UPID:srv128:002AE32E:10432C28:60C857B0:resize:1107:root@pam: OK


    Но меня больше интересует, целостность данных СУБД при таком движении, особенно WAL...
  • Почему в mdadm RAID5 бьются файлы через промежуток времени а не сразу?

    Kenny00
    @Kenny00 Автор вопроса
    Владимир, Переустановил, пересобрал рейд.
    Теперь нет ошибки по mdrepair но dmesg сыпет другими ошибками, а если например начать копировать файлы, то они то же битые, md5sum в обще пришет i/o ошибку, когда я могу прочитать этот же файл MC.

    [   34.581568] Adding 523260k swap on /dev/md1.  Priority:-1 extents:1 across:523260k
    [  199.391252] md: bind<sda1>
    [  200.553853] md: bind<sdc1>
    [  201.487715] md: bind<sdd1>
    [  202.385661] md: bind<sde1>
    [  203.268166] md: bind<sdf1>
    [  204.258426] md1: detected capacity change from 535822336 to 0
    [  204.258434] md: md1 stopped.
    [  204.258440] md: unbind<sdb2>
    [  204.263050] md: export_rdev(sdb2)
    [  204.394791] md: bind<sda2>
    [  204.394985] md: bind<sdb2>
    [  204.395552] md: bind<sdc2>
    [  204.395783] md: bind<sdd2>
    [  204.395959] md: bind<sde2>
    [  204.396345] md: bind<sdf2>
    [  204.415087] md/raid10:md1: not clean -- starting background reconstruction
    [  204.415094] md/raid10:md1: active with 6 out of 6 devices
    [  204.417162] md1: detected capacity change from 0 to 1604321280
    [  204.423052] md: resync of RAID array md1
    [  204.423057] md: minimum _guaranteed_  speed: 1000 KB/sec/disk.
    [  204.423060] md: using maximum available idle IO bandwidth (but not more than 1000 KB/sec) for resync.
    [  204.423067] md: using 128k window, over a total of 1566720k.
    [  204.776747] Adding 1566716k swap on /dev/md1.  Priority:-1 extents:1 across:1566716k
    [  205.411408] md: bind<sda3>
    [  205.463247] md: bind<sdb3>
    [  205.463469] md: bind<sdc3>
    [  205.463657] md: bind<sdd3>
    [  205.463830] md: bind<sde3>
    [  205.463970] md: bind<sdf3>
    [  205.465330] md/raid:md127: not clean -- starting background reconstruction
    [  205.465358] md/raid:md127: device sdf3 operational as raid disk 5
    [  205.465361] md/raid:md127: device sde3 operational as raid disk 4
    [  205.465364] md/raid:md127: device sdd3 operational as raid disk 3
    [  205.465367] md/raid:md127: device sdc3 operational as raid disk 2
    [  205.465370] md/raid:md127: device sdb3 operational as raid disk 1
    [  205.465372] md/raid:md127: device sda3 operational as raid disk 0
    [  205.466449] md/raid:md127: allocated 6474kB
    [  205.466537] md/raid:md127: raid level 5 active with 6 out of 6 devices, algorithm 2
    [  205.466715] md127: detected capacity change from 0 to 9977158696960
    [  205.466828] md: resync of RAID array md127
    [  205.466831] md: minimum _guaranteed_  speed: 30000 KB/sec/disk.
    [  205.466833] md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for resync.
    [  205.466839] md: using 128k window, over a total of 1948663808k.
    [  206.468138] md: recovery of RAID array md0
    [  206.468142] md: minimum _guaranteed_  speed: 30000 KB/sec/disk.
    [  206.468145] md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for recovery.
    [  206.468163] md: using 128k window, over a total of 4190208k.
    [  207.068749] BTRFS: device label 33ea55f9:RAID-5 devid 1 transid 5 /dev/md/RAID-5-0
    [  207.536727] BTRFS info (device md127): has skinny extents
    [  207.536733] BTRFS info (device md127): flagging fs with big metadata feature
    [  207.753158] BTRFS info (device md127): checking UUID tree
    [  207.779143] BTRFS info (device md127): quota is enabled
    [  208.539681] BTRFS info (device md127): qgroup scan completed (inconsistency flag cleared)
    [  212.002057] BTRFS info (device md127): new type for /dev/md127 is 2
    [  253.293798] md: md1: resync done.
    [  879.835567] md: md0: recovery done.
    [29222.629724] md: md127: resync done.
    [76853.949311] md: requested-resync of RAID array md0
    [76853.949316] md: minimum _guaranteed_  speed: 30000 KB/sec/disk.
    [76853.949319] md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for requested-resync.
    [76853.949325] md: using 128k window, over a total of 4190208k.
    [76860.989358] md: requested-resync of RAID array md1
    [76860.989364] md: minimum _guaranteed_  speed: 30000 KB/sec/disk.
    [76860.989367] md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for requested-resync.
    [76860.989373] md: using 128k window, over a total of 1566720k.
    [76869.627690] md: md1: requested-resync done.
    [76968.845656] md: md0: requested-resync done.
    [77284.591955] BTRFS warning (device md127): csum failed ino 259 off 1257472 csum 2226542714 expected csum 2841507629
    [77284.592253] BTRFS warning (device md127): csum failed ino 259 off 471040 csum 833631200 expected csum 475765943
    [77284.599233] BTRFS warning (device md127): csum failed ino 259 off 471040 csum 833631200 expected csum 475765943
    [77284.626801] BTRFS warning (device md127): csum failed ino 259 off 471040 csum 833631200 expected csum 475765943
    [77284.627575] BTRFS warning (device md127): csum failed ino 259 off 471040 csum 833631200 expected csum 475765943
    [77284.628600] BTRFS warning (device md127): csum failed ino 259 off 471040 csum 833631200 expected csum 475765943
    [77284.629590] BTRFS warning (device md127): csum failed ino 259 off 471040 csum 833631200 expected csum 475765943
    [77284.632721] BTRFS warning (device md127): csum failed ino 259 off 471040 csum 833631200 expected csum 475765943
    [77284.633958] BTRFS warning (device md127): csum failed ino 259 off 471040 csum 833631200 expected csum 475765943
    [77284.640105] BTRFS warning (device md127): csum failed ino 259 off 876544 csum 2896134451 expected csum 2171874916


    И вот делаем так

    root@nas-2:/RAID-5/TEST# dd if=/dev/urandom of=Test.flie bs=64M count=32
    dd: warning: partial read (33554431 bytes); suggest iflag=fullblock
    0+32 records in
    0+32 records out
    1073741792 bytes (1.1 GB, 1.0 GiB) copied, 104.606 s, 10.3 MB/s
    root@nas-2:/RAID-5/TEST# md5sum Test.flie
    d72ea9d9c3c2641612de18c42deadccb  Test.flie
    root@nas-2:/RAID-5/TEST# md5sum Test.flie
    d72ea9d9c3c2641612de18c42deadccb  Test.flie
    root@nas-2:/RAID-5/TEST# md5sum Test.flie
    d72ea9d9c3c2641612de18c42deadccb  Test.flie
    root@nas-2:/RAID-5/TEST# md5sum Test.flie
    d72ea9d9c3c2641612de18c42deadccb  Test.flie
    
    Загружаю файлы на сервер, и качаю обратно, потом тестирую.
    
    root@nas-2:/RAID-5/TEST# md5sum Test.flie
    md5sum: Test.flie: Input/output error
    root@nas-2:/RAID-5/TEST# md5sum Test.flie
    md5sum: Test.flie: Input/output error
  • Почему в mdadm RAID5 бьются файлы через промежуток времени а не сразу?

    Kenny00
    @Kenny00 Автор вопроса
    Олег Волков, Думаете проблема именно в FS а не в MDADM или уж на край железо, какой ни будь южный мост, или контроллер SATA?
  • Почему в mdadm RAID5 бьются файлы через промежуток времени а не сразу?

    Kenny00
    @Kenny00 Автор вопроса
    Диски все были в порядке, до всей это ситуации я заменил проблемный один диск и перестроил RAID-5 в надежде что ошибки уйдут, но нет.
    Диски все проверил физически через HDAT2/CBL, resync массива делал, но проблема осталась.
    Сейчас буду пробовать сносить ОС и ставить заново, так как на md0 был корень (ос)
  • Почему в mdadm RAID5 бьются файлы через промежуток времени а не сразу?

    Kenny00
    @Kenny00 Автор вопроса
    rPman, полезной информации мало в них ниже приведу что раскопал
    kernel.log
    May 30 14:35:29 NAS-2 kernel: mdcsrepair[13627]: segfault at 2325238 ip 00000000004048df sp 00007fff08ffa500 error 4 in mdcsrepair[400000+10000]
    May 30 14:35:29 NAS-2 kernel: sh (13626): drop_caches: 3
    May 30 14:35:29 NAS-2 kernel: sh (13625): drop_caches: 3
    May 30 14:35:29 NAS-2 kernel: mdcsrepair[13639]: segfault at 1cd6230 ip 00000000004048df sp 00007ffeba060c50 error 4 in mdcsrepair[400000+10000]
    May 30 14:35:29 NAS-2 kernel: mdcsrepair[13640]: segfault at bfe230 ip 00000000004048df sp 00007ffe6f442530 error 4 in mdcsrepair[400000+10000]
    May 30 14:35:30 NAS-2 kernel: sh (13647): drop_caches: 3
    May 30 14:35:30 NAS-2 kernel: sh (13648): drop_caches: 3
    May 30 17:47:16 NAS-2 kernel: BTRFS warning (device md0): csum failed ino 26800 off 6852608 csum 846329252 expected csum 429493038
    May 30 17:47:16 NAS-2 kernel: sh (9521): drop_caches: 3
    May 30 17:47:17 NAS-2 kernel: sh (9522): drop_caches: 3
    May 30 20:41:32 NAS-2 kernel: BTRFS warning (device md0): csum failed ino 26800 off 2220032 csum 4138936066 expected csum 3680012373
    May 30 20:41:32 NAS-2 kernel: BTRFS warning (device md0): csum failed ino 26800 off 5521408 csum 988873707 expected csum 286883169
    May 30 20:41:32 NAS-2 kernel: BTRFS warning (device md0): csum failed ino 26800 off 5603328 csum 2031798327 expected csum 1425106784
    May 30 20:41:32 NAS-2 kernel: sh (2563): drop_caches: 3
    May 30 20:41:32 NAS-2 kernel: BTRFS warning (device md0): csum failed ino 26800 off 6266880 csum 1389706193 expected csum 2134807686
    May 30 20:41:32 NAS-2 kernel: BTRFS warning (device md0): csum failed ino 26800 off 6754304 csum 1977957496 expected csum 1477350191
    May 30 20:41:32 NAS-2 kernel: BTRFS warning (device md0): csum failed ino 26800 off 6754304 csum 1977957496 expected csum 1477350191
    May 30 20:41:32 NAS-2 kernel: sh (2567): drop_caches: 3
    May 30 20:41:32 NAS-2 kernel: sh (2569): drop_caches: 3
    May 30 20:41:32 NAS-2 kernel: mdcsrepair[2571]: segfault at 1fd5230 ip 00000000004048df sp 00007ffe294f0c30 error 4 in mdcsrepair[400000+10000]


    system-journal.log
    May 30 20:41:32 NAS-2 kernel: BTRFS warning (device md0): csum failed ino 26800 off 2220032 csum 4138936066 expected csum 3680012373
    May 30 20:41:32 NAS-2 mdcsrepaird[2862]: mdcsrepaird: mdcsrepair /dev/md0 622764032 4096 fdd84c09 aa77a724 //var/readynasd/db.sq3
    May 30 20:41:32 NAS-2 kernel: BTRFS warning (device md0): csum failed ino 26800 off 5521408 csum 988873707 expected csum 286883169
    May 30 20:41:32 NAS-2 kernel: BTRFS warning (device md0): csum failed ino 26800 off 5603328 csum 2031798327 expected csum 1425106784
    May 30 20:41:32 NAS-2 kernel: sh (2563): drop_caches: 3
    May 30 20:41:32 NAS-2 kernel: BTRFS warning (device md0): csum failed ino 26800 off 6266880 csum 1389706193 expected csum 2134807686
    May 30 20:41:32 NAS-2 kernel: BTRFS warning (device md0): csum failed ino 26800 off 6754304 csum 1977957496 expected csum 1477350191
    May 30 20:41:32 NAS-2 kernel: BTRFS warning (device md0): csum failed ino 26800 off 6754304 csum 1977957496 expected csum 1477350191
    May 30 20:41:32 NAS-2 kernel: sh (2567): drop_caches: 3
    May 30 20:41:32 NAS-2 mdcsrepaird[2862]: mdcsrepair: repairing /dev/md0 @ 622764032 [//var/readynasd/db.sq3] succeeded.
    May 30 20:41:32 NAS-2 kernel: sh (2569): drop_caches: 3
    May 30 20:41:32 NAS-2 kernel: mdcsrepair[2571]: segfault at 1fd5230 ip 00000000004048df sp 00007ffe294f0c30 error 4 in mdcsrepair[400000+10000]
    May 30 20:41:32 NAS-2 mdcsrepaird[2862]: mdcsrepaird: mdcsrepair /dev/md0 626065408 4096 14fc0ec5 9e82e6ee //var/readynasd/db.sq3
    May 30 20:41:32 NAS-2 mdcsrepaird[2862]: mdcsrepaird: mdcsrepair /dev/md0 626147328 4096 c837e586 9f980eab //var/readynasd/db.sq3
    May 30 20:41:32 NAS-2 mdcsrepaird[2862]: mdcsrepaird: mdcsrepair /dev/md0 626810880 4096 2ec42aad 796bc180 //var/readynasd/db.sq3
    May 30 20:41:32 NAS-2 mdcsrepaird[2862]: mdcsrepaird: mdcsrepair /dev/md0 627298304 4096 87c31a8a d06cf1a7 //var/readynasd/db.sq3
    May 30 20:41:33 NAS-2 kernel: sh (2616): drop_caches: 3
    May 30 20:41:33 NAS-2 kernel: sh (2617): drop_caches: 3
    May 30 20:41:33 NAS-2 mdcsrepaird[2862]: mdcsrepair: designated data mismatches bad checksum /dev/md0 @ 626065408
    May 30 20:41:33 NAS-2 kernel: sh (2620): drop_caches: 3
    May 30 20:41:33 NAS-2 kernel: sh (2619): drop_caches: 3
    May 30 20:41:33 NAS-2 mdcsrepaird[2862]: mdcsrepair: designated data mismatches bad checksum /dev/md0 @ 627298304
    May 30 20:41:33 NAS-2 kernel: sh (2618): drop_caches: 3
    May 30 20:41:33 NAS-2 kernel: sh (2622): drop_caches: 3
    May 30 20:41:33 NAS-2 mdcsrepaird[2862]: mdcsrepair: designated data mismatches bad checksum /dev/md0 @ 626147328
    May 30 20:41:33 NAS-2 kernel: sh (2621): drop_caches: 3
    May 30 20:41:33 NAS-2 kernel: sh (2623): drop_caches: 3
    May 30 20:41:33 NAS-2 mdcsrepaird[2862]: mdcsrepair: designated data mismatches bad checksum /dev/md0 @ 626810880


    Ну и я проверил в меняется ли дата изменения, но нет...
    root@HQ-NAS-2:/RAID-5/TEST-FILE# <b>dd if=/dev/urandom of=Test.flie bs=64M count=32</b>
    dd: warning: partial read (33554431 bytes); suggest iflag=fullblock
    0+32 records in
    0+32 records out
    1073741792 bytes (1.1 GB, 1.0 GiB) copied, 103.885 s, 10.3 MB/s
    root@HQ-NAS-2:/RAID-5/TEST-FILE# <b>md5sum Test.flie</b>
    0542952ac3e7e9d494a26a37c41a6c9e  Test.flie
    root@HQ-NAS-2:/RAID-5/TEST-FILE# <b>stat Test.flie</b>
      File: 'Test.flie'
      Size: 1073741792      Blocks: 2097160    IO Block: 4096   regular file
    Device: 35h/53d Inode: 1049        Links: 1
    Access: (0660/-rw-rw----)  Uid: (    0/    root)   Gid: (    0/    root)
    Access: 2021-05-31 10:54:16.835309473 +0300
    Modify: 2021-05-31 10:56:00.681735098 +0300
    Change: 2021-05-31 10:56:00.681735098 +0300
     Birth: -
    root@HQ-NAS-2:/RAID-5/TEST-FILE# <b>md5sum Test.flie</b>
    0542952ac3e7e9d494a26a37c41a6c9e  Test.flie
    root@HQ-NAS-2:/RAID-5/TEST-FILE# <b>md5sum Test.flie</b>
    0efe119d6aba0648ba32fc722fd72095  Test.flie
    root@HQ-NAS-2:/RAID-5/TEST-FILE# <b>stat Test.flie</b>
      File: 'Test.flie'
      Size: 1073741792      Blocks: 2097152    IO Block: 4096   regular file
    Device: 35h/53d Inode: 1049        Links: 1
    Access: (0660/-rw-rw----)  Uid: (    0/    root)   Gid: (    0/    root)
    Access: 2021-05-31 10:54:16.835309473 +0300
    Modify: 2021-05-31 10:56:00.681735098 +0300
    Change: 2021-05-31 10:56:00.681735098 +0300
     Birth: -
    root@HQ-NAS-2:/RAID-5/TEST-FILE# <b>md5sum Test.flie</b>
    d289a229916a49bede053b9cdc778ec6  Test.flie
    root@HQ-NAS-2:/RAID-5/TEST-FILE# <b>stat Test.flie</b>
      File: 'Test.flie'
      Size: 1073741792      Blocks: 2097152    IO Block: 4096   regular file
    Device: 35h/53d Inode: 1049        Links: 1
    Access: (0660/-rw-rw----)  Uid: (    0/    root)   Gid: (    0/    root)
    Access: 2021-05-31 10:54:16.835309473 +0300
    Modify: 2021-05-31 10:56:00.681735098 +0300
    Change: 2021-05-31 10:56:00.681735098 +0300
     Birth: -