VHD с NTFS
ARC total accesses (hits + misses): 982.7M
Cache hit ratio: 92.9 % 913.3M
Cache miss ratio: 7.1 % 69.4M
Actual hit ratio (MFU + MRU hits): 92.0 % 903.7M
Data demand efficiency: 88.9 % 394.4M
Data prefetch efficiency: 27.7 % 34.4M
Cache hits by cache type:
Most frequently used (MFU): 76.0 % 694.4M
Most recently used (MRU): 22.9 % 209.3M
Most frequently used (MFU) ghost: 0.7 % 6.7M
Most recently used (MRU) ghost: 0.1 % 480.1k
Anonymously used: 0.3 % 2.5M
Какая разница как там работает ZFS? В любом случае сначала будет работать NTFS, а потом будет работать ZFS. По другому никак.
ZFS на Linux нельзя в продакшн!
Где?
volblocksize для VM-дисков = 4k
zpool status
pool: rpool
state: ONLINE
scan: scrub repaired 0B in 0 days 00:19:32 with 0 errors on Sun Mar 8 00:43:33 2020
config:
NAME STATE READ WRITE CKSUM
rpool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
nvme-eui.343335304d7002530025384100000001-part3 ONLINE 0 0 0
nvme-eui.343335304d7002600025384100000001-part3 ONLINE 0 0 0
errors: No known data errors
pool: rpool_hdd
state: ONLINE
scan: scrub repaired 0B in 0 days 02:52:39 with 0 errors on Sun Mar 8 03:16:41 2020
config:
NAME STATE READ WRITE CKSUM
rpool_hdd ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
sda ONLINE 0 0 0
sdb ONLINE 0 0 0
mirror-1 ONLINE 0 0 0
sdc ONLINE 0 0 0
sdd ONLINE 0 0 0
errors: No known data errors
# zpool get all |grep ashift
rpool ashift 12 local
rpool_hdd ashift 12 local
Каких виртуальных дисков? Там НЕТ виртуальных дисков. Это RAW.
Конечно во время нормальной работы.
Артем, давайте закончим это фиаско. Я не знаю зачем вы решили ответить, не разбираясь в сути вопроса, но дальнейшая дискуссия теряет смысл. Я вообще был удивлен этой парой ответов подобного характера. Я запостил вопрос только когда с опытом около 20 лет я не смог понять этой аномалии на одной из нод. Предполагал, что как на SO или SF мне могут ответить соотечественники, гуру именно этой темы. На SF, и самом форуме proxmox'a просто пока ответов нет (т.к. проблема действительно непонятная). А тут набежало что-то странное. Оставим это.