Есть enteprise-железка Lenovo PX4-300R. Уже настроенная, введенная во временную работу. При записи на неё выдает скорость примерно 120-140 мб/сек. Пытаюсь добиться такого же на конечно сервере DELL POWEREDGE R720. Пока не очень
По порядку выкладываю конфиги
PX4
/etc/samba/smb.conf
[Global]
available= yes
server string= fileserver
wins server=
Workgroup= DOMAIN
netbios name= yellow
realm= DOMAIN.LOCAL
password server= 192.168.99.5, *
idmap backend= tdb
idmap uid= 5000-9999999
idmap gid= 5000-9999999
idmap config DOMAIN : backend= rid
idmap config DOMAIN : range= 10000000-19999999
security= ADS
name resolve order= wins host bcast lmhosts
client use spnego= yes
dns proxy= no
winbind use default domain= no
winbind nested groups= yes
inherit acls= yes
winbind enum users= yes
winbind enum groups= yes
winbind separator= \\
winbind cache time= 300
winbind offline logon= true
template shell= /bin/sh
map to guest= Bad User
host msdfs= yes
restrict anonymous= 0
strict allocate= yes
encrypt passwords= yes
passdb backend= smbpasswd
printcap name= lpstat
printing= cups
printable= no
load printers= yes
max smbd processes= 500
getwd cache= yes
display charset= UTF-8
syslog= 0
use sendfile= yes
browse directory= /tmp/samba
winbind sequence directory= /tmp/samba
log level= 0
max log size= 50
unix extensions= no
veto files= /.AppleDouble/.AppleDB/.bin/.AppleDesktop/Network Trash Folder/Temporary Items/:2eDS_Store/
/proc/net/bonding/bond0
root@yellow:/var/log# cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.7.0 (June 2, 2010)
Bonding Mode: adaptive load balancing
Primary Slave: None
Currently Active Slave: eth0
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 16500
Down Delay (ms): 200
Slave Interface: eth0
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 00:d0:b8:0f:4b:8f
Slave queue ID: 0
Slave Interface: eth1
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 00:d0:b8:0f:4b:90
Slave queue ID: 0
/etc/network/interfaces
auto lo
iface lo inet loopback
auto bond0
iface bond0 inet static
address 192.168.99.4
netmask 255.255.255.0
gateway 192.168.99.3
post-up ip route add 192.168.99.0/24 dev bond0 src 192.168.99.4 table bond0
post-up ip route add default via 192.168.99.3 dev bond0 table bond0
post-up ip rule add from 192.168.99.4 table bond0
post-up ip rule add from all to 192.168.99.4 table bond0
post-up ip route flush cache
post-down ip route flush table bond0
pre-down ip rule del from 192.168.99.4 table bond0
pre-down ip rule del from all to 192.168.99.4 table bond0
pre-up modprobe -q bonding mode=6 miimon=100 updelay=16500 downdelay=200 max_bonds=1
pre-up ifconfig bond0 up
pre-up /sbin/ifenslave bond0 eth0 eth1
down /sbin/ifenslave -d bond0 eth0 eth1
mtu 1500
up /etc/network/if-up.d/route
Все настройки железка делает сама. В настройках по веб-интерфейсу установил adaptive load balancing
Вот конфиги на R720
/etc/samba/smb.conf
[global]
# NetBIOS-имя хоста (должно совпадать с значением в hosts)
netbios name = FILESERVER
# уровень безопасности (ads - член домена AD)
security = ads
# NetBIOS имя домена
workgroup = DOMAIN
# область работы kerberos \
# (совпадает с именем домена и записывается прописными буквами)
realm = DOMAIN.LOCAL
# метод аутентификации smbd (с помощью winbind)
auth methods = winbind
# имена сервера паролей - КД
password server = red.domain.local
# настройки демона winbind:
# мапить пользователей на следующий диапазон ЮИД
idmap uid = 10000-20000
# мапить группы на следующий диапазон ГИД
idmap gid = 10000-20000
# разделитель домена и объекта
winbind separator = ^
# разрешить приложениям (например passwd) перечислять пользователей
# и группы из домена AD (необязательно)
winbind enum users = Yes
winbind enum groups = Yes
# разрешить сторонним приложениям ссылаться на пользователей AD
# как на локальных, не указывая имя домена и символ-разделитель
winbind use default domain = yes
# разрешить кэширование авторизованных пользователей
# (на случай, если КД станет недоступен) - на время настройки лучше отключить
#winbind offline logon = yes
# НЕ заставлять nmbd-сервер быть мастер-сервером Wins
preferred master = No
# оприеделить лог-файл (по умолчанию - сислог)
log file = /var/log/samba/log.new
# уровень логирования (можно менять от 0-минимальный до 9 - максимальный)
log level = 3
# действие при крушении демона
panic action = /usr/share/samba/panic-action %d
# принтеры нам не нужны
#load printers = no
#show add printer wizard = no
#disable spoolss = yes
# принтеры нам нужны
# printing = CUPS
# cups options = raw
#show add printer wizard = yes
# использовать только порт 139
# (немного ускоряет обращения и избавляет от некоторых ошибок в логе)
smb ports = 139
# файл ручного мапинга пользователей
#username map = /etc/samba/smbusers
# ускорим работу самба
socket options = TCP_NODELAY SO_RCVBUF=8192 SO_SNDBUF=8192
/proc/net/bonding/bond0
root@fileserver:~# cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)
Bonding Mode: adaptive load balancing
Primary Slave: None
Currently Active Slave: eth0
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 200
Down Delay (ms): 200
Slave Interface: eth0
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: c8:1f:66:e8:f7:17
Slave queue ID: 0
Slave Interface: eth1
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: c8:1f:66:e8:f7:18
Slave queue ID: 0
/etc/network/interfaces
# This file describes the network interfaces available on your system
# and how to activate them. For more information, see interfaces(5).
# The loopback network interface
auto lo
iface lo inet loopback
# The primary network interface
# auto eth0
# iface eth0 inet static
# address 192.168.99.240
# netmask 255.255.255.0
# gateway 192.168.99.3
auto bond0
iface bond0 inet static
address 192.168.99.241
netmask 255.255.255.0
network 192.168.99.0
gateway 192.168.99.3
slaves eth0 eth1
bond_mod balance-alb
bond_miimon 100
bond_downdelay 200
bond_updelay 200
В настройках сам не очень силен, потому прошу показать или навести в чем ошибка. Сетевые карты везде гигабитные, траффик идет через один свич (HP 1910-16G) по одному маршруту