А что можно сделать в данном случае для решения поставленной задачи? Почему же сейчас bond, хоть и только в броадкасте, но работает? Вот так:
64 bytes from 172.31.200.2: icmp_seq=6454 ttl=64 time=11.0 ms
64 bytes from 172.31.200.2: icmp_seq=6454 ttl=64 time=11.3 ms (DUP!)
64 bytes from 172.31.200.2: icmp_seq=6454 ttl=64 time=11.8 ms (DUP!)
64 bytes from 172.31.200.2: icmp_seq=6454 ttl=64 time=12.0 ms (DUP!)
Хм. lo не пробовал. По идее вообще если нет сети ЗА сервером - должно работать и так, но... При добавлении интерфейсов поднимаются маршруты в соответствующие сети, и если клиент из сети А придет на интерфейс Б - обратный пакет вполне может улететь в А.
Как вариант - дописать маршрут "А через А" в таблицу маршрутизации Б и наоборот.
Но я бы заморочился с маркировкой коннектов все же :)
LVM позволит "слить" в одно блочное устройство все винты, но вот с защитой от краша боюсь не подскажу в этом случае. Можно сделать RAID5 или извратиться и сделать 2 массива ("примерно по 10 винтов") и поверх них уже зеркало. Но это, ИМХО, изврат уже :)
$ lspci | grep VGA
01:00.0 VGA compatible controller: NVIDIA Corporation GF114 [GeForce GTX 560] (rev a1)
07:00.0 VGA compatible controller: NVIDIA Corporation G92 [GeForce 9800 GT] (rev a2)
$ aptitude search bumblebee
p bumblebee
p bumblebee:i386
p bumblebee-dbg
p bumblebee-dbg:i386
p bumblebee-nvidia
p bumblebee-nvidia:i386
Т.е. бамблби нет и видеокарты от интела тоже...