• CodeFirst, как получить из базового объекта наследуемые?

    @saxer Автор вопроса
    проблема в том что я этого не знал , спасибо большое
  • Как объединить сети point to point в centos?

    @saxer Автор вопроса
    IP A:
    1: lo: mtu 16436 qdisc noqueue state UNKNOWN
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
    inet6 ::1/128 scope host
    valid_lft forever preferred_lft forever
    2: eth0: mtu 1500 qdisc pfifo_fast state UP qlen 1000
    link/ether 22:d9:fc:10:36:24 brd ff:ff:ff:ff:ff:ff
    inet ****/24 brd **** scope global eth0
    inet ****/32 brd **** scope global eth0:0
    inet6 ****/64 scope link
    valid_lft forever preferred_lft forever
    84: ppp0: mtu 1400 qdisc pfifo_fast state UNKNOWN qlen 3
    link/ppp
    inet 192.168.20.1 peer 192.168.20.235/32 scope global ppp0
    87: ppp1: mtu 1400 qdisc pfifo_fast state UNKNOWN qlen 3
    link/ppp
    inet 192.168.20.1 peer 192.168.20.236/32 scope global ppp1

    IP B:
    192.168.20.235 dev ppp0 proto kernel scope link src 192.168.20.1
    192.168.20.236 dev ppp1 proto kernel scope link src 192.168.20.1
    ****/24 dev eth0 proto kernel scope link src ****
    169.254.0.0/16 dev eth0 scope link metric 1002
    default via 188.225.74.1 dev eth0

    Iptables сейчас нулевая вообще.

    ПК-1:
    IPv4 таблица маршрута
    ===========================================================================
    Активные маршруты:
    Сетевой адрес Маска сети Адрес шлюза Интерфейс Метрика
    0.0.0.0 0.0.0.0 192.168.230.129 192.168.230.147 10
    127.0.0.0 255.0.0.0 On-link 127.0.0.1 306
    127.0.0.1 255.255.255.255 On-link 127.0.0.1 306
    127.255.255.255 255.255.255.255 On-link 127.0.0.1 306
    **** 255.255.255.255 192.168.230.129 192.168.230.147 11
    192.168.20.0 255.255.255.0 192.168.20.1 192.168.20.235 11
    192.168.20.235 255.255.255.255 On-link 192.168.20.235 266
    192.168.230.128 255.255.255.128 On-link 192.168.230.147 266
    192.168.230.147 255.255.255.255 On-link 192.168.230.147 266
    192.168.230.255 255.255.255.255 On-link 192.168.230.147 266
    224.0.0.0 240.0.0.0 On-link 127.0.0.1 306
    224.0.0.0 240.0.0.0 On-link 192.168.230.147 266
    224.0.0.0 240.0.0.0 On-link 192.168.20.235 266
    255.255.255.255 255.255.255.255 On-link 127.0.0.1 306
    255.255.255.255 255.255.255.255 On-link 192.168.230.147 266
    255.255.255.255 255.255.255.255 On-link 192.168.20.235 266
    ===========================================================================
    Постоянные маршруты:
    Отсутствует

    ПК-2:
    IPv4 таблица маршрута
    ===========================================================================
    Активные маршруты:
    Сетевой адрес Маска сети Адрес шлюза Интерфейс Метрика
    0.0.0.0 0.0.0.0 192.168.230.129 192.168.230.147 10
    127.0.0.0 255.0.0.0 On-link 127.0.0.1 306
    127.0.0.1 255.255.255.255 On-link 127.0.0.1 306
    127.255.255.255 255.255.255.255 On-link 127.0.0.1 306
    **** 255.255.255.255 192.168.230.129 192.168.230.147 11
    192.168.20.0 255.255.255.0 192.168.20.1 192.168.20.235 11
    192.168.20.235 255.255.255.255 On-link 192.168.20.235 266
    192.168.230.128 255.255.255.128 On-link 192.168.230.147 266
    192.168.230.147 255.255.255.255 On-link 192.168.230.147 266
    192.168.230.255 255.255.255.255 On-link 192.168.230.147 266
    224.0.0.0 240.0.0.0 On-link 127.0.0.1 306
    224.0.0.0 240.0.0.0 On-link 192.168.230.147 266
    224.0.0.0 240.0.0.0 On-link 192.168.20.235 266
    255.255.255.255 255.255.255.255 On-link 127.0.0.1 306
    255.255.255.255 255.255.255.255 On-link 192.168.230.147 266
    255.255.255.255 255.255.255.255 On-link 192.168.20.235 266
    ===========================================================================
    Постоянные маршруты:
    Отсутствует

    PS: Вот что только что обнаружил при текущих настройках, с первого пк iperf нормально отрабатывает(видимо не работал он когда я начал вакханалию с добавлением роутинга и не совсем понятных мне правил iptables):
    c:\iperf-2.0.5-3-win32>iperf.exe -c 192.168.20.1 -p 5001
    ------------------------------------------------------------
    Client connecting to 192.168.20.1, TCP port 5001
    TCP window size: 63.0 KByte (default)
    ------------------------------------------------------------
    [ 3] local 127.0.0.1 port 7679 connected with 192.168.20.1 port 5001
    [ ID] Interval Transfer Bandwidth
    [ 3] 0.0-10.0 sec 32.2 MBytes 27.0 Mbits/sec

    c:\iperf-2.0.5-3-win32>

    С второго же пк все плохо...
    [ 4] local 192.168.20.1 port 5001 connected with 192.168.20.235 port 7681
    [ ID] Interval Transfer Bandwidth
    [ 4] 0.0-10.2 sec 32.2 MBytes 26.6 Mbits/sec
    [ 5] local 192.168.20.1 port 5001 connected with 192.168.20.236 port 15454
    [ 5] 0.0-29.1 sec 14.0 Bytes 3.84 bits/sec
  • Как объединить сети point to point в centos?

    @saxer Автор вопроса
    да включен , но проблема в том что когда localip одинаковый и я например запускаю iperf-s на сервере то получаю либо совершенно низкую скорость либо вообще никакую, если же сделать localip разный то при iperf -c 192.168.30.1 -p 5001 или iperf -c 192.168.20.1 -p 5001 с клиентов я получаю нормальный обмен пакетами со скоростью 15-18 мегабит
  • Как создать интерфейс который бы реализовывал в объекте его конструктор?

    @saxer Автор вопроса
    ну проблема в том что когда доходит дело до NINJECT я не знаю как этот конструктор учитывать, даже если у меня класс реализуется через интерфейс и я в этом классе создаю конструктор то NINJECT его не учитывает
  • Можно ли настроить nginx так, что бы он сохранял куки запроса к серверу, а потом восстанавливал их в ответе от бэкенда?

    @saxer Автор вопроса
    я не совсем понимаю как в nginx задается логика работы с ответами от бэкенда т.е. я понимаю что можно описать логику работы с запросом который пришел с 80 порта и далее перенаправить его на бэкенд например на порт 8081, но как и где описывается логика работы с пришедшим от бэкенда ответом?
    Мне нужно сделать такой алгоритм: nginx получает запрос с 80 порта->сохраняет куда либо куки этого запроса->очищает запрос от кук->отправляет запрос(без кук!) на бэкенд->получает ответ от бэкенда->восстанавливает сохраненные ранее куки. Я не совсем понимаю где в конфиг файле задается логика работы с ответом от бэкенда причем в рамках одной сессии, возможно ли это вообще?