Добрый день. Подскажите, пожалуйста сервер dns для linux, вкотором можно указывать какй адрес отдавать исходя из ip клиента. Т.е. если на сервер пришел запрос от 192.168.1.10 для vk.com - он отдал адрес с 8.8.8.8, а если от 192.168.1.20 - то отдал заглушку. Уровней ограничений может быть больше 2, это пример.
В общем, подтверждаю. Подключал комплект клавиатура+мышь A4TECH 8100F, клавиатура ни в какую в иксах не заводилась. удалил все xf86-input-*, кроме evdev. Тогда завелась (удаление только xf86-input-keyboard не помогло). Мышь работала, другая проводная usb-клава genius тоже работала до этих манипуляций. Есть подозрение, что клавиатура определялась как джойстик.
Настроил ovirt 3.2 с 2 нодами и хранилищем NFS. В качестве основного хранилища образов виртуалок и виртуалки с менеджером используется сервер с арчем. Для бОльшей пропускной способности этого сервака настроил балансировку 2 гигабитных интерфейсов. Однако виртуальные машины с частыми операциями чтения-записи мелких файлов ощутимо на этих операциях отстают по производительности. Пример - moodle. Когда он размещался на физической машине интерфейс администратора работал гораздо быстрее. Плюс при дефолтовых настройках ядра иногда оно вываливалось с руганью на блокировку процесса в 120 секунд. Т.е. при сбросе кэша на диск могла возникнуть ощутимая задержка.
Собственно вопрос - как можно повысить производительность nfs?
в чем-то Natrio прав. точка монтирования теперь находится в /run
gvfsd-fuse on /run/user/1000/gvfs type fuse.gvfsd-fuse (rw,nosuid,nodev,relatime,user_id=1000,group_id=100)
Попытка просмотреть этот же файл простым tail в консоли тоже наглухо повисает.
Среда - xfce4. Открываем файловый менеджер, указываем в адресной строке smb-шару. Шара монтируется, но при попытке открыть любой файл - приложение, которым он открывается повисает. При этом файлы прекрасно копируются. Если вручную смонтировать куда-нибудь эту же шару - все прекрасно открывается.
Как победить?
прозрачный прокси и так настроен и работает. Вот только он не даст нормально работать с https - получается классическая MITM-атака, на которую и ругаются браузеры - самоподписанный сертификат или даже валидный - но не соответствует хосту назначения. плюс соединения через нат. поэтому хочется канал резать шейпером и внутри еще пакеты перетасовывать чтоб по пользователям примерно равномерно раскидать. плюс есть общественный wifi...
Есть провайдер инета inet0, ести 4 подсети net0, net1, net2 и net3. Инет 10Мбит. При этом у подсетей канал 100Мбит и есть локальные ресурсы, к которым нужно отдать все 100Мбит.

Загрузил ifb. Сделал
tc qdisc add dev inet0 ingress
tc filter add dev inet0 parent ffff: protocol ip u32 match u32 0 0 action mirred egress redirect dev ifb0

Сделал скрипт шейпера для исходящей с ifb0

iface=ifb0
ceil=10mbit
r_cheef=4mbit
r_otdel=3mbit
r_prep=1mbit
r_stud=1mbit
r_korp=1mbit
iface_ceil=100mbit
tc qdisc add dev $iface root handle 1: htb default 50
tc class add dev $iface parent 1: classid 1:1 htb rate $ceil ceil $ceil
tc class add dev $iface parent 1:1 classid 1:10 htb rate $r_cheef ceil $ceil prio 0
tc class add dev $iface parent 1:1 classid 1:20 htb rate $r_otdel ceil $ceil prio 1
tc class add dev $iface parent 1:20 classid 1:21 htb rate 2560kbit ceil 3mbit prio 1
tc class add dev $iface parent 1:20 classid 1:22 htb rate 512kbit ceil 3mbit prio 1
tc class add dev $iface parent 1:1 classid 1:30 htb rate $r_prep ceil $ceil prio 2
tc class add dev $iface parent 1:1 classid 1:40 htb rate $r_korp ceil $ceil prio 2
tc class add dev $iface parent 1:1 classid 1:50 htb rate $r_stud ceil $ceil prio 3
tc qdisc add dev $iface parent 1:10 handle 100: sfq perturb 10
tc qdisc add dev $iface parent 1:21 handle 210: sfq perturb 10
tc qdisc add dev $iface parent 1:22 handle 220: sfq perturb 10
tc qdisc add dev $iface parent 1:30 handle 300: sfq perturb 10
tc qdisc add dev $iface parent 1:40 handle 400: sfq perturb 10
tc qdisc add dev $iface parent 1:50 handle 500: sfq perturb 10
tc filter add dev $iface parent 1:0 protocol ip prio 0 u32 match ip dst 192.168.100.100/32 flowid 1:10
tc filter add dev $iface parent 1:0 protocol ip prio 1 u32 match ip dst 192.168.100.0/24   flowid 1:21
tc filter add dev $iface parent 1:0 protocol ip prio 1 u32 match ip dst 192.168.100.17/32  flowid 1:22
tc filter add dev $iface parent 1:0 protocol ip prio 2 u32 match ip dst 192.168.10.0/24    flowid 1:30
tc filter add dev $iface parent 1:0 protocol ip prio 2 u32 match ip dst 192.168.1.0/24     flowid 1:40
tc filter add dev $iface parent 1:0 protocol ip prio 2 u32 match ip dst 192.168.2.0/24     flowid 1:40
tc filter add dev $iface parent 1:0 protocol ip prio 2 u32 match ip dst 192.168.3.0/24     flowid 1:40
tc filter add dev $iface parent 1:0 protocol ip prio 2 u32 match ip dst 192.168.7.0/24     flowid 1:40
tc filter add dev $iface parent 1:0 protocol ip prio 2 u32 match ip dst 192.168.9.0/24     flowid 1:40
tc filter add dev $iface parent 1:0 protocol ip prio 3 u32 match ip dst 192.168.20.0/24    flowid 1:50

Дисциплины, классы и фильтры создаются, но при этом трафик идет по дефолтовому классу!
В чем ошибка? Как нарезать канал инета между подсетями?

P.S. Цепочка фильтров терминирующая или нет? Если есть накладывающиеся условия в каком порядке их разместить?
спасибо за ответ.
Все решилось очень просто. Когда-то, когда еще жили динозавры, роутер настраивался и в нем разрешен был только tcp транзитный трафик. Именно это не позволяло соединиться с сервером (openvpn настроен на udp). Вывод: внимательнее нужно быть! ))
Есть роутер на арче, локалка - eth0, инет через ppp0. Что покрутить в модулях и iptables, чтоб комп из локалки смог установить соединение с сервером openvpn, который находится за роутером?
Есть комп с arch'ем, который смотрит в инет одной сетевой и еще через 3 других его раздет в разные подсети. Подскажите как выполнять учет и мониторинг транзитного трафика. Хотелось бы через цепочку forward в ulog все скидывать, а там уже агрегировать (на этом этапе видны ip клиента и ip назначения). Плюс иногда необходимо просмотреть топ наиболее активных соединений с 'ip-клиента<->ip-назначения, мгновенная скорость' с возможностью управления этими соединениями.
Посоветуйте, как лучше сделать.
P.S. ntop сегфолтится.