Все технические форумы на одном сайте Удобный поиск информации с популярных форумов в одном месте
Вопрос: Измерить производительность дисковой подсистемы на виртуалке

Добрый день!

Подскажите, как корректно измерить производительность дисковой подсистемы на виртуальной машине?
Измерить iops, latency, какая скорость записи/чтения, найти самый медленный диск в массиве, и пр.
Доступа к среде vmware нет. Виртуалка используется в качестве сервера СУБД.
Как на основе iostat/iotop/sar/dd/rsync выдать нужную мне статитистику мне не понятно.
Подскажите, пожалуйста.
Данные прилагаю.

iostat
avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           7.28    0.00    0.63    2.05    0.00   90.03

Device:            tps   Blk_read/s   Blk_wrtn/s   Blk_read   Blk_wrtn
sda               5.45       106.77       109.68  348943622  358463336
sdb              16.69      1634.76       246.89 5342852866  806910536
sdc               7.25       547.93       184.76 1790800299  603836472
sdd               5.35      1043.37        48.58 3410018784  158788776
sdf               1.23        80.70       543.50  263759877 1776298880
sde              11.77       317.50       538.52 1037678234 1760049720
dm-0             16.30        98.03       104.68  320377026  342114808
dm-1              1.72         8.73         5.00   28538888   16348464
dm-2            220.15      3624.28      1572.56 11845160058 5139569640
sdg               0.02         0.02        10.31      70920   33685542


[root@ORACLE-DB-01 ~]# iostat -xdNm
Linux 2.6.32-504.16.2.el6.x86_64 (ORACLE-DB-01)   08/16/2018      _x86_64_        (8 CPU)

Device:         rrqm/s   wrqm/s     r/s     w/s    rMB/s    wMB/s avgrq-sz avgqu-sz   await  svctm  %util
sda               1.39    11.16    2.90    2.55     0.05     0.05    39.69     0.07   13.31   1.73   0.94
sdb               0.02    25.27   11.10    5.60     0.80     0.12   112.75     0.12    7.43   4.30   7.19
sdc               0.01    20.66    4.82    2.43     0.27     0.09   101.08     0.07   10.04   6.17   4.48
sdd               0.01     5.54    4.81    0.54     0.51     0.02   204.31     0.03    6.37   3.26   1.75
sdf               0.00    67.21    0.52    0.71     0.04     0.27   505.45     0.50  405.85   7.43   0.92
sde               0.01    59.10    3.56    8.22     0.16     0.26    72.68     0.09    7.26   2.03   2.40
VolGroup-lv_root     0.00     0.00    3.21   13.08     0.05     0.05    12.44     1.11   68.20   0.56   0.91
VolGroup-lv_swap     0.00     0.00    1.09    0.63     0.00     0.00     8.00     0.06   36.60   0.50   0.09
vg_data-lv_data     0.00     0.00   24.87  195.29     1.77     0.77    23.61     0.60    2.49   0.61  13.45
sdg               0.00     0.00    0.00    0.01     0.00     0.01   677.00     0.00   34.44  13.76   0.02


iotop
Total DISK READ: 23.23 M/s | Total DISK WRITE: 4.37 M/s
  TID  PRIO  USER     DISK READ  DISK WRITE  SWAPIN     IO>    COMMAND
 4018 be/4 oracle     23.07 M/s    0.00 B/s  0.00 % 89.38 % oracledb (LOCAL=NO)
 2977 be/4 oracle     38.45 K/s    3.27 M/s  0.00 % 47.72 % ora_lgwr_oracledb
 5221 be/4 oracle    123.04 K/s    0.00 B/s  0.00 % 24.13 % ora_j002_oracledb
  513 be/3 root        0.00 B/s    3.85 K/s  0.00 %  2.67 % [jbd2/dm-0-8]
 1130 be/3 root        0.00 B/s    0.00 B/s  0.00 %  0.12 % [jbd2/dm-2-8]
 2979 be/4 oracle      0.00 B/s   30.76 K/s  0.00 %  0.08 % ora_ckpt_oracledb
 2975 be/4 oracle      0.00 B/s    7.69 K/s  0.00 %  0.04 % ora_dbw0_oracledb
 4410 be/4 oracle      0.00 B/s    7.69 K/s  0.00 %  0.00 % tnslsnr LISTENER -inherit
    1 be/4 root        0.00 B/s    0.00 B/s  0.00 %  0.00 % init
    2 be/4 root        0.00 B/s    0.00 B/s  0.00 %  0.00 % [kthreadd]


root@ORACLE-DB-01 ~]# /sbin/hdparm -t /dev/sda
/dev/sda:
 Timing buffered disk reads: 508 MB in  3.00 seconds = 169.08 MB/sec
 
[root@ORACLE-DB-01 ~]# /sbin/hdparm -t /dev/sdb
/dev/sdb:
 Timing buffered disk reads: 204 MB in  3.01 seconds =  67.88 MB/sec
 
 [root@ORACLE-DB-01 ~]# /sbin/hdparm -t /dev/sdc
/dev/sdc:
 Timing buffered disk reads: 174 MB in  3.08 seconds =  56.54 MB/sec

 [root@ORACLE-DB-01 ~]# /sbin/hdparm -t /dev/sdd
/dev/sdd:
 Timing buffered disk reads:  52 MB in  3.17 seconds =  16.42 MB/sec
 
 [root@ORACLE-DB-01 ~]# /sbin/hdparm -t /dev/sde
/dev/sde:
 Timing buffered disk reads: 650 MB in  3.09 seconds = 210.30 MB/sec
 
[root@ORACLE-DB-01 ~]# /sbin/hdparm -t /dev/sdg
/dev/sdg:
 Timing buffered disk reads: 1518 MB in  3.00 seconds = 505.67 MB/sec


sar -d

01:20:01 PM       DEV       tps  rd_sec/s  wr_sec/s  avgrq-sz  avgqu-sz     await     svctm     %util
01:30:01 PM    dev8-0      5.47    106.80    108.90     39.46      0.07     12.24      5.39      2.95
01:30:01 PM   dev8-16     57.83  11192.23    351.26    199.60      0.44      7.57      3.84     22.23
01:30:01 PM   dev8-32      3.04    259.69     21.49     92.46      0.03     11.03      8.77      2.67
01:30:01 PM   dev8-48     46.58  10796.09      0.70    231.80      0.35      7.58      3.55     16.55
01:30:01 PM   dev8-80      0.59      6.74     10.52     29.32      0.01      9.37      5.44      0.32
01:30:01 PM   dev8-64     44.84   1981.57    472.08     54.73      0.07      1.54      1.19      5.32
01:30:01 PM  dev253-0     16.22    106.80    108.90     13.30      0.39     23.88      1.82      2.95
01:30:01 PM  dev253-1      0.00      0.00      0.00      0.00      0.00      0.00      0.00      0.00
01:30:01 PM  dev253-2    225.01  24236.31    856.04    111.52      1.12      4.99      2.01     45.13
01:30:01 PM   dev8-96      0.00      0.00      0.00      0.00      0.00      0.00      0.00      0.00
01:40:01 PM    dev8-0      4.77     57.57    108.27     34.76      0.04      7.43      3.94      1.88
01:40:01 PM   dev8-16     17.29   1399.71    272.20     96.69      0.29     16.68      9.18     15.87
01:40:01 PM   dev8-32     12.73   1549.87     91.17    128.92      0.24     18.91      8.97     11.42
01:40:01 PM   dev8-48      1.08      0.05    447.26    412.64      0.01      4.66      4.66      0.51
01:40:01 PM   dev8-80      0.00      0.00      0.05     16.00      0.00      0.50      0.50      0.00
01:40:01 PM   dev8-64     36.34     85.62    456.72     14.92      0.05      1.41      1.37      4.99
01:40:01 PM  dev253-0     14.82     57.47    108.16     11.17      0.45     30.04      1.25      1.85
01:40:01 PM  dev253-1      0.03      0.11      0.11      8.00      0.00     13.44     10.81      0.03
01:40:01 PM  dev253-2    190.62   3035.25   1267.40     22.57      1.74      9.15      1.55     29.62
01:40:01 PM   dev8-96      0.00      0.00      0.00      0.00      0.00      0.00      0.00      0.00
01:50:01 PM    dev8-0     19.25   1999.69    126.71    110.44      0.07      3.80      1.59      3.06
01:50:01 PM   dev8-16     22.46    965.51    165.62     50.36      0.17      7.68      6.27     14.07
01:50:01 PM   dev8-32      9.41    698.14    531.44    130.68      0.12     12.39      9.80      9.22
01:50:01 PM   dev8-48      2.41    456.23      0.13    189.23      0.04     17.34     10.39      2.51
01:50:01 PM   dev8-80      0.68      9.06      9.75     27.80      0.01      8.21      6.08      0.41
01:50:01 PM   dev8-64     55.12   2325.91    411.15     49.66      0.06      1.13      0.99      5.48
01:50:01 PM  dev253-0     23.12    256.53    126.71     16.57      0.35     15.27      1.11      2.58
01:50:01 PM  dev253-1      0.04      0.28      0.00      8.00      0.00     28.14      6.95      0.02
01:50:01 PM  dev253-2    170.48    480.31   1118.15      9.38      0.63      3.67      1.55     26.42
01:50:01 PM   dev8-96     26.45   5207.21      0.00    196.87      0.01      0.38      0.18      0.48

Average:       dev8-0      7.10    195.90     98.89     41.49      0.03      4.27      2.18      1.55
Average:      dev8-16     31.36   4061.45    264.60    137.94      0.17      5.50      3.36     10.53
Average:      dev8-32      9.53    967.42    180.45    120.51      0.08      8.36      5.88      5.60
Average:      dev8-48     14.51   3083.64     17.11    213.70      0.06      4.37      2.17      3.15
Average:      dev8-80      0.67      3.11    355.41    535.43      0.17    253.80      4.61      0.31
Average:      dev8-64     17.27    733.32    448.95     68.44      0.03      2.01      1.49      2.57
Average:     dev253-0     20.59    174.70     98.30     13.26      0.18      8.84      0.75      1.54
Average:     dev253-1      0.09      0.14      0.59      8.00      0.00      7.64      0.97      0.01
Average:     dev253-2    213.20   8800.93   1266.52     47.22     21.35    100.15      0.93     19.86
Average:      dev8-96      0.32     62.90      0.00    196.87      0.00      0.38      0.18      0.01


Попробовал создать файлы с помощью dd

Для записи 10 ГБ на разделе /data LVM (из множества дисков) потребовалось 57 секунд, и скорость 188 МБ/с.
Но это не даёт ответ на вопрос, какой из дисков наименее производительный, и в целом эти 188 МБ/с это быстро или медленно?
Плохо или хорошо? Повод сказать, что дисковая полка имеет низкую производительность?

[ORACLE-DB-01:oracle@oracledb]$ date && dd if=/dev/zero of=output10.dat  bs=2048M  count=5 && date
Thu Aug 16 14:00:38 MSK 2018
0+5 records in
0+5 records out
10737397760 bytes (11 GB) copied, 57.2024 s, 188 MB/s
Thu Aug 16 14:01:35 MSK 2018



Для примера, решил проверить работу dd на другом сервере СУБД и получил скорость 631 МБ/с и 17 секунд на создание файла!

[server-db-01:oracle@serverdb]$ date && dd if=/dev/zero of=output10.dat  bs=2048M  count=5 && date
Thu Aug 16 14:08:42 MSK 2018
0+5 records in
0+5 records out
10737397760 bytes (11 GB) copied, 17.0219 s, 631 MB/s
Thu Aug 16 14:08:59 MSK 2018


rsync --progress
Файл 10 ГБ копировался 6 минут 20 секунд со средней скоростью 26,92 МБ/с

[ORACLE-DB-01:oracle@oracledb]$ rsync --progress /data/test/output10.dat /data/test2
output10.dat
 10737397760 100%   26.92MB/s    0:06:20 (xfer#1, to-check=0/1)

sent 10738708554 bytes  received 31 bytes  28222624.40 bytes/sec
total size is 10737397760  speedup is 1.00

Какой вывод можно сделать из всего этого?
Какой диск самый медленный? Есть ли проблема с дисковой полкой? Какая средняя скорость чтения/записи по дискам?
Какое время ожидание latency?
Ответ: kernelpanic,

write=read в предыдущем посте. Про элеватор актуально только для write, можно скипнуть.
Вопрос: Не устанавливается 64-бит система на виртуалку

В чем может быть проблема? Система такая: i5-4570, 8gb RAM, Radeon R9 290. Ну то есть мощи дофига и больше. Пробовал Минт и Убунту. Не ставятся даже на виртуалку, появляется ошибка, мол процессор не катит. 32-бит на виртуалку ставятся, но тормозят жутко. Я не линуксоид, устанавливать пытался по мануалам. Качал образ, проверял контрольную сумму, делал флешку загрузочную (пробовал разные программы), загружался с флешки. Минт 64-бит загружается, но при этом требует логин и пароль (искал в инете, перепробовал все предложенные варианты - ничего, да и вообще такого не должно быть), а Убунту и вовсе отказывается грузиться. Ну то есть выбираю в boot-меню загрузку с флешки и всё.. тишина. Сейчас стоит 7-ка 64-бит, все проги тоже 64-бит и никаких проблем. Хочу поставить Линукс рядом с виндой. Судя по мануалам, надо разбить жесткий, но для этого нужно загрузиться с флешки и выбрать что-то типа пробного запуска (без установки), и там уже встроенной прогой разбить на разделы. Но загрузиться с флешки не выходит. Пробовал разные флешки. Да и как вообще может 32-бит тормозить на виртуалке? Я пробовал даже половину оперативной памяти отдавать, всё равно тормозит.
Ответ: Marinero,
не, никакого запрета нет. Я пробовал делать то же самое с 32-бит образами и всё нормально запускалось. Минт никакого пароля не требует, а Убунту нормально грузится. Но я не хочу ставить 32-бит. Да и к тому же эти странные тормоза.. Хз, что нужно сделать с процем, ведь проблема явно в нем. В биосе настройки поковырял, но там вообще ничего связанного с виртуализацией нет. Да и ведь 32-битные образы ставятся на VB, но тормоза страшные. Уж не знаю, что делать.
Вопрос: Debian. VmWare Workst 8. Резервная копия виртуалок.

Добрый день.

Есть Debian 6. На нем VmWare Workst 8. и вертятся 3 виртуалки.
в организации для резервной копии используется Symantec Backup Exec 2012. На сколько я знаю этот продукт умеет бэкапить хосты с RedHat.
А в моем случае запущенные виртуалки как и чем бэкапить ?
Допускается и бесплатное и платное ПО. Но если есть беспл. ПО то предпочтительнее.

Спасибо.
Ответ: вм-ки - это набор файлов, не более того
теперь читаем тут -

потом думаем и делаем так, как весело и быстро
снепшот вм - бекап хоста - удаление снепшота
Вопрос: Пробросить внешний IP на гостевую виртуалку

Нужна помощь в настройке сети:

сервер на ubunta 16 (host)
на нем крутится vmware workstation 12, на ней крутится вииртуалка с виндой
к серверу привязано 2 внешних белых ИП. нужно второй из них полностью пробросить на виртуалку, то есть чтобы весть трафик приходящий извне на него пробрасывался на виртуалку

привязка второго ИП выполнена сейчас так:


Код
/etc/network/interfaces

auto lo
iface lo inet loopback
iface lo inet6 loopback

auto eth0
iface eth0 inet static
  address 138.201.222.90
  netmask 255.255.255.192
  gateway 138.201.222.65


auto eth0:0
allow-hotplug eth0:0
iface eth0:0 inet static
    address 138.201.222.126
    netmask 255.255.255.192

# route 138.201.222.64/26 via 138.201.222.65
  up route add -net 138.201.222.64 netmask 255.255.255.192 gw 138.201.222.65 dev eth0..

#up route add 138.201.222.126 vmnet8

iface eth0 inet6 static
  address 2a01:4f8:173:19d9::2
  netmask 64
  gateway fe80::1
а вот что сейчас выводит команда ifconfig -a

Код
eth0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 138.201.222.90  netmask 255.255.255.192  broadcast 138.201.222.127
        inet6 fe80::921b:eff:fea4:a9f9  prefixlen 64  scopeid 0x20<link>
        inet6 2a01:4f8:173:19d9::2  prefixlen 64  scopeid 0x0<global>
        ether 90:1b:0e:a4:a9:f9  txqueuelen 1000  (Ethernet)
        RX packets 117697  bytes 26454508 (26.4 MB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 121686  bytes 31074906 (31.0 MB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0
        device interrupt 16  memory 0xf7000000-f7020000  

eth0:0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 138.201.222.126  netmask 255.255.255.192  broadcast 138.201.222.127
        ether 90:1b:0e:a4:a9:f9  txqueuelen 1000  (Ethernet)
        device interrupt 16  memory 0xf7000000-f7020000  

lo: flags=73<UP,LOOPBACK,RUNNING>  mtu 65536
        inet 127.0.0.1  netmask 255.0.0.0
        inet6 ::1  prefixlen 128  scopeid 0x10<host>
        loop  txqueuelen 1000  (Local Loopback)
        RX packets 17164  bytes 18185985 (18.1 MB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 17164  bytes 18185985 (18.1 MB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

vmnet1: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 192.168.60.1  netmask 255.255.255.0  broadcast 192.168.60.255
        inet6 fe80::250:56ff:fec0:1  prefixlen 64  scopeid 0x20<link>
        ether 00:50:56:c0:00:01  txqueuelen 1000  (Ethernet)
        RX packets 0  bytes 0 (0.0 B)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 30  bytes 0 (0.0 B)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

vmnet8: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 192.168.25.1  netmask 255.255.255.0  broadcast 192.168.25.255
        inet6 fe80::250:56ff:fec0:8  prefixlen 64  scopeid 0x20<link>
        ether 00:50:56:c0:00:08  txqueuelen 1000  (Ethernet)
        RX packets 474  bytes 0 (0.0 B)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 30  bytes 0 (0.0 B)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

целевая вируталка находится в сети vmnet8 и имеет IP 192.168.25.128

я так понимаю надо натсроить роутинг между eth0:0 и vmnet8
но не совсем понимаю как это правильно сделать, собственный мозг поломался)
Ответ: так как вас интересуют правила переадресации, то смотреть нужно цепь nat:
Код
iptables -t nat -L -n -v
Вопрос: Не могу расширить дисковое пространство в CentOS 6.5

Когда я пытаюсь добавить в Volume Group раздел происходит такая вот фигня

lvm> vgextend VG /dev/sda3
Can't open /dev/sda3 exclusively. Mounted filesystem?
Unable to add physical volume '/dev/sda3' to volume group 'VG'.

П.С. Вот так выглядит дисковое пространство.

[root@bitrix-test ~]# sudo fdisk -l

Disk /dev/sda: 53.7 GB, 53687091200 bytes
255 heads, 63 sectors/track, 6527 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x0004fa2c

Device Boot Start End Blocks Id System
/dev/sda1 * 1 26 204800 83 Linux
Partition 1 does not end on cylinder boundary.
/dev/sda2 26 91 524288 82 Linux swap / Solaris
Partition 2 does not end on cylinder boundary.
/dev/sda3 91 1278 9534464 8e Linux LVM
Partition 3 does not end on cylinder boundary.
/dev/sda4 1278 6528 42164224 8e Linux LVM
Partition 4 does not end on cylinder boundary.

Мне необходимо за счет /dev/sda4 расширить пространство /dev/sda3
В VG добавлен /dev/sda4, а /dev/sda3 я почему-то не могу добавить и инициализировать /dev/sda3 тоже не могу, все время пишет

Can't open /dev/sda3 exclusively. Mounted filesystem?

Подскажите плиз в чем может быть проблема?

п.п.с. Я только начинаю разбираться в *nix системах.
Ответ:

Огромное спасибо за подробное разжевывание.Все попробую и отпишусь о результате.
Вопрос: Ubuntu 14.04 LTS+ VirtualBox + Автозапуск виртуалки

Уважаемые друзья!
суть Subj такова.
Есть виртуалка. которая крутится на хосте под Ubuntu 14.04 LTS.
Нужно сделать как-то , что бы при перезагрузки хоста машина поднималась автоматом.
Я сам дошел до вот такого
Код Bash
1
2
3
4
cat autostart
#!/bin/bash
#=============================================
VBoxManage startvm "test" --type headless
далее
дал файлу chmod +x autostart
chmod 755 autostart
и указал путь к этому файлу в rc.local
из консоли запускаю скрипт все ок, машина стартует.
Ребучу комп, хост загружается - скрипт не отрабатывает( машина не стартует)

Как можно исправить??
Знаю что есть возможность сделать , что бы при завершении работы сохранялся текущее состояние машины.
Но понимая как это сделать пока нет.
Подскажите как с первым вариантом хотя бы быть.
Спасибо!
Ответ: Все! заработало!
Спасибо друзья...
Все верно он искал ее в root .. а там ее нет!
Вопрос: Медленно работает Ubuntu на виртуалке

утсановил убунту на виртуалку
ресурсов нормально выделил
когда включаю, нету боковой панели, контекстное меню появляется после 2-3 сек (когда нажал ПКМ)
а потом само пропадает, так как обновляется рабочий стол
при каждом действии он сам берёт и обновляется и обновляется, иконки на рабочем столе то появляются то пропадают саме по себе. Ничего не могу сделать. Помогите.
Ответ: Нужно выделить Убунте достаточно видеопамяти в настройках.
Для лучшей совместимости можно установить Guest Additions, .
Есть метод проще, но он считается нерекомендуемым
Bash
1
sudo apt-get install dkms virtualbox-guest-dkms virtualbox-guest-x11
Вопрос: Комрады, есть ли смысл делать фрю на виртуалку ( а не убунту как оычно я делаю) для HTTP

Я не нарочно :)
просто сейчас выбор

две убунты лепить в виртуалки в продакшн или одную из систем фрёй сделать...
Ответ: Коллеги, спасибо за советы
Вопрос: Mint 16 cinnamon на виртуалке

Установил на VMware и VBox, везде касяк один - сообщение:
Запуск в режиме программного рендеринга
Cinnamon в настоящее время запущен без аппаратного ускорения видео, вследствие чего вы можете наблюдать повышенную нагрузку на процессор. Возможная проблема с драйверами, либо другие причины проблемы. Для достижения наилучшего результата, рекомендуется использовать только этот режим для устранения неполадок.
и соответственно тормоза работы системы...
Дрова от физической видюхи бесполезно ставить, так как в виртуалке она соответственно виртуальная. Обновления от виртуальных машин ставил, обновления качал. Уже не вижу логических причин ошибки...помогите кто знает.
Ответ: У меня наоборот, установил дополнения гостевой ос, сообщение пропало, а тормозить стало больше чем до этого... В чем может быть дело? У меня cinnamon 18,2.
Вопрос: Срубается копирование файлов по сети.

Доброго дня.

Имеется сервер на FreeBSD 10, выполняющий роль файлопомойки на сотню пользователей под Samba 3.6, что-то по NFS расшарено, там же штатный ftpd работает, шелл открыт для некоторых пользователей, ну и ещё как сервер NIS он работает, хотя, наверно, это уже не имеет отношения... Ещё установлен VirtualBox с несколькими гостевыми машинами (сетевухи гостевых машин включены в режим bridge на основной сетевой адаптер хоста).
Жили - не тужили, а с некоторой поры стали замечать проблему при копировании файлов большого и не очень размера. Скажем так, на 20 мегабайт проблем почти не наблюдается, а вот на 300 уже удачной может оказаться одна попытка из пяти. В логах практически ничего по проблеме, только у самбы ошибка чтения сокета. Пробовал сходу поменять гнездо сетевой карты (двухголовая она там), патч-корд, порт в свиче - без результатов.

Попробовал собрать хоть какую-то статистику. Решил использовать более простой протокол ФТП. Тяну 300-метровый файл на клиентскую машину.
На виртуалку скачивается за три секунды на максимальной скорости (ну, всё внутри ж хост-машины) - ни единого обрыва. На ту же виртуалку тяну с ограничением скорости (использую wget с ключиком --limit-rate) до 1...2 мегабайт/сек - срубается где-нить в середине. Аналогичная ситуация и при копировании в локальную сеть. На машины, до которых доходит сеть по гигабиту этот 300-метровый файлик копируется на максимальной скорости вроде как без проблем. По крайней мере, не удалось зафиксировать. Где 100 мегабит или если ограничить скорость - высокая вероятность отказа.
Так же, бывает, срубаються шелл-подключения к серверу, в основном, когда имеет место быть интенсивный вывод в консоль.

По времени появление оной проблемы совпало с периодом добавления нескольких виртуальных машин к ранее существующим. Возможно, эти вещи как-то взаимосвязаны, но хочется получить какое-то более документальное тому подтверждение.

Такое ощущение, что проблемы где-то на уровне то ли TCP, то ли буферов... Что можно посмотреть/покрутить с целью хотя бы локализовать проблему?

Заранее благодарю.
Ответ:
vkle
Это, если правильно понимаю, позволит сетевому адаптеру не фильтровать пакеты по MAC-адресу, принимая всё подряд. С интерфейсом хоста более-менее понятно, когда интерфейсы виртуальных хостов на него мостом прокинуты - разбор и раздача пакетов по виртуальным адаптерам пойдёт уже где-то в модуле поддержки сети Виртуалбокса. Но не совсем понимаю, какой смысл от неразборчивого режима на адаптере самой виртуалки. Отказ от дополнительного программного фильтра пакетов или что другое?

Я не знаю как работает сетевая подсистема виртуалбокса, точнее в какой последовательности она обрабатывает пакеты, поэтому у меня везде стоит неразборчивый режим...