Научная статья на тему 'Анализ производительности сетевых структур методами теории массового обслуживания'

Анализ производительности сетевых структур методами теории массового обслуживания Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
416
73
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
СЕТИ ЭВМ / МАССОВОЕ ОБСЛУЖИВАНИЕ / ПРОЦЕССЫ ОБСЛУЖИВАНИЯ / ПЕРЕДАЧИ ДАННЫХ

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Бахарева Надежда Федоровна

На основе теории сетей массового обслуживания исследованы сетевые структуры (подсети и ЛВС) с учетом неоднородности их трафика. Методика исследования основана на аналитическом методе двумерной диффузионной аппроксимации СМО GI/G/1 общего вида и решении уравнений равновесия потоков на уровне двух первых моментов (средних значений и дисперсий) распределений интервалов времен поступления и обслуживания. Такой подход при определении характеристик функционирования сетей позволяет существенно улучшить результаты моделированияI

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Бахарева Надежда Федоровна

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

n article on the basis of the theory of networks of queuing network structures (subnets and a LAN) taking into account heterogeneity of their traffic are researched. The research technique is grounded on an analytical method two-dimensional diffusion approximating of systems of queuing GI/G/1 of a general view and solution of the equations of balance of streams at level of the two first moments (average values and dispersions) allocations of intervals of times of arrival and service. Such approach at definition of characteristics of functioning of networks allows improving results of modeling essentially

Текст научной работы на тему «Анализ производительности сетевых структур методами теории массового обслуживания»



УДК 519.872.8

Н.Ф. Бахарева

АНАЛИЗ ПРОИЗВОДИТЕЛЬНОСТИ СЕТЕВЫХ СТРУКТУР МЕТОДАМИ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ

Современные компьютерные сети предоставляют пользователям широкий набор услуг, включая электронную почту, передачу факсимильных и голосовых сообщений, работу с удаленными базами данных в реальном масштабе времени, службу новостей и др. Поэтому весьма актуальна задача определения таких основных характеристик компьютерных сетей, как время отклика приложений и задержки, загрузка каналов передачи данных и обслуживающих устройств и пр.

Существующие методы и модели сетей ЭВМ развиты без учета таких важных особенностей современных сетевых структур, как наличие потоков заявок различного типа, и их наиболее существенные недостатки связаны с допущением, что на вход системы поступает однотипный простейший поток заявок.

Разработанная при участии автора методика используется для анализа сетей ЭВМ с неоднородным трафиком путем декомпозиции их на узлы на уровне средних значений и дисперсий интервалов времени поступления и времени обслуживания заявок. При этом характеристики узлов рассчитываются на основе метода двумерной диффузионной аппроксимации процессов функционирования систем массового обслуживания (СМО) (7//(7/1. Под неоднородностью трафика будем подразумевать многомерность потока заявок и различие маршрутов движения для каждого их типа. Такой трафик характерен для мультисер-висных сетей.

Параметры потоков из множества заявок типа т усредним с целью приведения неоднородного потока к однородному. Эти параметры будут описывать так называемую "усредненную" заявку. При этом должно соблюдаться условие, что однородный поток на обслуживание усредненной заяв-

ки создает такую же нагрузку на каждую СМО сети, как и неоднородный.

Как показано в [1, 2], при таком определении однородного потока обобщенных заявок можно записать следующие уравнения баланса интенсивностей и дисперсий времени между соседними обобщенными заявками на входе и выходе каждой /'-й СМО сети в случае, когда сетевая модель системы характеризуется одной обшей матрицей Р= {Ру} (', ] — 1, л) вероятностей передач заявок всех типов:

С6

, 00 Ч)/

(1)

7=1

IV/

где X™ = — интенсивности зая-

т = I

вок для каждого типа т многомерного потока т = 1, ..., М: / = 1, ..., п.

Аналогично уравнения равновесия для дисперсий будут иметь вид

/=1

роб вых )

РЛУ

(2)

где - диспер-

«1-1

сии для каждого типа заявок т (т = 1, ..., М\ / = 1, ..., п) многомерного потока.

В выражении (2) значения выходных дисперсий ; определяют по методу двумерной диффузионной аппроксимации. Дисперсия времени обслуживания обобщенной заявки

/п=|

Пример моделирования мультисервисной сети кафедры вуза

Проведено моделирование работы локальной вычислительной сети (ЛВС) "сервер — коммутаторы — рабочие станции" с целью определения таких ее основных характеристик как загрузка канала, задержка Ethernet, время отклика пользовательских приложений. Локальная вычислительная сеть кафедры (рис. 1) включает три учебных класса по 10 компьютеров. В каждом классе установлен коммутатор, который в свою очередь подключен к главному коммутатору. К нему же подключен сервер, предоставляющий такие сетевые сервисы, как выход в Интернет, доступ в локальное файловое хранилище по протоколам FTP и NetBIOS, электронная почта. Для получения основных характеристик сети при по-

Рис. 1. Укрупненная схема сети кафедры в Opnet Modeler

где и Д1"'1 — среднее значение и дисперсия времени обслуживания заявки типа т в /'-й СМО. Соответственно итерационная процедура расчета сети с неоднородным потоком заявок будет такая же, как и для однородного потока.

Если маршруты движения в сети для заявок из разных потоков могут быть различными и описываются матрицами вероятностей передач Р(т| = то в системах (1) и (2) вместо р;1 надо брать значения

и

„ой .V „('"НИ п• • I

Р,' - ¿^Рн К1 /К1 . где /, у = 1, ..., п. Это

»1=1

будут элементы так называемой обобщенной матрицы вероятностей передач, и последнее равенство следует из условия нормировки для потока обобщенных заявок в этой матрице.

мощи программной системы PROBMOD на основе двумерной диффузионной аппроксимации [3] необходимо найти матрицу вероятностей передачи заявок от рабочих станций к серверу и от сервера к рабочим станциям. Для этого воспользуемся имеющимися бесплатными программными средствами (а точнее их демо-версиями) Tmeter и PRTG Traffic Grapher. Эти приложения позволяют подсчитывать трафик по интересующим нас протоколам. Полученные данные за пять рабочих дней сети кафедры сведены в табл. I. Наиболее выражены трафики HTTP, FTP и NetBIOS.

Для последующего анализа выделим сегмент сети, включающий сервер и один класс из 10 ПЭВМ. Согласно данным табл. 1 определим матрицу вероятностей передач заявок. Для этого разделим количество отправленного/полученного графика по соответствующему протоколу для каждого ПК на общее количество трафика, собранного по этому протоколу (табл. 2).

По данным табл. 2 построим матрицы вероятностей передачи заявок для трех протоколов. Пример матрицы вероятностей пе-

редачи заявок для протокола HTTP приведен в табл. 3. Вероятности передачи заявок от сервера к рабочим станциям переносим в матрицу передачи в соответствующие ячейки.

Для того, чтобы получить количество пакетов для разных типов трафика исходя из его объема, нужно этот объем разделить на длину одного пакета для трафика соответствующего типа.

В роли обслуживающего прибора в модели сети кафедры выступает сервер и канал передачи данных к серверу. Поскольку имеем многомерный график, го для решения поставленной задачи использована методика приведения неоднородного потока к однородному потоку гак называемых "обобщенных" заявок. Для проверки правильности предложенной методики проведены расчеты по программе Opnet Modeler [4].

По данным матрицы (табл. 3) найдены интенсивности для всех основных типов трафика (HTTP, FTP и NETBIOS) от клиентов к серверу и от сервера к клиентам. Причем был рассчитан график в пакетах максимального размера (т. е. 1526 байт), а также определена по формуле (1) интенсивность поступления потока обобщенных по каждому

Таблица 1

Трафики локальной вычислительной сети и кафедры вуза, Кб

Персональный компьютер HTTP FTP NetBIOS

Отравлено к серверу Получено от сервера Отправлено к серверу Получено от сервера Отправлено к серверу Получено от сервера

ПК1 63031,2 3287393,6 2690549,6 2064407,2 2811128,8 2533429,6

IIK2 43940,0 3172557,6 1870759,2 1032676,8 2041680,0 2977826,4

ПКЗ 17571,2 3704948,0 1779509,6 2321756,8 1786775,2 2182529,6

ПК4 34616,48 3991666,4 814780,0 3688425,6 840602,4 3564348,0

ПК5 50140,0 3525106,8 1250868,0 2773427,2 2067733,6 2372165,6

Г1К6 37076,8 1933760,8 1921820,8 1474576,8 2007948,8 1809592,8

IIK7 74153,6 186210,4 1558965,6 860564.0 1542830,4 2090724,8

ПК8 10336,0 2179381,6 1368853,6 1785967,2 1337322,4 1295590,4

ПК9 20362,4 1995097,6 740709,6 1676557,6 764184,0 1620157,6

ПК10 29493,6 2073592,2 1042390,4 1260648,8 1879757,6 1976804,8

X 380721,2 26049715,0 15039206,4 18939008,0 17079963,2 22423169,6

Таблица 2

Вероятности передачи заявок по разным протоколам

HTTP FTP NetBIOS

ПК Отправлено Получено Отправлено Получено Отправлено Получено

к серверу от сервера к серверу от сервера к серверу от сервера

ПК1 0,1641 0,1261 0,1789 0,109 0,1645 0,1129

ПК2 0,1154 0,1217 0,1243 0,0545 0,1195 0,1328

пкз 0,0461 0,1422 0,1183 0,1225 0,1046 0,0973

ПК4 0,0909 0,1532 0,0546 0,1947 0,0492 0,1589

ПК5 0,1316 0,1353 0,0831 0,1464 0,1210 0,1057

ПК6 0,0973 0,0742 0,1277 0,0778 0,1175 0,0807

ПК7 0,1915 0,0076 0,1036 0,0454 0,0903 0,0937

ПК8 0,0696 0,0836 0,0910 0,0947 0,0787 0,0577

ПК9 0,0534 0,0765 0,0492 0,0885 0,0447 0,0722

ПК10 0,0401 0,0796 0,0693 0,0665 0,1100 0,0881

Таблица 3

Матрица вероятностей передачи заявок для протокола HTTP (Пример заполнения)

Сервер ПК1 ПК2 ПКЗ IIК4 IIК5 I1K6 ПК7 ПК8 IIK9 I1K10

Сервер 0 0,126 0,122 0,142 0,153 0,135 0,074 0,008 0,083 0,077 0,080

ПК1 1,0 0 0 0 0 0 0 0 0 0 0

ПК2 1,0 0 0 0 0 0 0 0 0 0 0

ПК10 1,0 0 0 0 0 0 0 0 0 0 0

из протоколов заявок в двух направлениях — от ПК к серверу и от сервера к ПК. Полученные интенсивности сведены в табл. 4.

Интенсивность поступления потока обобщенных заявок по всем протоколам от ПК к серверу рассчитывается аналогично по формуле (1). Таким образом, получаем:

= 1.7741 + 121,3908 + 70.0822 + + 88,2551 + 79.5920 + 104.4912 - 465,584 пак/с.

После этого необходимо рассчитать интенсивность обслуживания поступающих заявок по всем протоколам, учиты-

вая. что сервер имеет встроенную сетевую карту с пропускной способностью 100 Мбит/с.

В сетях различают эффективную и номинальную пропускную способность. Номинальная (полная) пропускная способность — это битовая скорость передачи данных, которая поддерживается на интервале передачи одного пакета.

Эффективная (полезная) пропускная способность — это средняя скорость передачи пользовательских данных, т. е. содержащихся в поле данных каждого пакета.

Табл ииа 4

Интенсивности поступления заявок по разным протоколам для каждого ПК

и суммарно по протоколу

HTTP FTP NetBIOS

ПК Отправлено Получено Отправлено Получено Отправлено Получено

к серверу, от сервера, к серверу, от сервера. к серверу, от сервера.

пакетов пакетов пакетов пакетов пакетов пакетов

ПК1 0,2937 15,3191 12,5378 9,6200 13,0997 11,8057

Г1К2 0,2047 14,7840 8,7176 4,8122 9,5141 13,8765

ПКЗ 0,0818 17,2649 8,2924 10,8193 8,3263 10,1705

ПК4 0,1613 18,6010 3,7968 17,1879 3,9171 16,6097

Г1К5 0,2336 16,4268 5,8290 12,9240 9,6355 11,0542

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

ПК6 0,1727 9.01126 8,9556 6,8714 9,3569 8,4326

ПК7 0,3455 0,86773 7,2647 4,0102 7,1895 9,7427

ПК8 0,0481 10,1558 6,3788 8,3225 6,2318 6,0374

ПК9 0,0948 9,29709 3,4516 7,8127 3,5610 7,5498

ПК10 0,1374 9,66287 4,8575 5,8745 8,7596 9,2118

Х7 1,7741 121,3908 70,0822 88,2551 79,5920 104,4912

Для сетей Еа51Еи1егпе1 межкадровый интервал составляет 0,96 мкс. Размер кадра минимальной длины 576 бит (он содержит 8 байт преамбулы, 14 байт служебной информации, 46 байт пользовательских данных и 4 байта контрольной суммы). На его передачу необходимо 5,76 мкс. Соответственно период повторения кадров равен 5,76 + 0,96 = 6,72 мкс. Отсюда максимальная возможная пропускная способность сегмента равна 148809 кадров в секунду.

Дня сетей Ра51Е(Ьегпе1 кадр максимальной длины состоит из 1526 байт или 12208 бит. Он содержит 8 байт преамбулы, 14 байт служебной информации, 1500 байт пользовательских данных и 4 байта контрольной суммы.

Время передачи такого кадра равно 122,08 мкс, период повторения кадров составляет 122,08 + 0,96 = 123,04 мкс. Отсюда максимальная возможная пропускная способность сегмента равна 8127 кадров в секунду.

Учитывая периоды повторения кадров минимальной и максимальной длины, рассчитанные выше, получим эффективную пропускную способность сети Fast Ethernet.

Для кадров минимальной длины эффективная пропускная способность сети равна 148809 • 46 ■ 8 = 54,76 Мб/с. Для кадров максимальной длины эффективная пропускная способность сети равна 8127 • 1500 • 8 = = 97,52 Мб/с.

Интенсивность обслуживания рассчитывается по формуле

Ц/ = с/ В, (3)

где с, — пропускная способность /-го канала, б/с; В — средняя длина пакета.

97,52-1000-1000 8-1526

= 7988,2 пак/с.

Таким образом, учитывая, что длина пакета равна 1526 байт, получаем интенсивность обслуживания ц = 7988,2 пак/с.

Среднее время обслуживания обобщенной заявки рассчитывается по формуле

хм1=1(ХГ)/ц!и,)/Х,°б. (4)

т=1

Для нашей задачи

т;* = (х11' + Х(2) + ) / (цД06 )= (123,1644 +

+ 158,337 + 184.083)/(7988,2 • 464,584) =

= 0.0000331 + 0,0000426 + 0,0000496 = = 0,1253 мс.

Тогда коэффициент заг рузки С МО потоком обобщенных заявок

р»6 = X? т* = 464.584• 0.0001253 = 0.058.

В табл. 5 приведены характеристики сети передачи данных (загрузки линии связи сервера, задержки сети, время отклика приложения пользователя), рассчитанные по методике автора для случая СМО М/М/1 для удобства сравнения с известными результатами. В то же время для случаев, когда законы распределения поступления и обслуживания заявок имеют коэффициенты вариаций меньшие единицы, расчеты дают меньшие задержки. В случае же законов распределения с коэффициентами вариаций большими единицы, значения задержки и времени откликов приложений будут больше, чем для СМО М/М/1.

Таким образом, исходя из результатов моделирования (табл. 5) загрузка канала связи сервера р? =Кбт* = 0.021 + 0,019 +

Характеристики

+ 0.02 = 0,06. т. е. фактически совпадает с расчетной (0,058).

Учитывая тот факт, что сеть включает три подсети, суммарная загрузка сервера будет 0,18.

Для проверки полученных результатов — получения информации о времени задержки Ethernet и времени отклика пользовательских приложений — проведено исследование сети кафедры при помоши программной системы OPNET Modeler. При этом интенсивности поступлений разных типов трафика взяты те же, что и в первом эксперименте. Схема сети соответствует рис. 1.

Как уже было сказано, локальную вычислительную сеть кафедры образуют три подсети (каждая из них представляет собой компьютерный класс) и один сервер. В качестве подсети используется стандартный объект 100BaseT_LAN. представляющий собой сеть Fast Ethernet коммутируемой топологии (Fast Ethernet LAN in a switched topology). Все ПК обслуживает один сервер. Поддерживаются следующие виды приложений: FTP. HTTP, трафик NetBIOS и др. Количество рабочих станций в подсети — 10.

Сервер предоставляет возможность работы приложений как по TCP, так и по UDP. Подключение составляет 100 Мбит и определяется пропускной способностью подключенного канала связи. У коммутаторов имеется возможность подключать до 16 Ethernet-ин-

Таблица 5

I передачи данных

Протокол

HTTP FTP NetBIOS

Загрузка линии связи сервера Задержка Ethernet, с Время отклика приложения пользователя, с Загрузка линии связи сервера Задержка Ethernet, с Время отклика приложения пользователя, с Загрузка линии связи сервера Задержка Ethernet, с Время отклика приложения пользователя, с

0,021 0,0010 0,0034 0,019 0,0011 0,0034 0,020 0,0010 0,0034

Суммарная загрузка сервера - 0,06

терфейсов. Алгоритм связывающего дерева (Spanning Tree algorithm) используется для обеспечения топологии без колец. Коммутаторы взаимодействуют между собой путем посылки BPDU (Bridge Protocol Data Units) пакетов. Коммутатор может объединять сети только одного типа (Ethernet — Ethernet, FDDI - FDD1, Token Ring -Token Ring). Результаты, полученные после моделирования сегмента сети кафедры, приведены на рис. 2.

Из рис. 2 видно, что загрузка канала связи сервера равна рассчитанной ранее и полученной в программной системе PROBMOD. Это говорит о достоверности полученных данных.

Для реальных сетей передачи данных такая загрузка линий связи (порядка 10 %) низка и встречается довольно редко. В большинстве случаев имеем загрузку, равную половине величины пропускной способнос-

ти физической линии связи, на которой эта загрузка измеряется. В худшем случае загрузка значительно превышает половину пропускной способности. Малая загрузка линии связи сервера объясняется еще и тем, что для упрощения построения матрицы вероятностей передачи заявок моделировали не всю сеть кафедры, а ее сегмент, и трафик передавался только между компьютерами нашего сегмента и сервером. Трафик же между остальными сегментами отсутствовал. Такой тип подключения пользователей называется РРРоЕ, т. е. "точка — точка". Подобное соединение используется в случае, когда необходимо жестко контролировать трафик пользователей, предотвращать несанкционированное подключение к сети и тарифицировать использование ресурсов сети (файловое хранилище, организация игровых серверов и т. д.). Извне трафик в подобную систему попадает

lion Definibon

network Ink: last uciteation

SwitchO -> Switch) - 5,3% 5witchl -> 5vMtchO = 5,7% name = SvvntchJ <-> SvatchO pott a - Swrtchl .Ethernet (PO) port b = 5v«itcM).Etherr.et (PO) data rate = 100,000,000

network link: last utfizatcn LAM] -> Sv\itchl =5,9% Swtcill I AN I = 5,9% name = Switch t <-> lANi port a - Switchl.Ethernet (PI) port b = LANi .Ethernet (IPO P0) data rate = 100,000,000

network link: last ut4?ation 5erver -> SwitchO = 5,S% SwtchO - > Server = 5,?% name <• SwitchO <• > Server pet a = SwitchO .Ether net (Pi l) port b = Server. Ethernet (IFO PO) data rate = 100,000,000

Рис. 2. Результаты моделирования в программной системе OPNET Modeler

только через сервер, т. е. такие сетевые сервисы, как доступ в Интернет, электронная почта, предоставляются клиентам непосредственно от сервера.

Усложним нашу задачу и проведем моделирование сети кафедры для случая, когда структура трафика между узлами сети — так называемая теяЬ-топология, т. е. трафик "от каждого узла сети к каждому".

Предложенная схема графика и результаты моделирования сети представлены на рис. 3. По результатам моделирования можно сделать вывод о том, что загрузка линии связи сервера увеличилась в несколько раз и стала равной примерно 30 %.

В случае расширения локальной сети нагрузка на сервер станет еше больше. Поэтому предлагается повысить пропускную способность линии связи сервера путем замены этого подключения со 100 Мб/с на 1000 Мб/с.

Таким образом, появился значительный запас пропускной способности для расширения сети, так как загрузка упала с 30 до 3 %. Время отклика приложений пользователя и задержки Ethernet, как и загрузка линии связи сервера, совпадают с полученными в программной системе PROBMOD. А именно: задержка Ethernet для всех грех протоколов передачи данных равна 0,001 согласно табл. 5 и в среднем 0,0011 с по результатам моделирования в OPNET Modeler (рис. 4, о). Время отклика приложений по протоколам HTTP. FTP, NetBIOS равно 0,0034 с по PROBMOD согласно табл. 5 и 0,0037 по результатам OPNET Modeler (рис. 4. а).

Значения задержки и времени отклика на рис. 4 получены для случая, когда в сети передавал данные только один сегмент сети кафедры. Результаты моделирования сети кафедры в целом показывают, что загрузка линии связи сервера

nrtwcfkknk: lait utdiMtOT server •> SwiKhO = 30, SwttcfO -> Server = 29,8% name = SwichO <-> Server port <a« SvatchO. Ether net (Pll) port Ь - Server. Ethernet UFO P0)

rework Wt: làtf Utfcîdteo IANl ->Sw«chl = 10,г%

S/ntchl - > LAN1 = 10,34 riarre = S/Htcht <-> I AN I port e » 5w*chl .Ethernet (PI) port Ь - LANl .Ethernet (1F0 PO)

Swrfchl >«Wich2

LAN2 -> Switch2 -SwCch2 • > LAN: - 9.7% .name - Svs«tch2 <•> LAN2

Swrfrht

LAN3 -> Sv*ch3 . 9,6% Switch3 • > LAN3 - 9,6% rvarr* - Swtch3 <-> IAN3

LAM1

LAN2

LAN3

Рис. 3. Результаты моделирования сети со структурой трафика типа mesh

возросла в три раза по сравнению с отдельным сегментом (6 %) и составляет в среднем 18 %. Задержка Ethernet возросла с I до 5 мс, а время отклика приложений — с 3,4 до 47 мс. Таким образом, наблюдаем ожидаемый результат: рост загрузки линейный относительно количества сегментов, а рост задержки и времени отклика — нелинейный.

Для анализа компьютерных сетей автором использованы результаты теории вычислительных систем. Компьютерная сеть в этом случае представляется в виде сети массового обслуживания с соответствующей матрицей передач заявок от узла к узлу. Данная методика реализована в виде программной системы PROBMOD.

Полученные при помощи этой программной системы результаты подтверждаются моделированием в пакете OPNET Modeler, что говорит о правильности применяемого подхода для расчета таких основных характеристик сети Ethernet, как загрузка линии, задержки Ethernet, время отклика пользовательских приложений и достоверность полученных результатов. Подобный подход может использоваться для исследования узких мест различных сетей с целью повышения их производительности.

Данная методика анализа ЛВС использовалась также для исследования сетей организаций, состоящих из множества взаимосвязанных локальных вычислительных сетей (корпоративные сети). Для этого сеть организации необходимо декомпозировать на отдельные ЛВС на уровне активного оборудования.

а)

0 005 0.004 0 003 0 002 0.001 0.000

6)

0 00125

0.00100

0.00075

0.00050

0 00025

0 00000

Время, с х I000

Время, с х 1000

Рис. 4. Результаты моделирования сети в программной системе OPNET Modeler: а — время отклика приложений протоколов HTTP. FTP. NetBIOS; б — задержка Ethernet для протоколов HTTP. FTP. NetBIOS.

СПИСОК ЛИТЕРАТУРЫ

1. Тарасов В.Н., Бахарева Н.Ф., Концов А.Л.

Декомпозиция сетей массового обслуживания при избыточных и неоднородных потоках // Научно-технические ведомости СПбГПУ. 2008. № 2. С. 9-13.

2. Тарасов В.Н., Бахарева Н.Ф., Концов А.Л. Декомпозиция сетей массового обслуживания без ограничений на длину очереди // Научно-технические ведомости СПбГПУ. 2008. № 2. С. 31-36.

3. Тарасов В.Н., Бахарева Н.Ф. Организация интерактивной системы вероятностного моделирования стохастических систем // Известия Самарского научного центра РАН. 2003. № 1. С. 119-126.

4. Тарасов В.Н., Бахарева Н.Ф., Коннов А.Л., Ушаков IO.A. Проектирование и моделирование сетей ЭВМ в системе OPNET Modeler: Лабораторный практикум. Самара.: Изд-во ГОУВПО ПГУТИ, 2008. 233 с.

i Надоели баннеры? Вы всегда можете отключить рекламу.