The method of operation of a computing cluster management system on the basis of neurocomputers. Particular attention is paid to a technique of computing cluster stage selection structure due to the fact that the existing methods are not effective due to the specialized hardware base - neurocomputers which represent a highly parallel architecture with computing devices other than the von Neumann architecture. The developed algorithm for selecting the cloud computing structure of the cluster on the basis of data in the direction of the program control flow graph and its adjacency matrix.
Key words: computer system, cloud computing, the choice of structure, control flow graph, neurocomputer.
Romanchuk Vitaliy Alexandrovich, candidate of technical science, docent, v.romanchuk arsu.edu.ru, Russia, Ryazan, Ryazan State University,
Lukashenko Vladislav Vladislavovich, postgraduate, v. lukashenko@rsu. edu. ru, Russia, Ryazan, Ryazan State University,
Ruchkin Vladimir Nikolaevich, doctor of technical science, professor, v. ruchkin@rsu. edu. ru, Russia, Ryazan, Ryazan State University
УДК 004.383.3
ОБОБЩЕННАЯ МОДЕЛЬ ФУНКЦИОНИРОВАНИЯ ОБЛАЧНОЙ ВЫЧИСЛИТЕЛЬНОЙ СИСТЕМЫ НА БАЗЕ НЕЙРОКОМПЬЮТЕРОВ
В. А. Романчук, В.В. Лукашенко, В.Н. Ручкин
Предлагается формализованное описание и обобщенная модель функционирования вычислительной системы на базе нейрокомпьютеров, включающая ее характеристики, возможные структуры при взаимодействии с памятью, модель передачи сообщений и модель распределения задач внутри облачного кластера.
Ключевые слова: вычислительная система, облачные вычисления, модель функционирования, нейрокомпьютер.
Облачные нейрокомпьютерные вычислительные системы предназначены для обеспечения повсеместного доступа через сеть Интернет или подобной сетевой структуры к программному обеспечению, платформе или инфраструктуре конфигурируемых вычислительных ресурсов, таких как, например, нейрокомпьютерная система. Использование нейрокомпьютеров в качестве аппаратной базы облачного сервера позволяет эффективно использовать достаточно дорогостоящее оборудование во многих сферах. Кроме этого, программы для нейрокомпьютеров обычно имеют
197
очень высокий уровень распараллеливания и малый объем данных, что является преимуществом относительно программ для компьютеров архитектуры фон Неймана. В данное работе будем рассматривать модель обслуживания 1аа8, то есть предоставление пользователям нейрокомпьютерной инфраструктуры. Принципиальным отличием облачной системы от параллельных и распределенных систем является наличие временных задержек за счет использования относительно медленных каналов связи между пользователем и "облаком" [1].
На рис. 1 показан пример функционирования облачной нейрокомпьютерной системы (ОНС). Элементами облачной системы являются ней-ропроцессорные вычислительные модули (НПВМ). Основным понятием облачной системы является "облако", как удаленное от пользователя место, центр обработки данных, внутри которого физически расположены вычислительные модули и память. Внутри "облака" все элементы связаны высокоскоростными коммуникационными каналами.
/Вычислительная задача
Рис. 1. Функционирование облачной вычислительной системы
Облачная система может быть описана в виде множества параметров и характеристик:
ЯБ = {Р,Е,Sw,ЕI,и,С,Е, А,Sw,а,И,д,ТГс,Т1с},
где Р = {Р1, Р2,..., Рд} - множество вычислительных узлов ОНС, где каждый вычислительный узел-нейропроцессор может быть описан с помощью технических параметров:
Р ® Н Л, Нк1, НИ, Нш1, где Н Л!, , Нц, Нт1 - технические параметры, отвечающие за тактовую
частоту нейропроцессора, количество ядер, объемы оперативной и дисковой памяти для I -го нейропроцессора (НПВМ) соответственно; Е - множество направленных связей между кластерами или узлами, характеризующиеся скоростью передачи данных, надежностью и др.; Е = {^1, ^2,..., } - множество хранилищ данных (модулей общей памяти); Sw = {Swl, Sw2,..., Sw5 }- множество коммутаторов для обеспечения ра-
198
боты сетевой инфраструктуры; С = {С\, С2,..., Сс} - множество контроллеров для обеспечения работы сетевой инфраструктуры; А - диспетчер (управляющий узел) ОНС; Бм - структура ОНС, выбор которой определяется диспетчером А; Р/ = {¥/1, Р/2,..., Р/-/} - типы экземпляров виртуальных машин; и = {и^и2,...,ии }- множество пользователей облачного центра; а - архитектура аппаратного обеспечения каждого узла ОНС (для корректной работы облачного сервиса архитектура аппаратного обеспечения одинакова для каждого НПВМ); И - архитектура программного обеспечения каждого узла ОНС (для корректной работы облачного сервиса архитектура программного обеспечения одинакова для каждого НПВМ); Т&с - время задержек передачи данных до управляющего устройства ОНС и обратно к пользователю; Т1с - время латентности при передаче данных от управляющего устройства ОНС и обратно.
Обобщенная модель вычислений облачной вычислительной системы показана на рис. 2.
Рис. 2. Обобщенная модель вычислений облачной вычислительной системы
Каждый вычислительный узел-нейрокомпьютер р е Р может быть множеством статических и динамических характеристик:
Статические характеристики представляются множеством:
Р ® {Н]1, Нк1, Н/1, Нт!, т1^X ¿1 ^ X С ^X щ ЦX ушг (1)},
где Нр - количество ядер нейрокомпьютера; Нк1 - технический параметр,
отвечающий за тактовую частоту нейрокомпьютера; Нц - технический параметр, отвечающий за объем оперативной памяти нейрокомпьютера; Нт1 - технический параметр, отвечающий за объем дисковой памяти нейрокомпьютера (в случае необходимости); т/ (£) - объем доступной оперативной памяти нейрокомпьютера в момент времени t; (£) - объем дос-
199
тупной дисковой памяти нейрокомпьютера в момент времени t; с! ^) - вектор признаков занятости ядер нейрокомпьютера в момент времени *:
с,^) = {ся^), с2^),..., се ^)}; с1к = {0,1}, с,к = 0 - если ядро к свободно в момент времени t и с¡к = 1 в противном случае; и, ^) - вектор загруженности ядер нейрокомпьютера:
Щ ^) = {иП^X Щ2(tи!С^)};0 < и!к < !, ут, ^) описывает набор задач, которые выполняются на нейрокомпьютере Р\ в момент времени t.
Хранилище данных представляет собой модуль памяти, доступный каждому узлу Р, е Р.
Хранилище ¥, е ¥ может быть описано следующим множеством характеристик:
¥ ® V, VI, ^), г, ^), к, ^)}, где VI! - общий объем ! -го хранилища; VI, ^) - размер свободной части ! -го хранилища; г, ^)- средняя скорость записи ! -го хранилища; к, ^)-средняя скорость чтения , -го хранилища.
Экземпляр виртуальной машины Iк е I из множества запущенных
или запускаемых экземпляров I = {1\, 12,., 1р } определяется как:
1к ® {1тк, ¥1к, ^к(tXкк ^X ак ^X^к ^)},
где Imk - дисковый образ экземпляра виртуальной машины; ¥1к - тип экземпляра виртуальной машины ¥1к е ¥\; stk (t) - состояние экземпляра виртуальной машины (в очереди, работает, мигрирует, остановлен, удален и др.) в момент времени t; кк ^) - номер узла, на котором выполняется экземпляр в момент времени t; ак ^) - номер ядра узла, на котором выполняется экземпляр; statk ^) - характеристики экземпляра, такие как время запуска, время остановки и др.
Важной особенностью нейропроцессоров является то, что процесс обучения и функционирования - это постоянный (в каждой команде) обмен информацией между оперативной памятью и вычислительным ядром. Поэтому важен тип конфигурации внешней шины для работы с оперативной памятью в многопроцессорном режиме.
Нейропроцессоры, как и большинство ББР процессоров поддерживает как однопроцессорный, так и многопроцессорный режим работы по одной или нескольким внешним шинам. Рассмотрим наиболее распространенный вариант, при котором внешних шин две. Если к общей памяти подключены два процессора, то арбитраж для доступа к ней осуществляет-
200
ся между ними без использования внешнего контроллера. При этом объединяться могут только разноимённые шины процессоров - локальная одного с глобальной другого, так как после системного сброса обладать правом доступа к общей памяти может только один процессор.
Возможны три следующих типа конфигурации внешней шины для многопроцессорного режима.
Многопроцессорная конфигурация 1-го типа (банк 0 - "общий", банк 1 - "общий"). Данная конфигурация характеризуется тем, что доступ в память (Memory Bank 1, Memory Bank 2) может осуществляться только одним процессором - НПВМ P1 или НПВМ P2 - в данный момент времени.
Многопроцессорная конфигурация 2-го типа (банк 0 - "свой", банк 1 - "общий"). Она отличается от первой тем, что каждый процессор имеет свой банк памяти, к которому другой не имеет доступа: НПВМ P1 принадлежит Memory Bank 1, а НПВМ P2 - Memory Bank 2. Банк Memory Bank 3 является общим для НПВМ 1 и НПВМ 2, которые осуществляют к нему доступ поочередно через буфера Buffer 1 и Buffer 2. Арбитраж на право работать с банком Memory Bank 3 осуществляется так же, как для конфигурации 1-го типа.
Многопроцессорная конфигурация 3-го типа (банк 0 - "свой", банк 1 - "чужой"). Она отличается тем, что каждый процессор имеет свой банк памяти: НПВМ P1 принадлежит Memory Bank 1, а НПВМ P2 - Memory Bank 2, но существует возможность каждому процессору обратиться к чужому банку через буфер Buffer.
Рассмотрим множества Tr и Tlat для ОНС. В этом случае величина Ttr » 0, а время задержек при передаче от пользователя Uj е U к управляющему узлу Ttrc в системе равно:
Пщ = Ttrpoj + Ttropj,
где Ttrp0j - время передачи данных между пользователем Uj eU и узлом
А; Ttrp - время передачи данных между узлом А и пользователем
Uj е U.
T^j = Tl poi + Tlopi,
где Tlp0f - время латентности при передаче данных между пользователем Uj е U и управляющим узлом А; Tlp - время латентности при передаче
данных между управляющим узлом А и пользователем Uj е U .
Тогда имеем общее количество задержек:
Tsj = Пщ + Tlcj Ф 0; Ttr = Tl = 0.
Рассмотрим модель передачи сообщений. Предполагаемая модель передачи сообщений основана на принципе коммутации пакетов при передаче данных. Пусть b - стандартный фиксированный размер одного пакета, тогда h<b - размер заголовочной части пакета, в котором содержатся стан-
дартные инструкции по передаче пакета по сети: адреса получателя и отправителя, контрольные суммы, а <Ь - хвостовая часть пакета, в которой содержится служебная информация об очередности данного программного кода в графе выполнения программы и очередной номер узла в вычислительной нейрокластерной структуре. Тогда для передачи сообщения раз-
т
мером т необходимо будет Раск =- пакетов.
Ь - к -1
Тогда модель передачи пакетов по сети распределенного вычислительного кластера можно представить в виде маршрута - множества, членами которого будут являться вычислительные узлы и коммутаторы, которые проходит пакет от вычислительного узла с адресом начала до узла с адресом конца, не нарушая контрольных сумм маршрута.
а = {«1,...«,-},щ е Р, и К,,¡ = 1,N.
Основным параметром, характеризующим передачу пакетов по маршруту сети, а также являющимся наиболее важной составляющей общей производительности вычислительного кластера является время передачи пакета от узла «1 до щ - ТраскГат. Для этого, сначала определим
функцию задержки пакета при передаче от узла «1 до «2 - то есть задержку при передаче пакета между крайними узлами.Ве1ау(Е12), где Е12 - сетевая связь из множества Е, между вычислительными узлами «1 и «2 при
условии, что эти узлы связаны напрямую. В данному случае коммутаторы являются узлами передающими пакеты далее по сети. В вычислениях они не участвуют. Также некоторые вычислительные узлы могут быть заняты для вычислений в данный момент времени t, но свободны для передачи пакетов далее по сети - в таком случае эти вычислительные узлы выступают в роли коммутаторов.
Таким образом Т - время передачи пакета Раск по сетевому маршруту а можно вычислить следующим образом:
т , -г. Ь Ь(Раск -1) ^ , / .ч
Т (а, Раск) = X-+-1---+ tюut[шPack(l),
х=1 Бе1ау(Ех х+1) тт Ие1ау(Ех, х+1)
х=0,,-1
где tгouting - среднее время маршрутизации пакета. Это время затрачивает
каждое сетевое устройство любого узла. В данной формуле не учитываются задержки связанные с сетевой конкуренцией пакетов, поскольку она исключается использованием вычислительных нейрокластерных структур и динамического распределения задач по узлам вычислительного кластера.
Рассмотрим модель распределения задач внутри облачного кластера. Существует два принципиальных подхода к распространению задач внутри кластера [1]. В рассматриваемом случае, это означает, что существует два подхода к формированию вычислительной структуры кластера:
статический и динамический, поскольку перед непосредственным распределением очередной подзадачи на очередной вычислительный модуль необходимо ввести его в состав вычислительной структуры, а затем направить на него саму задачу.
При статическом подходе к распространению подзадач внутри вычислительной структуры. Вычислительные машины резервируются заранее и остаются занятыми до конца вычислений, после чего запускается процедура разрезевирования и вычислительные машины возвращаются в режим ожидания. Достоинством такого способа является четкая маршрутизация и четкое следование по графу выполнения программы. К недостаткам можно отнести замедление выполнения задач на вычислительном кластере.
При динамическом подходе очередной вычислительный узел резервируется динамически посредством опроса всех вычислительных машин после выполнения задачи предыдущим вычислительным модулем. Плюсом такого вычислительного кластера является сверхбыстрое выполнение задач. Минусом возможные ошибки в маршрутизации и в графе выполнения программ, поступившей задачи. В разрабатываемой системе применен принцип динамического резервирования вычислительных машин [2-10].
С математической точки зрения задача динамического резервирования определенных машин кластера состоит в нахождении такой функции gi ^),- = 1, N, где t е [0; + ¥ - произвольный момент времени что gi ^) ® Ог ^) = {Р ^), К- ^), С- ($),М- ^), Б- ^), й- ($), тг ^), щ ^)}.
Функция р (t), i = 1, N показывает сколько необходимо вычислительных машин кластера для его вычислительной работы в момент времени t е [0; + ¥).
Функция К- ^), i = 1, N показывает сколько необходимо коммутаторов для связи вычислительных машин в единую сеть в момент времени t е [0; + ¥. В данном случае в роли коммутатора также может выступать и вычислительная машина, не участвующая в данных вычислениях, но передающая данные далее по сети.
Функция Е- ^), - = 1, N показывает сетевой маршрут между вычислительными машинами, коммутаторами в момент времени t е [0; + ¥.
Функции С- ^), М- ^), Б- ^), - = 1, N определяют для каждого вычислительного узла количество вычислительных ядер - нейропроцессоров, объемы оперативной и дисковой памяти в мегабайтах в момент времени tе [0; + ¥).
Функции й- (t) и т- (t), как и ранее, показывают объемы доступной оперативной и дисковой памяти, а функция и- ^) характеризует загруженность вычислительных ядер.
Вычислительные ядра могут относиться как к отдельным процессорам, так и к нескольким многоядерным процессорам. С целью упрощения модели они рассматриваются, как единое множество вычислительных ядер
узла Pi:
X= {xj,..., х^ }, i = 1, N.
Пусть X = UJ=i Xi множество вычислительных ядер всех узлов
кластера. Тогда рассмотрим задачу вычисления динамических параметров di (t), mi (t), Ui (t). Процессы, выполняющиеся на вычислительных ядрах, могут напрямую считывать и записывать информацию в оперативную и дисковую память данного узла, взаимодействуя с ними через системную шину или коммутатор. При необходимости передачи сообщения другому вычислительному узлу в рамках одного кластера задействуется сетевая подсистема, осуществляющая разбиение сообщения на пакеты и передачу их по высокопроизводительной коммуникационной сети. Сетевая подсистема каждого узла также содержит коммутатор, выполняющий функции маршрутизации собственных и транзитных пакетов.
Обозначим в качестве id (х, t) номер задачи, исполняющейся на ядре х £ X в момент времени t. Если же ядро х в момент времени t было свободно, то id(х, t) = 0. Пусть state(х, t) = {free, communication, computation} -состояния вычислительного ядра х £ X в момент времени t (free - свободно, communication - исполняет процесс на стадии коммуникации, computation - исполняет процесс на стадии вычислений).
Значения динамических параметров узла Pi в момент времени t могут быть вычислены по следующим формулам:
|{х £ Xi : id(х, t) > 0& state(х, t) = computation}|
ui(t)=J-с-'
Ci
mi(t) = Mi - X mre ;
х£ Xj ,e=id (х^ )>0
di(t) = Di - X dre .
х£ Xj ,e=id (х^ )>0
где mre и dre - соответственно объемы оперативной и дисковой памяти, необходимой каждому процессу e -ой параллельной подзадачи.
Также важно отметить что индекс i = 1, N, строго зависит от N - количество доступных к обработке подпрограмм PR =<MK1,MK2,...,MKi,...,MKN >.
Вычислительная загрузка кластера формируется из потока подзадач Task = {taskj,..., taski}, i = 1, N, которые формируются в результате работы Az - алгоритма разбиения задач, поступивших на выполнение в вычислительный кластер, помещаемых им в очередь задач. Каждая задача является
параллельной неинтерактивной программой, способной работать в пакетном режиме. Процессы этой задачи запускаются планировщиком, реализующим один из подходов к распространению подзадач внутри вычислительной структуры, в данной работе выбран динамический подход. Процессы запускаются одновременно по мере освобождения вычислительных машин от предыдущих задач, во время работы вычислительные ядра -нейропроцессоры обмениваются друг с другом сообщениями [11].
Для каждой задачи taskl необходимо математически определить требования к ресурсам кластера, такие как: количество необходимых ней-ропроцессоров х- ,объем оперативной тге и дисковой памяти йге, необходимой каждому процессу е -ой параллельной подзадачи в килобайтах, временную оценку ti - время необходимое для исполнения каждого процесса в нейропроцессоре и время выполнения подзадачи на нейропроцессоре целиком - Твзп.
= (х-, тге, ¿Ге , Твзп );
Твзп = Ч иt2...и^,I = 1,N.
С учетом выделенных планировщиком ресурсов Твзп можно вычислить по формуле:
ti
Т =
взп
ч
шт
iеNJ
где - относительная производительность каждого нейропроцессора, которая определяет, во сколько раз ядра данного узла работают быстрее вычислительных ядер самого непроизводительного узла, NJ - множество номеров вычислительных узлов р-, отданных подзадаче.
Структура каждой задачи taski может быть описана с помощью БРМБ-модели. БРМБ модель - подкласс М1МБ моделей по классификации Флинна, описывает систему, где на всех процессорах М1МБ-машины выполняется только одна единственная программа, и на каждом процессоре она обрабатывает разные блоки данных именно такая модель присуща распределенным вычислительным кластерам [1].
Функция Taski (данные)
Цикл от 1 до где - - количество подзадач taski задачи Taski.
{
Коммутационная фаза
Вычислительная фаза
}
Выполнение каждого процесса параллельной задачи представляет собой чередование коммутационной фазы и фазы вычислений.
205
Опишем коммуникационную фазу выполнения подзадачи. Коммуникационная фаза на каждой итерации может быть представлена в виде одного коммуникационного паттерна СР\ из множества
CPi = {CP1,...,CPj,...,CPN},i = 1,N;
CPi = (Proci, Pi(Proci, Proci+1)),
где Proci - множество процессов подзадачи, а Pi (Proci, Proc+1)- функция, определяющая количество пакетов сообщения, передаваемого от процесса Proci к процессу Proci+1. Выполнение коммуникационной фазы для каждого процесса Proci состоит из двух шагов: на первом шаге происходит неблокируемая рассылка сообщений всем свободным процессам, ожидающим приема пакетов, а на втором шаге происходит блокируемый прием пакетов от конкретных процессов, которым предназначаются рассылаемые неблокируемые данные. В литературе встречаются следующие типичные паттерны: Random, Pairs, Ring, One-to-all и All-to-all [5].
Опишем вычислительную фазу выполнения подзадачи. Основным параметром, характеризующим эту фазу, является время выполнения процесса Proci на нейропроцессоре. Введем функцию j(Proci) ® Pi, которая ставит в соответствие каждому процессу Proci вычислительный модуль -нейропроцессор, на который он назначен алгоритмом планирования. В общем виде, будем считать что каждый процесс тратит одинаковое время на выполнение вычислительной части каждой итерации SPMD-модели задачи. Тогда время выполнения коммутационной фазы процессом Proci можно вычислить по формуле:
Твыч (Proci) = ti
(у (ргос))
Тогда если взять Ткомм (ргос.)-время выполнения коммуникационной фазы процессом ргос. задачи ¿ш^, тогда реальное время выполнения задачи может быть вычислено по формуле:
т
Т1а& = тах{ £ Ткомм (РгосI) +-^Т-.
.=1 т^.(у(Ргос.))
Следует отметить, что величина Ткомм (ргос.) зависит от сетевой конкуренции и от физического расположения нейропроцессов на вычислительных узлах, ее значение может быть вычислено непосредственно в процессе работы вычислительного кластера и его управляющей системы. Также следует отметить, что в рамках данной модели происходит пренебрежение временем разбиения сообщения на пакеты в виду его незначительности.
Заключение. В статье предложены формализованное описание и обобщенная модель функционирования вычислительной системы на базе нейрокомпьютеров, включающая ее характеристики, возможные структуры при взаимодействии с памятью, модель передачи сообщений и модель распределения задач внутри облачного кластера.
Исследование выполнено при финансовой поддержке РФФИ в рамках научного проекта №14-07-00261 а.
Список литературы
1. Топорков В.В. Модели распределенных вычислений. М.: ФИЗМАТЛИТ, 2004. 320 с.
2. Карпов В.С., Ивутин А.Н., Суслин А.А. Подход к реализации методики оценки надежности ПО на основе комплексных метрик // Известия Тульского государственного университета. Технические науки. Вып. 4. Тула: Изд-во ТулГУ, 2009. С. 116-125.
3. Романчук В. А., Ручкин В.Н. Разработка программного комплекса для моделирования и анализа нейропроцессорных систем обработки изображений // Цифровая обработка сигналов. №1. 2010. С. 53-58.
4. Романчук В. А., Ручкин В.Н. Разработка алгоритмов определения вида структуры нейропроцессорной системы на основе описания связей ее элементов // Информатика и прикладная математика: межвуз. сб. науч. тр. Вып. 17, 2011. С. 106-109.
5. Романчук В.А. Оптимизация программных и аппаратных средств сложных вычислительных систем на базе нейропроцессоров // Моделирование, оптимизация и информационные технологии. №1(8). 2015. URL: http://moit.vivt.ru/wp-content/uploads/2015/03/Romanchuk 1 15 1.pdf (дата обращения: 24.08.2016).
6. Романчук В. А. Разработка алгоритмов определения связей элементов вычислительной структуры на базе нейропроцессоров // Информатика и прикладная математика: межвуз. сб. науч. тр. Вып.17, 2011. С.102-105.
7. Макаров Д.В., Романчук В.А. Облачные SaaS, IaaS, PaaS системы для искусственного интеллекта // Современная техника и технологии. № 5. 2015. URL: http://technology.snauka.ru/2015/05/6731 (дата обращения: 01.09.2016).
8. Романчук В.А. Инновационный программный комплекс моделирования вычислительных систем на базе нейропроцессоров "НейроКС" // Современные научные исследования и инновации. №12. 2012. URL: http://web.snauka.ru/issues/2012/12/19407 (дата обращения: 01.09.2016).
9. Романчук В. А. Разработка методологических основ программной оптимизации систем нейрокомпьютерной обработки информации // Молодой ученый. №15. 2015. С. 56-61.
10. Романчук В. А., Математическое обеспечение оценки производительности систем нейрокомпьютерной обработки информации // Известия Тульского государственного университета. Технические науки. Вып. 2. Тула: Изд-во ТулГУ, 2016. С. 242-251.
11. Галушкин А.И. Нейронные сети: основы теории. М.: «Горячая линия Телеком», 2010. 496 с.
Романчук Виталий Александрович, канд. техн. наук, доц., v.romanchukarsu. edu. ru, Россия, Рязань, Рязанский государственный университет имени С.А. Есенина,
Лукашенко Владислав Владиславович, асп., v. lukashenkoarsu. edu. ru, Россия, Рязань, Рязанский государственный университет име-ни С.А. Есенина,
Ручкин Владимир Николаевич, д-р техн. наук, проф., v.ruchkinarsu.edu.ru, Россия, Рязань, Рязанский государственный университет имени С. А. Есенина
GENERALIZED MODEL OF FUNCTIONING OF CLOUD COMPUTING SYSTEM BASED
ON NEUROCOMPUTERS
V.A. Romanchuk, V.V. Lukashenko, V.N. Ruchkin
Proposed andformalized description of the generalized model of the functioning of a computer system on the basis of neurocomputers, including its characteristics, the possible structure of the interaction with memory, messaging model and the model of the distribution of tasks within the cloud cluster.
Key words: computer system, cloud computing, operating model, neurocomputer.
Romanchuk Vitaliy Alexandrovich, candidate of technical science, docent, v.romanchuk a rsu.edu.ru, Russia, Ryazan, Ryazan State University,
Lukashenko Vladislav Vladislavovich, postgraduate, v. lukashenkoa rsu. edu. ru, Russia, Ryazan, Ryazan State University,
Ruchkin Vladimir Nikolaevich, doctor of technical science, professor, v. ruchkina rsu. edu. ru, Russia, Ryazan, Ryazan State University