Динамика цен на первичном рынке жилья зависит от изменения стоимости строительства, которая во многом определяется изменением стоимости строительно-монтажных работ.
В 2001-2003гг. цены на первичном рынке жилья увеличивались более высокими темпами, чем цены на строительно-монтажные работы. В 20042005 гг. ситуация изменилась: рост цен на строительно-монтажные работы значительно опережал увеличение цен на первичном рынке жилья. В 2005 г. увеличение цен на строительно-монтажные работы по сравнению с декабрем предыдущего года составило 133,4% (в 2004 г. - 123,3%, в 2003 г. - 116,0%, в 2002 г. - 1087,0%, в 2001 г. - 105,3%).
На сегодняшний день рост цен сменило инерционно продолжающееся удорожание квартир при том, что некоторые застройщики даже снизили цены на несколько процентов.
Для того чтобы жильё стало «доступным», нужно не только снизить цены, но и поднять уровень доходов населения. Программа обеспечения граждан доступным жильём - это целый комплекс мер, который нужно осуществлять единовременно.
Список использованных источников
1. Инвестиции и строительство в Орловской области: Стат. Сб./ Территориальный орган ФСГС по Орловской области (Орелстат) - Орел, 2006г. - 94 с.
2. Инвестиции и строительство в Брянской области: Стат. Сб./ Территориальный орган ФСГС по Брянской области (Брянскстат) - Брянск, 2006г. - 98 с.
Кравец О.Я., Авдеева В.М.
ОСОБЕННОСТИ ПРОГНОЗИРОВАНИЯ НАЛОГОВЫХ ПОСТУПЛЕНИЙ В УСЛОВИЯХ НЕОПРЕДЕЛЕННОСТИ
Воронежский государственный технический университет Воронежский экономико-правовой институт
Актуальной становится задача анализа больших нелинейных систем на основе подхода, не требующего полного формального описания функционирования системы. Этот подход полностью реализован в методиках нейросе-тевого анализа.
1. Особенности прогнозирования в условиях неопределенности и применимость аппарата нейросетей к построению прогностических моделей
В условиях неполной информации задача прогнозирования значительно усложняется. Неполнота информации может появляться в отсутствии данных наблюдений в определенной временной точке одного или нескольких значимых факторов или экспертных оценок. Кроме того, как отмечается в [1], сбор, первичная обработка, передача и хранение статистических сведений ведутся по большей части устаревшими и неэффективными методами, в том числе с применением бумажных носителей и почтовой пересылки. Недоста-
точен, а в ряде случаев и отсутствует, необходимый контроль достоверности представляемых данных. Это иногда приводит к необъективности и даже к искажению информации. Применение комбинированных методов приводит к необходимости одновременного анализа качественных и количественных факторов, следовательно, возникает проблема выбора системы измерений.
Информационные модели по своей природе всегда являются неполными [2]. Пространства входных и выходных переменных в общем случае не могут содержать все важные для описания параметры системы. Это связано как с техническими ограничениями, так неограниченностью представлений о моделируемой системе. Кроме того, при увеличении числа переменных увеличиваются требования к объему экспериментальных данных, необходимых для построения модели. Эффект неучтенных (скрытых) параметров может повлиять на однозначность моделирования системы.
Экспериментальные данные, как правило, имеют произвольное распределение в пространстве переменных задач. Как следствие, получаемые модели будут иметь неодинаковую достоверность и точность в разных областях изменения параметров.
Экспериментальные данные могут содержать изъятые значения (например, вследствие потери информации или невозможности проведения полного набора экспериментов). Произвол в интерпретации этих значений ухудшает свойства модели.
Неопределенность как экономическая категория отражает невозможность точного учета и расчета изменений, возникающих в системе под воздействием сложных причинно-следственных связей, социальных, политических, экономических, демографических и иных причин. Неопределенность нельзя измерить в силу ограниченности научных знаний о процессах и закономерностях развития экономики. В то же время проявление неопределенности в экономических ситуациях приводит к потере точности расчетов и прогнозов, следовательно, не может игнорироваться.
В ряде работ показано, что влияние одного события на другое проявляется по прошествии некоторого времени, величину которого называют временным лагом А. Временной лаг обнаруживается при определении связей между явлениями в социальной, финансовой, медицинской сферах и других сферах. Например, было обнаружено запаздывание влияния неблагоприятных экологических факторов на заболеваемость раком почки, определен временной лаг между объективным положением дел в России и доверием политическим лидерам [3]. При наличии неизвестного временного лага задача прогнозирования многомерных временных рядов существенно усложняется, так как во всех рассмотренных ранее методах предполагается однозначное соответствие между результатами наблюдений значений влияющих факторов в конкретной временной точке и значением исследуемой зависимой величины.
Таким образом, при использовании традиционных моделей в прогнозировании предполагается, что основные факторы и тенденции прошлого пе-
риода сохраняются на период прогноза или можно обосновать и учесть направление их изменений в перспективе. Однако если исследователь имеет дело с новыми явлениями и с короткими временными рядами, устаревшие данные часто оказываются бесполезными и даже вредными. Следовательно, возникает необходимость строить модели, опираясь в основном на малое количество самых свежих данных, наделяя модели адаптивными свойствами.
В условиях определенности прогнозирование сложных систем успешно осуществляются на основе традиционных методов математической и экономической статистики. Это позволяет строить обоснованные модели систем в случае большого набора экспериментальных данных, достаточного для доказательства статистических гипотез о характере распределения, и при относительно равномерном их распределении в пространстве параметров. Однако, в условиях неопределенности при высокой стоимости экспериментальных данных, или невозможности получения достаточного их количества, или их высокой зашумленности, неполноте и противоречивости, такие модели являются неработоспособными [4]. В особенности опасно использование этих моделей при малых статистических выборках [5], так как полученные на них законы распределения могут быть неустойчивыми [6]. В таких условиях наилучшими оказываются модели, построенные на базе нейронных сетей.
Нейронные сети представляют собой универсальный математический аппарат для решения различных задач [7] (таких как классификация, распознавание образов, аппроксимация функций, прогнозирование временных рядов, сжатие информации, фильтрация сигналов, адаптивное управление, диагностика, выявление скрытых зависимостей в массивах данных). Настройка нейронной сети на решение конкретной задачи происходит в процессе ее обучения. Обучение представляет собой процесс модификации внутренней структуры нейронной сети по определенному алгоритму [8] с целью получения требуемой по смыслу задачи реакции сети на предъявляемые исходные данные. В большинстве задач процесс обучения заключается в циклической подаче на вход сети различных наборов входных данных, для каждого из которых известен требуемый выход сети. Обучение продолжается до тех пор, пока значение критерия, характеризующего различие между требуемыми и реально полученными выходами сети, не станет меньше определенной величины. После окончания обучения сеть готова к работе и может обрабатывать новые, ранее не предъявлявшиеся ей наборы данных.
Нейронные сети - это обобщенное название нескольких групп алгоритмов, способных обучаться на примерах, извлекая скрытые закономерности из потока данных [9]. При этом данные могут быть неполны, противоречивы и искажены. Если между входными и выходными данными существует какая-либо связь, пусть даже не обнаруживаемая традиционными корреляционными методами, нейронная сеть способна настроиться на нее с заданной степенью точности. Кроме того, современные нейронные сети обладают рядом дополнительных возможностей и с их помощью можно оценивать сравнительную важность различных видов входной информации, уменьшать ее объем
без потери существенных данных, распознавать симптомы приближения критических ситуаций.
С математической точки зрения нейронная сеть представляет собой многослойную сетевую структуру [10], состоящую из однотипных и сравнительно простых элементов - нейронов, структура и принципы функционирования которой представлены на рис. 1.
Синапсы осуществляют связь между нейронами, умножают входной сигнал на число, характеризующее силу связи, - вес синапса. Сумматор выполняет сложение сигналов, поступающих по синаптическим связям от других нейронов, и внешних входных сигналов. Нелинейный преобразователь реализует нелинейную функцию одного аргумента - выхода сумматора. Эту функция называют функцией активации или передаточной функцией нейрона. Нейрон в целом реализует скалярную функцию векторного аргумента.
Математическая модель нейрона может быть описанная в виде (1):
N
Б = 2Х • X, + Ь, (1)
У = ц в ), _ (2)
где - вес синапса, (,=1,2, ... Ь - значение смещения; б - результат суммирования; X! - компонента входного вектора (входной сигнал), (,=1,2, ... у - выходной сигнал нейрона; N - число входов нейрона; Г - нелинейное преобразование (функция активации).
На входной сигнал (б) нелинейный преобразователь отвечает выход-
ным сигналом К(Б,р), который представляет собой выход нейрона (у). Здесь р - параметр или набор параметров, от которых зависит функционирование преобразователя.
Функция активации ограничивает амплитуду выходного сигнала нейрона. Чаще всего применяются три основных типа функций активации [11].
1. Пороговая функция, описывающаяся следующим образом (3):
Г1, если б > 0,
ОД = \ (3)
[0, если б < 0.
2. Кусочно-линейная функция, описываемая выражением (4):
ОД'
1, если б > -1, 2
11
б, если — < б <— (4)
22
0, если б < -1.
2
3. Сигмоидальная функция, которая наиболее часто используется в качестве функции активации. Наиболее ценным с точки зрения построения нейронной сети является дифференцируемость сигмоидальной функции. В качестве функции активации используют логистическую функцию (5) с областью значений [0, 1] и гиперболический тангенс (6), область значений которой представляет собой отрезок [-1, 1]:
ОД =:-17-г, (5)
1 + ехр(-аБ)
где а - параметр наклона, выбираемый в общем случае экспериментально,
ОД = Л(Б). (6)
К задачам, успешно решаемым нейронными сетями, относят формирование моделей различных нелинейных и трудно описываемых математически систем [7], прогнозирование развития этих систем во времени; прогнозирование природных, финансовых процессов, построение системы управления и регулирования с предсказанием [12]. Нейронные сети хорошо работают в условиях зашумленности и противоречивости данных и могут применяться как самостоятельный инструмент, так и служить дополнением к классическому техническому анализу, который при исследовании сложных систем все чаще перестает работать или выдает противоречивые сигналы.
Особенность применения нейронных сетей, заключающаяся в фиксации факта зависимости одних переменных от других, а не вида этой зависимости, позволяет адаптировать экспертные системы на базе нейронных сетей к изменяющимся средам, исключая дорогую настройку [13]. В частности, нейронные сети хорошо себя зарекомендовали в качестве основы для разработки экспертных систем в нечетких средах, в которых часто отсутствует явная функциональная зависимость между событиями, свойственная статическим экспертным системам [14]. Применение нейронных сетей позволяет
достичь значительно более хороших результатов, чем применение статистических методов регрессионного анализа [15], применяемого традиционно, поскольку нейронная сеть строит неформальную модель процесса, которая не может быть выражена в виде некоего формального аппарата выделения статистических характеристик, применяемого в регрессионном анализе.
2 Архитектура искусственной нейронной сети и алгоритмы обучения для решения задачи прогнозирования многомерных временных рядов
Налоговые поступления и уровень собираемости налогов в динамике представляют собой временной ряд наблюдений, следовательно, необходимо проанализировать возможность применения нейронной сети для прогнозирования временного ряда, требующего предварительного решения следующих задач.
1. Выбор архитектуры нейросети, то есть типа сети и передаточной функции.
2. Выбор структуры сети - определение количества скрытых слоев, количества входных, выходных, скрытых нейронов в каждом слое.
3. Формирование информационной базы и построение обучающего, тестирующего, контрольного множеств.
4. Обучение нейросети.
5. Получение прогнозного значения и оценка качества функционирования сети.
Существуют достаточно большое количество способов объединения нейронов в сеть (то есть архитектур нейронных сетей). Выбор конкретной архитектуры определяется особенностями задачи, для решения которой предполагается использовать нейронную сеть. Нейронные сети с дискретными выходными сигналами используются для классификации и распознавания входной информации, а нейронные сети с непрерывными выходными сигналами - для экстраполяции и аппроксимации на основе неформальных нелинейных моделей. Соответственно, для решения задачи прогнозирования принципиально могут быть использованы следующие типы архитектур: сети радиального базиса и многослойный персептрон (MLP). Подробный анализ прогнозирующих свойств этих сетей был выполнен П.Е. Родионовым [16]. Показано, что архитектура типа «многослойный персептрон» отвечает специфике задачи прогнозирования временных рядов, так как обладает способностью экстраполировать данные, более компактна за счет эффективного использование всех нейронов сети, зачастую требует меньшего числа обучающих примеров и имеет удовлетворительную для решения рассматриваемой задачи скорость обучения. Модель многослойного персептрона представлена на рис. 2.
При выборе структуры нейронной сети основную сложность составляет выбор количества скрытых слоев и нейронов в каждом из них, так как количество нейронов входного слоя обусловлено размерностью входного век-
тора X, а количество нейронов выходного слоя принимается равным размерности выходного вектора У. Определение минимального количества скрытых слоев сети основано на использовании свойств аппроксимирующих функций. В работе [17] А.Н. Горбань приводит доказательство теоремы Колмогорова о представимости непрерывных функций нескольких переменных в виде суперпозиции непрерывных функций одного переменного, которая затем была применена Хехт-Нильсеном для нейронных сетей. Теорема Хехт-Нильсена доказывает представимость функции многих переменных с помощью двухслойной нейронной сети с прямыми полными связями с п нейронами входного слоя, (2п+1) нейронами скрытого слоя с заранее известными ограниченными функциями активации (например, сигмоидальными) и m нейронами выходного слоя с неизвестными функциями активации. Данная теорема не является конструктивной и не определяет методику определения числа нейронов в сети для некоторой конкретной обучающей выборки. На практике структура нейронной сети определяется в ходе экспериментов с различным количеством слоев, обычно не превышающим двух, и различным количеством нейронов в скрытых слоях. Однако существуют некоторые оценки количества скрытых нейронов с учетом объема обучающей выборки.
Если п - размерность входного сигнала, т - размерность выходного сигнала, N - число элементов обучающей выборки, то необходимое число синаптических весов в многослойной сети с сигмоидальными передаточными функциями оценивается соотношением (7):
mN
£ Ч < т
л
N+1
Vт у
(п + т +1) + т .
(7)
1 + 1о§2 N
Для нейронной сети с одним скрытым слоем существуют и другие
формулы для оценки количества скрытых нейронов L, например: N т N
--n - m < L <--n - m. (8)
10 2
Многие исследователи, в частности, С. Хайкин [11], отмечают противоречивые требования к размеру скрытого слоя. С одной стороны, для обеспечения наилучшей точности аппроксимации размер скрытого слоя должен быть большим. С другой стороны, для обеспечения возможности обобщения для фиксированного объема обучающего множества размер скрытого слоя должен оставаться малым для исключения запоминания сетью обучающих примеров. Для достижения компромисса между описанными противоречивыми требованиями предлагается выбирать размер обучающего множества порядка nL/e0, где e0 - среднеквадратическое значение ошибки оценивания.
Настройка параметров нейронной сети происходит во время процедуры, называемой обучением, или тренировкой сети. Существует множество алгоритмов обучения подобных сетей, причем для решения конкретной задачи алгоритм может модифицироваться. Однако обучение сети для прогнозирования чаще всего производится методом обратного распространения ошибки. Реализация данного алгоритма требует соблюдения ряда ограничений: тип входных сигналов - целые или действительные, тип выходного сигнала - действительные из интервала, заданного передаточной функцией нейронов, тип передаточной функции - сигмоидальная.
Обучение нейронной сети методом обратного распространения требует выполнения следующих операций:
1. Выбрать очередную обучающую пару из обучающего множества; подать входной вектор на вход сети.
2. Вычислить выход сети.
3. Вычислить разность между выходом сети и требуемым выходом (целевым вектором обучающей пары).
4. Скорректировать веса сети так, чтобы минимизировать ошибку.
5. Повторять шаги с 1 по 4 для каждого вектора обучающего множества до тех пор, пока ошибка на всем множестве не достигнет приемлемого уровня.
Операции, выполняемые шагами 1 и 2, сходны с теми, которые выполняются при функционировании уже обученной сети, т. е. подается входной вектор и вычисляется получающийся выход. Вычисления выполняются послойно. Сначала вычисляются выходы нейронов первого скрытого слоя j, затем они используются в качестве входов слоя k, вычисляются выходы нейронов слоя k, которые и образуют выходной вектор сети.
На шаге 3 каждый из выходов сети вычитается из соответствующей компоненты целевого вектора, чтобы получить ошибку. Эта ошибка используется на шаге 4 для коррекции весов сети, причем знак и величина изменений весов определяются формой алгоритмом обучения.
После достаточного числа повторений этих четырех шагов разность между действительными выходами и целевыми выходами должна умень-
шиться до приемлемой величины, при этом говорят, что сеть обучилась.
На шаги 1 и 2 можно смотреть как на «проход вперед», так как сигнал распространяется по сети от входа к выходу. Шаги 3, 4 составляют «обратный проход», здесь вычисляемый сигнал ошибки распространяется обратно по сети и используется для подстройки весов.
Однако достижение минимума ошибки обучения не гарантирует получение такой же ошибки на данных, не предъявлявшихся нейросети на этапе обучения, то есть ошибка обобщения может быть неприемлемой. Для обеспечения достаточной обобщающей способности нейросети применяют кросс-проверку. В рамках этого подхода из имеющихся в наличии данные случайным образом выделяют тестовое множество. Оставшаяся часть данных разделяется на обучающее и контрольное множества. Математического выражения, определяющего оптимальное разбиение обучающей выборки на обучающие и контрольное множества, не существует, однако в [11] приведены некоторые качественные свойства оптимального разбиения.
Пусть параметр г е[0, 1] определяет разбиение обучающей выборки на подмножества собственно обучения и контроля. Пусть выборка содержит N примеров. Тогда после разбиения (1-г^ примеров будут принадлежать подмножеству обучения, а ^ примеров - подмножеству контроля. В ходе многочисленных исследований и вычислительных экспериментов, описанных там же, было получено рекомендованное к практическому использованию значение г=0.2. Кроме того, были получены важные результаты оценки эффективности кросс-проверки в зависимости от размеров обучающей выборки.
1. N<30". Если N - размер обучающей выборки, W - количество свободных параметров сети (весов и смещений), то
,/2" -1 -1
г = 1 1 1. (9)
2(" -1)
2. N>30". В этом случае эффективность кросс-проверки мало зависит от способа разбиения, и можно принять г=0.2.
Существуют и другие варианты кросс-проверки, которые применяются на практике при недостатке данных для обучения. В такой ситуации используют многократную кросс-проверку, разделяя множество из N примеров на К подмножеств (К>1), причем N кратно К. Обучение нейросети проводится на всех подмножествах, кроме одного. На этом оставшемся подмножестве выполняется тестирование и определяется ошибка обобщения. Эта процедура повторяется К раз, причем каждый раз для тестирования используются разные подмножества. Затем квадратичная ошибка усредняется по всем попыткам. Недостатком данного метода является большой объем вычислений, так как обучение проводится К раз.
Если количество доступных примеров N сильно ограничено, может быть использована экстремальная форма многократной кросс-проверки - метод исключения одного примера. В этом случае для обучения модели используется N-1 примеров, а тестирование выполняется на оставшемся. Экс-
перимент повторяется N раз, причем каждый раз для проверки используются разные примеры. После этого квадратичная ошибка обобщения усредняется по всем N экспериментам.
Сравнительно новым является метод определения оптимального количества нейронов в скрытом слое через сопоставление средних значений модулей весов при недостатке исходных данных и отказа от выделения тестового множества, предложенный В. Г. Царегородцевым [18]. Результаты проведенного автором исследования иллюстрируют сходность поведения классических кривых обучения и предложенного им графика зависимости среднего модуля веса синапса от размера нейросети. Однако, по замечанию самого автора, данный метод не является универсальным из-за неоднородности наборов синапсов сети от слоя к слою.
Во всех задачах оптимизации существенную роль играет вопрос о правилах остановки: когда следует прекратить циклическое функционирование сети, остановиться и считать полученный результат ответом? В [17] как наиболее простой, приводится критерий остановки по малости изменений: если изменения сигналов сети за цикл меньше некоторого фиксированного малого 8 (при использовании переменного шага 8 может быть его функцией), то оптимизация заканчивается. Кроме того, используют остановку по достижении некоторого количества итераций и раннюю остановку, основанную на контроле ошибок обучения и обобщения, и использования минимума кривой тестирования в качестве критерия остановки сеанса обучения (рис. 3).
Количество шо!
Рис. 3. Процесс обучения с ранней остановкой на основе кросс-проверки
При обучении нейронной сети методом обратного распространения ошибки минимизируемой величиной является среднеквадратичное отклонение текущих выходов нейронной от требуемых, представленных в обучающем примере. В общем случае вид функции ошибки определяется поставленной задачей. Например, в задаче прогнозирования не абсолютного значе-
среднеквад -ратическая ошибка
Точка останова
Тестирующая у выборка X
ния экономического показателя, а знака его изменения, была использована функция ошибки в виде:
е, =-1--h, (10)
1 + exp(-c(sign j (Уj - dJ) -1))
где с, t, h - константы, yj - выход j-го нейрона, dj - требуемое значение выхода j-го нейрона, slgn(yj - dj)>0, если знаки yj и dj не совпадают, иначе slgn(yj - dj)<0.
Основным недостатком метода обратного распространения исследователи считают невозможность предсказания времени сходимости данного алгоритма. Поэтому существует множество работ, посвященных модификации алгоритма обратного распространения.
В [11] описан метод ускорения сходимости алгоритма обратного распространения. Названный обратным распространением второго порядка, он использует вторые производные для более точной оценки требуемой коррекции весов. Показано, что этот алгоритм оптимален в том смысле, что невозможно улучшить оценку, используя производные более высокого порядка. Метод требует дополнительных вычислений по сравнению с обратным распространением первого порядка, и необходимы дальнейшие эксперименты для доказательства оправданности этих затрат.
Там же описан метод улучшения характеристик обучения сетей обратного распространения. В работе указывается, что общепринятый от 0 до 1 динамический диапазон входов и выходов скрытых нейронов неоптимален. Так как величина коррекции веса Awpq,k пропорциональна выходному уровню нейрона, порождающего yp,j, то нулевой уровень ведет к тому, что вес не меняется. При двоичных входных векторах половина входов в среднем будет равна нулю, и веса, с которыми они связаны, не будут обучаться! Решение состоит в приведении входов к значениям ±0.5 и добавлении смещения к сжимающей функции, чтобы она также принимала значения ±0.5. Новая сжимающая функция выглядит следующим образом:
f(s) = -2 + . (11)
2 1 + e s
С помощью таких простых средств время сходимости сокращается в среднем от 30 до 50%. Это является одним из примеров практической модификации, существенно улучшающей характеристику алгоритма.
Прогнозирование временных рядов с помощью нейросетей основано на методе временных окон [19]. Основная идея данного подхода состоит в использовании двух окон, одно из которых входное (input), второе - выходное (output). Эти окна фиксированного размера для наблюдения данных способны перемещаться с некоторым шагом S. В результате получают некоторую последовательность наблюдений, которая составляет обучающее множество. Входному окну соответствует вход нейросети, а выходному окну - желаемый образ. Значение ширины окон и шага смещения должны быть согласованы с особенностями временного ряда, что обеспечивается путем проведения экс-
периментов.
В зависимости от количества признаков, представляющих значения рядов при формировании множеств данных, выделяют задачи двух типов: од-нопараметрическую и многопараметрическую задачи прогнозирования.
В однопараметрических задачах прогнозирования входное окно формирует данные для входов нейронной сети, а выходное, соответственно, для выходов. Подобную пару входного и выходного векторов принимают за одну реализацию временного ряда. При сдвиге временных окон по временному ряду с шагом Б получают вторую и следующие реализации. Иллюстрация данного подхода представлена на рис. 4.
А ФУНКЦИЯ
время
--►
Рис. 4. Формирование обучающей выборки в однопараметрической задаче прогнозирования
В многомерных (многопараметрических) задачах прогнозирования реализован подход, проиллюстрированный рис. 5. В случае учета различных факторов, влияющих на прогнозируемую величину, каждый обучающий пример содержит историю значений по факторам, значимо влияющим на значение прогнозируемой величины и историю значений самой прогнозируемой величины, а также требуемый выход нейросети.
Такой подход порождает задачу отбора факторов, значимо влияющих на прогнозируемую величину и определение необходимой и достаточной глубины исторической выборки по каждому из них, обеспечивающей приемлемую точность прогноза, а также учитывающей возможную нехватку данных наблюдений, обусловленную малой длиной временного ряда.
В задачах анализа временных рядов особую сложность представляет интерпретация обучающего, контрольного и тестового множеств [17], а также неучитываемых данных, так как в этом случае каждый входной или выходной набор составлен из данных, относящихся к нескольким наблюдениям, число которых определяется шириной «временного окна» и частотой наблюдений. Возникает ситуация, когда данные одного наблюдения используются сразу в трех наборах, каждый из которых может быть обучающим, контрольным или тестовым. Для полного разделения обучающего, контрольного и тестового множеств необходимо сформировать отдельные блоки наблюдений, отделенные друг от друга достаточным числом неучитываемых значений, что на практике не реализуется. Применение нейросетей для анализа яв-
лений, недавно возникших, динамически развивающихся, не имеющих аналитического описания и длительной истории наблюдений, порождает проблему нехватки статистических данных для формирования вышеописанных множеств. Частично данную проблему можно решить на основе индивидуального подбора ширины временного окна для каждой независимой переменной, что приводит к сокращению количества входов нейросети, и, соответственно, уменьшению количества примеров, достаточных для обучения с приемлемым уровнем ошибки обобщения.
Входной вектор 1 Входной вектор 2
\ \
Выхсщной вектор 1 Выходной вектор 2
Рисунок 5 - Формирование обучающего множества данных для многопараметрической задачи прогнозирования
3. Задачи исследования
Целью работы является теоретическое обоснование и разработка математических и инструментальных методов краткосрочного прогнозирования налоговых поступлений в региональный бюджет с учетом отсроченного влияния изменений макроэкономических показателей на основе реализации методов нейросетевого моделирования и прогнозирования.
В соответствии с целью в работе поставлены следующие задачи: системный анализ специфики прогнозирования многомерных временных рядов с запаздывающим выходом в условиях ограниченных выборок;
анализ математических методов моделирования и прогнозирования количественных характеристик сложных систем;
разработка формализованного описания прогнозирования временных рядов с учетом временных лагов;
построение модели нейросетевого прогнозирования налоговых индика-
торов устойчивого развития, учитывающей отсроченное влияние значимых факторов;
оптимизация вектора запаздываний значимых факторов для нейросете-вого и регрессионного анализа;
разработка инструментальных средств прогнозирования объема и уровня собираемости налогов с учетом вектора оптимальных лагов;
апробация на практических примерах и оценка эффективности предложенных моделей и алгоритмов.
Список использованных источников
1. Феклистов И.Ф., Золин П.М. Статистические проблемы качества ресурсного потенциала вузов России// Университетское управление, № 4(32) 2004. - С. 7-18.
2. Прасолов А.В. Математические модели динамики в экономике. - СПб.: Изд-во СПбГУЭФ, 2000. - 247 с.
3. Давыдов А. Социальное неблагополучие: зависимость объективных и субъективных оценок, НСН - http://www.nns.ru/analit/pol/table.html.
4. Нестерук Г.Ф., Куприянов М.С., Нестерук Л.Г. Специфика нечеткого представления информации в искусственных нейронных сетях// Известия вузов. Приборостроение, т. 46, № 7, 2003.- С. 40-46.
5. Kon M., Plaskota L. Complexity of neural network approximation with limited information: a worst case approach // J. Complexity, vol. 17, no. 2, 2001. - pp. 345-365.
6. Мандель А. С. Прогнозирование временных рядов по коротким выборкам и метод аналогов// В сб. «Вторая международная конференция по проблемам управления». М.: ИПУ, 2003. - Т.1, стр. 175-176.
7. Горбань А. Нейроинформатика и ее приложения. -http://www.osp.ru/os/1998/04/05.htm.
8. Leustean L. Liquid flow time series prediction using feedforward neural networks and Rprop learning algorithm // Stud. Inf. Control (Romania), vol. 10, n. 4, 2001. - pp. 287-299.
9. Усков А.А., Кузьмин А.В. Интеллектуальные технологии управления. Искусственные нейронные сети и нечеткая логика. - М.: Горячая линия - Телеком, 2004. - 143 с.
10. Головко В. А. Нейронные сети: обучение, организация и применение. - М.: ИПРЖР, 2001. - 256 с.
11. Хайкин С. Нейронные сети: полный курс. - М.: И. Д. Вильямс, 2006. - 1104 с.
12. Пауков Д. Прогнозирование с помощью искусственных нейронных сетей. -http://paukoff. fromru.com/neuro/wneuro/index. html.
13. Котов В.Б., Политова С.В. Нейронные системы для моделирования причинности// Радиотехника и электроника, т.49, № 12, 2004. - С. 1452-1462.
14. Востров Г.Н., Любченко В.В., Полякова М.В. Моделирование временных рядов с использованием вейвлет-сетей// Искусственный интеллект, вып. 3, 2000. - С. 207-214.
15. Уоссерман Ф. Нейрокомпьютерная техника: теория и практика. - М.: Мир,
1992.
16. Родионов П.Е. Методика извлечения знаний в задачах анализа рядов динамики с использованием нейронных сетей. - Дис. ... канд. техн. наук: 05.13.17. - М., 2003.
17. Нейроинформатика/ А.Н. Горбань, В.Л. Дунин-Барковский, А.Н. Кирдин и др. -Новосибирск: Наука. СО РАН, 1998. - 296 с.
18. Царегородцев В.Г. Определение оптимального размера нейросети обратного распространения через сопоставление средних весов синапсов// Материалы XIV Международной конференции по нейрокибернетике, Ростов-на-Дону, 2005. - С.60-64.
19. Назаров А.В., Лоскутов А.И. Нейросетевые алгоритмы прогнозирования и оптимизации систем. - М.: Наука и Техника, 2003.