Научная статья на тему 'Отслеживание объектов в видеопотоке по значимым признакам на основе фильтрации частиц'

Отслеживание объектов в видеопотоке по значимым признакам на основе фильтрации частиц Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
2401
454
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ВИДЕО СЛЕЖЕНИЕ / ВЫЧИТАНИЕ ФОНА / ИДЕНТИФИКАЦИЯ ДВИЖЕНИЯ / ФИЛЬТРАЦИЯ ЧАСТИЦ / SIFT / VIDEO TRACKING / BACKGROUND SUBTRACTION / THE IDENTIFICATION OF TRAFFIC / PARTICLES FILTERING

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Мокшин В. В., Кирпичников А. П., Шарнин Л. М.

Интеллектуальное видеонаблюдение, адаптивное слежение за несколькими движущимися объектами является актуальным вопросом. В статье предлагается метод, основанный на анализе последовательности видеокадров. Определение движения осуществляется методом вычитания фона. Фильтрация частиц комбинируется с SIFT (инвариантная функция масштабных преобразований) используемая для слежения, где ключевые SIFT точки используются как части частиц для выборочного улучшения. Затем, метод системы цепей адаптируется для записи данных соответствий между различными объектами, который может улучшить точность распознавания и снизить вычислительную сложность. Система может отслеживать несколько объектов с более высокой производительностью. Метод устойчив к взаимным окклюзиям и может использоваться для интеллектуальных систем видеонаблюдения.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Мокшин В. В., Кирпичников А. П., Шарнин Л. М.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Intelligent video surveillance, adaptive tracking of multiple moving objects is a key issue. The paper proposes a method based on the analysis of the sequence of video frames. Motion detection is performed by subtracting the background. Filtration of particles combined with etsya SIFT (scale invariant feature transformation) is used to track where the SIFT key points are used as part of particles to selectively improve. Then, the method of circuit-tiruetsya adapted to write data correspondences between different objects, which can improve the accuracy of detection and reduce the computational complexity. The system can monitor several of objects with higher performance. The method is resistant to mutual occlusion and can be used for intelligent video surveillance systems.

Текст научной работы на тему «Отслеживание объектов в видеопотоке по значимым признакам на основе фильтрации частиц»

В. В. Мокшин, А. П. Кирпичников, Л. М. Шарнин

ОТСЛЕЖИВАНИЕ ОБЪЕКТОВ В ВИДЕОПОТОКЕ ПО ЗНАЧИМЫМ ПРИЗНАКАМ

НА ОСНОВЕ ФИЛЬТРАЦИИ ЧАСТИЦ

Ключевые слова: Видео слежение, вычитание фона, идентификация движения, SIFT, фильтрация частиц.

Интеллектуальное видеонаблюдение, адаптивное слежение за несколькими движущимися объектами является актуальным вопросом. В статье предлагается метод, основанный на анализе последовательности видеокадров. Определение движения осуществляется методом вычитания фона. Фильтрация частиц комбинируется с SIFT (инвариантная функция масштабных преобразований) используемая для слежения, где ключевые SIFT точки используются как части частиц для выборочного улучшения. Затем, метод системы цепей адаптируется для записи данных соответствий между различными объектами, который может улучшить точность распознавания и снизить вычислительную сложность. Система может отслеживать несколько объектов с более высокой производительностью. Метод устойчив к взаимным окклюзиям и может использоваться для интеллектуальных систем видеонаблюдения.

Keywords: Video tracking, background subtraction, the identification of traffic, SIFT, particles filtering.

Intelligent video surveillance, adaptive tracking of multiple moving objects is a key issue. The paper proposes a method based on the analysis of the sequence of video frames. Motion detection is performed by subtracting the background. Filtration of particles combined with etsya SIFT (scale invariant feature transformation) is used to track where the SIFT key points are used as part of particles to selectively improve. Then, the method of circuit-tiruetsya adapted to write data correspondences between different objects, which can improve the accuracy of detection and reduce the computational complexity. The system can monitor several of objects with higher performance. The method is resistant to mutual occlusion and can be used for intelligent video surveillance systems.

Введение

Определение движения и слежение за объектом является актуальной задачей для систем видеонаблюдения. На сегодняшний день для решения задачи слежения предложено много подходов. В работах [1, 2] информация о цвете, границе и информация о движении используется для распознавания и слежения за границей дорог, дорожной разметки и других объектов на дороге. Машины распознаются по соответствующим шаблонам, которые вырезаются из входной информации в режиме online, особенности обнаружения признаков сцен шоссе и оценки того, как они соотносятся друг с другом. Однако, этот метод является трудным в обработке при значительном изменении масштаба объекта, а пороговое значение определяется субъективно с меньшей робастностью. В работе [3] после получения контура движущегося объекта применяется метод растущей области сегментации для обнаружения области переднего плана, а прямоугольник рассматривается как центр масс движущихся объектов. Движущиеся объекты отслеживаются, используя минимальное Евклидово расстояние, и окрашиваются траектории движения. Тем не менее, метод работает плохо, когда центры масс объектов находятся близко, а также падают тени от объектов. В сложных средах точность будет значительно уменьшаться. Также для определения движения объектов используется Оптико-Поток [4]. Однако при наличии сложной сцены и быстрого перемещения объекта определение области движения будет затруднено и это приведет к снижению точности слежения. Также при неправильном определении начального положения объекта слежения, из-за резко меняющегося масштаба, результат будет плохим. Вопрос отслеживания нескольких объектов в видеопоследова-

тельностях остается актуальной задачей. Целью работы является найти компромисс между вычислительной эффективностью и точностью детектирования. Новизна работы: 1) позиции частиц определяются ключевыми точками, полученные по шкале инвариантной функции преобразования (SIFT), чтобы улучшить эффективность отслеживания 2) метод последовательности цепочек используется для записи данных соответствий между различными объектами, которые могли бы улучшить точность обнаружения и уменьшить сложность.

Слежение за подвижными объектами

В связи с развитием систем технического зрения возникают вопросы, связанные со слежением за несколькими объектами. Как правило, в видео отслеживании объекта участвуют методы обнаружения движения объектов, вычитание фона, удаление тени, слежение за объектом и т.д. [5].

Много подходов обнаружения движущихся объектов полагаются на вычитание фона из одного или нескольких статических камер. В основе любого алгоритма вычитания фона лежит построение статистической модели, которая описывает фоновое состояние каждого пикселя. Разные модели строят модель фона по-разному. Для слежения используют также фильтр Калмана [6], но модель фона может быть легко повреждена пикселями переднего плана в реальной сцене, и точность обнаружения движения будет низкой. Множественные распределения Гаусса используются в [7] для моделирования пикселей фона и этот метод способен обрабатывать мультимодальное распределение фона. Однако, на практике, моделирование вариаций фона с небольшим количеством распределения Гаусса иногда может быть не точным. Гупте [8] модифицировал фоновое изображение, которое вычитается из текущего

изображения так, чтобы оно было похоже на фон в текущем кадре видео. Фон обновляется, принимая взвешенное среднее текущего фона и текущий кадр видеопоследовательности. Однако, поскольку он использует только один предыдущий кадр, кадр разностного не может быть в состоянии определить внутренние пиксели как большого, движущегося объекта равномерного цвета. Для сохранения образца значения яркости для каждого пикселя в изображении используется Ядро вейвлета Marr [9], и этот образец используется для оценки функции плотности вероятности интенсивности пикселей. Этот метод является более устойчивым к изменениям освещения и фоновым шумам.

На производительность определения автомобиля и слежение в системах мониторинга влияет тень от объекта. Наличие тени будет вызывать ложные объекты или приводить к потере реальных объектов, которые серьезно влияют на достоверность результатов обнаружения. В настоящее время общие методы сегментации тени, как правило, основываются на цветовое пространство. Цветовое пространство используется в [9] для измерения степени монотонности в результате деления изображения, далее выполняются обнаружение и ликвидация тени. Тень может также быть сегментирована путем объединения HSV или HIS цветовой информации с градиентом информации изображение первого порядка [10]. Но все эти методы основаны на том соображении, что тень создается деревом цветовых компонентов фона, которые умножают некоторый коэффициент. Если размер тени мал, это очень вероятно, следует рассматривать ее как часть транспортного средства, также трудно установить автоматически сегментацию порога, трудно выделить черный автомобиль из тени. В [9,10], обнаружение движущегося объекта основано на вычитании фона и усиливается с использованием информации о масштабе края движущегося объекта, затем движущиеся тени устраняются на основе надежной граничной информации. Метод устойчив к различным широким ориентациям тени, теням от материалов на переднем плане, таких как цвет и размер.

Для отслеживания объектов используется фильтр Калмана в [6] в сочетании с блочными гистограммами подбора цвета для мульти объектного слежения. Тем не менее, в сложных условиях, начальные параметры не могут быть получены должным образом, которые часто приводит к накоплению ошибок отслеживания. Для слежения также применяется метод mean-shift [12] представлен метод за объектом. Mean-shift метод проявляет высокую эффективность для слежения за объектами с низкой сложностью. Алгоритм может попасть в локальные минимумы и потерять движение объекта. Метод фильтра частиц [13-15] предлагает среду для представления отслеживания неопределенности в Марковском методе, учитывая только информацию из предыдущих кадров. Таким образом, такой подход является более подходящим для критичных ко времени, интерактивных приложений. За последнее время опубликовано много работ в этом направлении и увеличился интерес в области сочетания ме-

тодов слежения и поиске классификатора. Также рассматриваются вопросы, связанные с выделением ключевых точек для слежения. В работе [16-18] используется SIFT соответствия для обнаружения движения области, а затем используется фильтрация частиц для отслеживания. Но, так как начальные области объекта выбираются вручную, метод не может быть использован для неконтролируемого применения. Кроме того, поскольку точки соответствия SIFT и частицы фильтрации используются в качестве двух отдельных процессов, производительность отслеживания способа является такой же, как и у традиционных фильтров частиц. В [18], массы частиц рассчитывают, во-первых, путем измерения цвета сходства и затем обновляют в соответствии с распределением SIFT совпадений. Таким образом, результаты отслеживания на самом деле решают соответствия SIFT. Mean-shift это непараметрический статистический метод поиска ближайших точек распространения образцов [19]. Но ядро Mean-shift непосредственно определяет размер окна, в котором рассматриваются веса выборки и не может справиться с изменением масштаба объекта. Кроме того, взаимные окклюзии в сложных условиях могут серьезно снизить точность слежения. Поскольку эффективность Mean-shift хуже, чем фильтр частиц для большинства приложений, в этой статье будем использовать фильтры твердых частиц для трассировки. Предыдущие подходы разработаны в первую очередь путем объединения обнаружения с фильтром, и редко касаются шага передискретизации.

Каждый объект можно охарактеризовать совокупностью значимых признаков [20]. И по этим признакам можно находить объект в пространстве или описывать процессы по имеющейся информации о признаках. Избавляясь от избыточности данных, получаем более эффективное решение.

Предлагаемый метод предназначен для надежного мульти объектного слежения путем объединения SIFT с передискретизацией частиц. А определение движения будет осуществляться путем определения фона с дальнейшим вычитанием из кадров видеопоследовательности с целью уменьшения вычислительных ресурсов.

Система слежения

Архитектура предлагаемого метода приведена на рисунке 1. Для моделирования фона и определения движения объекта используется метод [9]. Далее для слежения за объектом используется метод фильтрации частиц [18]. Для формирования фона используются кадры видеопоследовательности. Далее различия между фоновым изображением и текущим кадром используется для выделения объекта движения [9]. После удаления тени информация о движущемся объекте получена. Далее обновляется цепочка последовательностей объектов для определения информации между объектами. Для подтвержденных объектов для слежения сочетаются метод выделения ключевых точек SIFT и фильтр частиц.

bt+1( x y) =

\bt (x, y) +1, если vgt (x, y) > bt (x, y)

Рис. 1 - Система слежения за подвижными объектами

Алгоритм выделения фона состоит из следующих шагов:

Входные данные: Цветное RGB видео [v];

Выходные данные: Соответствующее бинарное видео [v’], в котором пиксели объекта имеют значение 1, а пиксели фона - 0;

Алгоритм:

[v’]:= 0;

for i = 0 to NumFrames ([v]) do [vgi] = RGB2Gray ([vj); for j = 1 to NumPixels ([vgj]) do

[bi] = ComputeApproxMedian ([vgj);

[di/i] = ComputeDifGraylevel ([vgj], [bi]);

[hi] = CreateDifHistogram ([df]); th1 = FirstMinHist ([hi]);

[g = ExtractForeground ([vgi], [bi], thi);

end;

[v’] = AddFrame ([v’], [fgi]); end;

Рассмотрим более подробнее эту программу:

1) Преобразовать последовательность цветных кадров в серые кадры;

2) Вычислить приблизительное среднее для моделирования сцены фона. На этом этапе определяется адаптивная модель фона, основанная на фильтре скользящего среднего. Если пиксель в текущем кадре имеет значение яркости больше, чем соответствующий пиксель фона, вес фонового пикселя увеличивается на 1, иначе вес соответствующего фонового пикселя уменьшается на 1:

\Ъг (х, у) -1, если (X, у) < Ь (X, у)

где Ь{+1 (х, у) и Ь{ (х, у) представляют пиксели модели фона в моменты времени t +1 и t соответственно, vgt (х, у) это значения яркости пикселя

(х, у) в кадре t. В итоге, сцена фоновой картинки будет стремиться к оценочному значению, где приблизительно половина входных пикселей будет больше, чем задний план (фон) и половина будет меньше, чем фон. Время схождения будет определяться частотой смены кадра и от степени движения на сцене.

3) Добавляем соответствующие гистограммы отличий для каждого кадра. Эти гистограммы показывают вероятностные отличия между текущим кадром и обновляемой моделью фона в каждый момент времени.

4) Подсчитываем первый существенный минимум в предыдущей гистограмме как порог переднего плана.

Соответствующие локальные минимальные значения этой гистограммы (т.е. те варианты, чьи абсолютные значения с их соседними позициями будут выше) являются кандидатами для расчета переднего плана из пикселей фона в каждом кадре. Выбираем в качестве порога первый значительный минимум. Это значение гарантирует, что будут классифицироваться как пиксели переднего плана те, чья разница с компьютерной моделью и средним фоном высока.

5) Определяется передний план объекта на каждом кадре помощью предыдущего порога.

Как только вычисляется порог сегментации интенсивность каждого пикселя, соответствующего движущемуся объекту устанавливается в единицу, потому как интенсивность таких пикселей выше, чем вычисленное пороговое значение. В противном случае пиксели устанавливаются в ноль (и рассматриваются в качестве фона, как и в случае с остальные элементами сцены).

Рис. 2 - Формирование фона

Модель слежения должна обновляться по мере появления или исчезновения согласно цепочке последовательности ассоциации данных.

Новизна работы заключается в следующем:

1) Использование SIFT алгоритма для слежения. Использование фильтрации частиц с методом ключевых точек SIFT. И через сохранение характеристики частиц может быть уменьшена деградация частиц;

2) Сочетание с независимой фильтрацией. Очередь цепочек используется для записи данных о

связях между рассеянными движущимися объектами, что повышает точность обнаружения и уменьшает вычислительную сложность.

Улучшенный фильтр частиц SIFT

Получение ключевых точек

После выделения области движения на кадре [9], используется масштабная инвариантная функция преобразования (SIFT) для получения ключевых точек области объекта. Так как SIFT преобразует данные изображения в масштабноинвариантные координаты относительно местных особенностей, важным аспектом этого подхода является то, что генерируется большое количество функций, которые плотно покрывают изображения во всем диапазоне от масштаба и места. Для сравнения и распознавания изображений сначала выделяются SIFT функции из набора эталонных значений и сохраняются в базу данных. Новая картинка сопоставляется индивидуальным сравнением каждого признака нового изображения с данными из базы данных, и находятся кандидаты соответствующих признаков, основанных на Евклидовом расстоянии их векторов признаков.

SIFT детектор извлекает из изображения набор кадров или ключевых точек. Так как изображение сдвигается, поворачивается и масштабируется кадры отслеживания блобов деформируются. SIFT дескриптор является грубым описанием нахождения границ в кадре. В качестве признаков изображения используются ключевые точки (КТ), применение которых в задачах слежения позволит воспользоваться их инвариантностью к геометрическим преобразованиям типа смещения, вращения и масштабирования, и их робастностью к изменению ракурса для обнаружения объекта на изображениях видеопоследовательности.

Основные шаги, используемые SIFT [21]:

1) Нахождение пространственно-временных экстремумов. Это функция Гаусса

G( x, ^,а) = ■

1

-( x2 + y2)l2CT2

2жа

2

где (х, у) - координаты пикселей изображения, значением пикселя является интенсивность цвета, а - стандартное отклонение.

Для двумерных изображений I (х, у), получаем Ь(х, у, а) = О( х, у, а) • I (х, у), где Ь(х,у,а)- это пространственный масштаб изображения I ( х, у). О (х, у, а) - это переменная масштаба функции Гаусса. Экспериментально, максимум Лапласиана-из-Гаусса (ЬоО), а2У2 О дает лучшее понятие масштаба.

Разница Гауссиан определяется как разница Лапла-сиана-из-Гаусса:

Б(х, у, а) = (О(х, у, ка) - О(х, у, а)) * I(х, у) =

= Дх, у,ка)- ь(х,у,а),

где * - операция свертки, к - постоянный множитель.

Масштаб

D $<2а ;

D(kir)

D(c)

Рис. 3 - Определение экстремума

В этой статье а устанавливается 0,5. Сглаженные изображения должны быть обработаны в любом случае для описания функций. В этом приложении, мы должны вычесть только два изображения, а затем выбрать все экстремумы в районе показателей 3x3x3 (рис.3).

2) Снятие нестабильности и краевых точек. Возьмем разложение в ряд Тейлора (до квадратичных членов) масштабно-функционального пространства Б(х, у, а), сдвигающегося так, что начало координат находится в точке выборки:

Б() Б дБТ 1т д2БТ

Б(х) = Б +-------X + — X ----~— X,

5 х 2 5 х2

где Б и его производные вычисляются в точке выборки и X = (х, у, а)т - это смещение от этой точки. Положение экстремума X определяется вычислением производной этой функции по X и приравниванием нулю:

д 2 D-1 дD

x = -

ТЛ 1 дD

, где D(x) = D + -

-1

д ^ д X " 2 Б X

Нестабильные точки удаляются по правилу: \Б (X)] < 0.03, а также отклоняются краевые

точки, которые не удовлетворяют:

\2 / , \2

T(н))2 < x +1)2

Det (H )

где н =

D.x

Dy

- это матрица Гессе 2x2, вы-

ху “ уу _

численная по месту нахождения и масштаба ключевой точки.

Тг (И)= Бхх + Буу , Беї (И)= ВххВуу - (о^ )2,

г = 10 [21].

3) Назначение ориентации. Масштаб точки используется для выбора правильного изображения Ь(х, у)= Є(х, у,а)-1(х, у)

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Затем вычисляются величины градиента и ориентации с помощью конечных разностей

т(х, у) = ^(х+1, у) - Ь(х -1, у))2 + (х, у+і) - Ь(х, у -1))2

e

Рис. 4 - Результат сопоставления SIFT e(x,y)= tan -'(((x,y + 1)- L(,y - 1))

V (l (x +1, y)-L(x -1, y)),

4) Получение соответствующих точек.

На рисунке 4 показаны ключевые моменты SIFT соответствующие результату движущегося объекта. Пример вычисления дескрипторов движущихся объектов приведен на рис. 5.

20 40 60 BO 100 120 140 160 1B0

Рис. 5 - Результат нахождения ключевых точек

Результат нахождения и сопоставления ключевых точек SIFT приведены в таблице 1.

Таблица 1 - Результаты работы SIFT алгоритма

Число выделенных КТ Время выделения КТ [МС] Время со-поставлення КТ [МС] Время Сбора кадр [МС]

92 336 86 96

Можно отметить, что большое время сбора кадров из видеопоследовательности не позволит исполнить слежение в реальном масштабе времени, а только на кадровой частоте не больше 10 Гц. Но для сопоставления объекта в кадре метод SIFT является эффективным.

Активная фильтрация частиц в сочетании с SIFT точками

Фильтрация частиц [15,16,18] объединяет в себе частицы в конкретном положении в одну частицу, рассчитывая вес с учетом количества частиц,

которые объединены в нем. Это устраняет необходимость выполнять вычисления без избыточного сдвига распределения вероятностей. Фильтрация частиц достигает этого путем отбора проб системы для добавления N частиц, затем проводится сравнение образцов друг с другом для формирования существенного веса. После нормализации веса, он пе-редискретизирует N частиц из системы с помощью этих весов. Шаг передискретизации важен в каждой реализации фильтрации частиц, потому что дисперсия частиц веса без этого быстро увеличивается. Идея повторной выборки заключается в удалении траектории частиц с малыми весами и репликации траектории с большими весами. Этот процесс значительно снижает количество частиц, которые должны быть выбраны, что делает систему менее интенсивной вычислительно. Но, проблема в том, что не существует никакого естественного параллелизма между итерациями, потому что новые итерации зависят от предыдущих. Таким образом, для активного слежения, необходимо автоматически инициализировать пространство состояний для первого кадра с помощью полученных соответствующих ключевых моментов с использованием SIFT метода. Далее определить координаты ключевых точек, полученных с помощью SIFT. Рассмотрим шаги, показывающие общую структуру систе мы слежения в сочетании с SIFT и фильтрацией частиц.

1) Область движения определяется дискретным вейвлет преобразованием [22] и распределение цветовой вероятности q = {q(u)}n,

W Ы q(u) = f k (М 8(h( xt) - u),

где I - число пикселей 8 - остаточная функция Кронекера, a - размер выбранной области, к - контур функции ядра Епанечникова, f - фактор нормализации. Объединяя текущую областью движения с ключевыми точками SIFT, получим следующее формализованное представление

^0 = {sift (x0°),1/N }N=1

2) По замещаемому методу выбора N образцов извлекается форма St-1 согласно w Вычислить нормализованные веса накопления:

/ N

для

с0 = 0,

Ct-1 0,

ci-i = + wt-i,

cri = cl I cN

W-l Ut-1 1 Ut-13

получения равномерного случайного числа r [0, 1]. Найти минимум к для ct-1 > r, и пусть S'tl 1 = Stk 1 •

3) Уравнение динамики имеет вид:

St = ASt— + R ■ rank,

где A или R матрица переходов между состояниями. rank - матрица случайных Гауссианов для центра объекта, такая что:

A=

"1 0"

, R = а

0 1

а313 а2П а2П а313

а = 3, а= 0.35,

Ssift ,t , может быть получено путем усреднения SIFT соответствия ключевых моментов во время от t до St.

4) Расчет коэффициента Бхаттачария [23] Р[ Pt, q] между образцом кандидата и маской приемника.

5) Перерасчет выборки весов

W =-=^exp(-(1 -p[pt, q])/2a2) ■ w\_x из

V2^C7

Ssift ’t

6) Центральное расположение движущегося объекта в момент времени t может быть рассчитано как среднее значение весов выборки:

E(S)= t,W!Sf / iZW

Объединяя частицы с ключевыми точками SIFT, наборы функции распределения будут обновляться и включены в процесс фильтрации частиц, поэтому точность описания частиц будет улучшена. При поддержании определенного числа независимых частиц с сильными характеристиками, деградация частиц будет смягчена, что может улучшить точность отслеживания движения и производительность. На рисунке 6 приведен результат слежения фильтрацией частиц, использующей ключевые точки SIFT, как начальные частицы [24].

Frame 1 Frame 5 Frame 8

Рис. 6 - Фильтрация частиц с использованием SIFT соответствий

Сведения о связях

Для последовательностей видеонаблюдения, движение положения объекта (например, автомобиля) аналогична структуре данных очереди списка (рис. 7). Каждый мобильный объект вводится на сцену дороги и оставляет свою траекторию (обгон не слишком влияет на точность отслеживания точности).

Рис. 7 - Объединение данных методом очереди

Последовательности ассоциации данных (сведения о связях) между объектами используются для много объектного слежения. Объект выделяется

как элемент очереди, чья структура содержит центр объекта, позиции граничных точек, направление движения и внутреннее цветовое распределение вероятностей, и лучший коэффициент соответствия Бхаттачария. Тогда алгоритм ввода нового объекта и вывода другого имеет следующую структуру (рис. 8).

Рис. 8 - Блок-схема данных о связях

Перекрытие: Объекты слежения могут перекрываться другими движущимися объектами. Таким образом, нет возможности обнаруживать все их функции дескрипторов. Предлагаемый метод устойчивость к взаимной окклюзии на короткое время.

Повторное появление: Объект в этом состоянии находит свое соответствие после исчезновения в течение короткого времени. Это происходит либо потому, что он выходит из фона объекта, который заблокировал его, или потому, что он еще раз выходит на сцену ненадолго. В этой статье отслеживание объекта рассматривается как новая процедура, новая для этого случая, и элемент в списке очереди не должен быть изменен.

Используя этот способ, можно быстро отслеживать движущиеся объекты в последовательности кадров, и вычислительная сложность очень низка. Это в большей степени способствует для систем управления видеонаблюдением. Для более случайного и сложного видео отслеживания объектов в других сценариях совместных вероятностных ассоциаций данных (Joint Probabilistic Data Association -JPDA) слежение можно рассматривать как представление суб оптимального байесовского алгоритма, который аппроксимирует последующие распределения объектов в виде отдельных Гауссианов для каждого из них, который предназначен для измерения зависимости со всеми весами от предсказанной вероятности соответствия, так и в других более сложных случаях рядом с одним путем движения дороги. Объединение структуры данных может быть достигнуто путем JPDA в сочетании с фильтрацией частиц.

Программное обеспечение

При проведении исследований методов слежения и моделирования результатов экспериментов использовалась система Matlab. Для ускорения вычисления в системе MATLAB, использовался интерфейс взаимодействия с внешними приложениями, написанными на языках

C. В качестве входного видео потока использовались видео с камер слежения за автомобилями на дорогах города. Разрешение кадра 768 х 576 с частотой 25 кадров в секунду. Алгоритмы тестировались на AMD Turion 64 X2 TL-62, 2100 MHz, и программным обеспечением Matlab 2012 и VC++. Для исследования производительности предлагаемого дескриптора используется библиотека Vedaldi, программируемой в С-языке, предназначенной для исполнения SIFT-алгоритма в системе Matlab.

Заключение

В данной статье рассмотрен метод слежения за подвижными объектами. Он хорошо зарекомендовал себя при слежении за автомобилями города. Предлагаемый метод основывается на совмещении фильтрации частиц с методом выделения ключевых точек SIFT. Движение на кадре определяется методом моделирования фона с последующим вычитанием текущего кадра и фона. Далее используется SIFT алгоритм для выделения ключевых точек движущихся объектов. Совмещение фильтрации частиц и ключевых точек SIFT может улучшить производительность слежения. Данные о связях и последовательностях подвижных объектов используются для записи о состоянии объектов. Предлагаемый метод эффективен для отслеживания объектов в сложных средах. Дальнейшее развитие предлагаемого метода слежения можно продолжить в повышении качества определения движущегося объекта. Так как при наличии вибраций камеры движется вся сцена и тогда определение движущегося объекта затрудняется. Достоинством метода является устойчивость к небольшим окклюзиям и инвариантность определения движущегося объекта.

Работа выполнена при поддержке Гранта ФЦП-Кадры № 14.B37.21.1484

Литература

1. Belcher C, Du Y Region-based SIFT approach to iris recognition. Opt Lasers Eng 47 (1):139-147, (2009).

2. Lin MX, Xu XH Multiple object visual tracking from a moving object. In: Proc. the sixth international conference on intelligent systems design and applications, Jinan, China, vol.2, pp. 373378, (2006).

3. Sun ZH, Zhu SA Real-time segmentation and tracking technique of multiple moving objects in video sequence. J Zhejiang Univ Eng Sci 42(9):1631-1635, (2008).

4. John L. Barron, David J. Fleet, and Steven Beauche-min.Performance of optical flow techniques IJCV 12/1 pp 4377. (1994).

5. Kilger M A shadow handler in a video-based real-time traffic monitoring system. In: Proceedings of IEEE workshop on ap-

plications of computer vision, Palm Springs, California, USA, pp.11-18, (1992).

6. Г. Ф. Савинов О некоторых особенностях алгоритма оптимальной фильтрации Калмана — Бьюси // Авиакосмическое приборостроение № 6, 2007 г.

7. Lee DS Effective Gaussian mixture learning for video background subtraction. IEEE Trans Pattern Anal Mach Intell 27(5):827-832, (2005).

8. Gupte S, Masoud O, Martin RFK, Papanikolopoulos NP IEEE Transactions on Intelligent Transportation Systems 3(1):37-47, (2002).

9. Nunes E., Conci A., Sanchez A. () Robust Background Subtraction on Traffic Videos Systems, Signals and Image Processing., pp. 1-4, (2011).

10. Yang J, Zhao ZM Shadow processing method based on normalized RGB color model. OptoElectron Eng 34(12):92-96,

(2007).

11. M. Shehata, M. Pervez, T. Burr, J. Cai, W. Badawy, A. Rad-manesh On eliminating static shadow false alarms in automatic incident detection systems. In: Proceedings of the IEEE Intelligent Transportation Systems Conference, Toronto, 2006, pp.759-764. (2006).

12. Comaniciu, Dorin; Peter Meer. "Mean Shift: A Robust Approach Toward Feature Space Analysis". IEEE Transactions on Pattern Analysis and Machine Intelligence (IEEE)24 (5): 603619. (2002).

13. Comaniciu D, Ramesh V, Meer P Kernel-based object tracking. IEEE Trans Pattern Anal Mach Intell 25(5):564-577 (2003).

14. Arulampalam S, Maskell S, Gordon N, Clapp T A tutorial on particle filters for on-line nonlinear/nongaussian bayesian tracking. IEEE Trans Signal Process 50(2):174-188, (2002).

15. Breitenstein MD, Reichlin F, Leibe B, Koller-Meier E, Gool LV Robust tracking-by-detection using a detector confidence particle filter. In: Proceedings of IEEE International Conference on Computer Vision, Kyoto, Japan, 1515-1522, (2009).

16. Fazli S, Pour HM, Bouzari H “Particle Filter Based Object Tracking with Sift and Color Feature,” Second International Conference on Machine Vision, pp. 89-93, (2009).

17. Аун С. Информационно-измерительная система слежения за движущимися объектами / С. Аун, Л.М. Шарнин, А.П. Кирпичников // ВЕСТНИК Казанского технологического университета. - Казань: КНИТУ, 2011. - Т. 14. №16. - С. 224-232.

18. Wu P, Kong LF, Zhao F, Li X. Particle filter tracking based on color and SIFT features. In: Proceedings of international conference on audio, language and image processing, pp. 932-937,

(2008).

19. Comaniciu D, Meer P Mean Shift: a robust approach toward feature space analysis. IEEE Trans Pattern Anal Mach Intell 24(5):603-619, (2002).

20. Мокшин В.В., Якимов И.М. Метод формирования модели анализа сложной системы / Информационные технологии, №5. - М.: Изд-во Новые технологии, 2011. - С. 46-51.

21. Lowe, D. G., “Distinctive Image Features from Scale-Invariant Keypoints”, International Journal of Computer Vision, 60, 2, pp. 91-110, (2004).

22. Gao T, Liu ZG, Zhang J Redundant discrete wavelet transforms based moving object recognition and tracking. J Syst Eng Electron 20(5):1115-1123, (2009).

23. Djouadi, A.; Snorrason, O.; Garber, F.. "The quality of Training-Sample estimates of the Bhattacharyya coefficient". IEEE Transactions on Pattern Analysis and Machine Intelligence 12 (1): 92-97, (1990).

24. Tao Gao & Guo Li & Shiguo Lian & Jun Zhang / Tracking video objects with feature points based particle filtering Multimedia Tools and Applications May 2012, Volume 58, Issue 1, pp 1-21

© В. В. Мокшин - канд. техн. наук, доцент каф. автоматизированных систем обработки информации и управления КНИТУ-КАИ, [email protected]; А. П. Кирпичников - д-р физ.-мат. наук, зав. каф. интеллектуальных систем и управления информационными ресурсами КНИТУ, [email protected]; Л. М. Шарнин - д-р техн. наук, зав. каф. автоматизированных систем обработки информации и управления КНИТУ-КАИ, [email protected].

i Надоели баннеры? Вы всегда можете отключить рекламу.