Научная статья на тему 'Пространственная классификация гиперспектральных изображений с использованием метода кластеризации k-means++'

Пространственная классификация гиперспектральных изображений с использованием метода кластеризации k-means++ Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
1004
202
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ГИПЕРСПЕКТРАЛЬНЫЕ ИЗОБРАЖЕНИЯ / КЛАССИФИКАЦИЯ / СЕГМЕНТАЦИЯ / МЕТОД ОПОРНЫХ ВЕКТОРОВ / МЕТОД K-MEANS++ / HYPERSPECTRAL IMAGING / CLASSIFICATION / SEGMENTATION / SVM / K-MEANS

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Зимичев Евгений Андреевич, Казанский Николай Львович, Серафимович Павел Григорьевич

Предлагается и исследуется комплексный метод классификации гиперспектральных изображений с учётом пространственной близости пикселей. Ключевой особенностью метода является то, что он использует распространённые и достаточно простые алгоритмы для достижения высокой точности. Метод комбинирует результаты попиксельной классификации с использованием метода опорных векторов и множества контуров, полученных в результате кластеризации изображения методом k-means++. Для предотвращения избыточной обработки схожих данных используется метод главных компонент. Предложенный метод позволяет повысить точность и скорость классификации гиперспектральных данных.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Зимичев Евгений Андреевич, Казанский Николай Львович, Серафимович Павел Григорьевич

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

SPECTRAL-SPATIAL CLASSIFICATION WITH K-MEANS++ PARTICIONAL CLUSTERING

A complex spectral-spatial classification scheme for hyperspectral images is proposed and explored. The key feature of method is using widespread and simple enough algorithms while having high precision. The method combines the results of a pixel wise support vector machine classification and the segmentation map obtained by partitional clustering using majority voting. The k-means++ clusterization algorithm is used for image clustering. Principal component analysis is used to prevent redundant processing of similar data. The proposed method provides improved precision and speed of hyperspectral data classification.

Текст научной работы на тему «Пространственная классификация гиперспектральных изображений с использованием метода кластеризации k-means++»

ПРОСТРАНСТВЕННАЯ КЛАССИФИКАЦИЯ ГИПЕРСПЕКТРАЛЬНЫХ ИЗОБРАЖЕНИИ С ИСПОЛЬЗОВАНИЕМ МЕТОДА КЛАСТЕРИЗАЦИИ К-МЕА№++

Зимичев Е.А. 2, Казанский Н.Л.1,2, Серафимович П.Г.12 1 Институт систем обработки изображений РАН, 2 Самарский государственный аэрокосмический университет имени академика С.П. Королёва (национальный исследовательский университет)

Аннотация

Предлагается и исследуется комплексный метод классификации гиперспектральных изображений с учётом пространственной близости пикселей. Ключевой особенностью метода является то, что он использует распространённые и достаточно простые алгоритмы для достижения высокой точности. Метод комбинирует результаты попиксельной классификации с использованием метода опорных векторов и множества контуров, полученных в результате кластеризации изображения методом к-теаш++. Для предотвращения избыточной обработки схожих данных используется метод главных компонент. Предложенный метод позволяет повысить точность и скорость классификации гиперспектральных данных.

Ключевые слова: гиперспектральные изображения, классификация, сегментация, метод опорных векторов, метод к-теа^++.

Введение

Гиперспектральные изображения - это трёхмерный массив данных, который включает в себя пространственную информацию об объекте, дополненную спектральной информацией по каждой пространственной координате. То есть каждой точке соответствует спектр, полученный в этой точке снимаемого объекта (рис. 1).

Гиперспектральные изображения возникли в результате дальнейшего развития спектрографии. Если мультиспектральные изображения имели спектральное разрешение 50-100 нм, то гиперспектральные сенсоры дают точность в 5-10 нм, тем самым сильно повышая размерность пикселей изображений.

Рис. 1. Трёхмерная визуализация гиперспектрального изображения земной поверхности

Области использования гиперспектральных изображений обширны. Среди самых актуальных применений можно отметить задачи ДЗЗ (дистанционного зондирования Земли), что подтверждается возрастающим количеством публикаций по этой теме [1-3]. Результаты обработки гиперспектральных данных ДЗЗ используются в агропромышленном комплексе, геологической разведке, экологическом мониторинге.

На сегодня существует несколько исследовательских проектов, в рамках которых создаются гиперспектральные снимки земной поверхности: ЛУТЫБ

[4], HYDICE [5], HYPERION, HyMap. Снимки, получаемые либо со спутника, либо аэрофотосъёмкой, содержат до 512 каналов, разрешение до 3 метров.

Постановка задачи

Анализ гиперспектральных изображений ДЗЗ может применяться для экологического мониторинга местности, например, при расчёте плотности различных видов зелёных насаждений в городе или степени за-полняемости парковочных площадок. До недавних пор не существовало методов классификации изображений с учётом пространственной близости пикселей, что в целом объясняется низким разрешением предыдущих поколений сенсоров. Наиболее актуальна эта задача при анализе изображений городской местности, поскольку они содержат большое количество деталей.

Пиксель гиперспектрального изображения представляется в виде вектора (см. рис. 2), в котором зафиксированы значения интенсивности для каждого частотного канала наблюдаемой части спектра:

xi _ [ х1, x2 ,• • •, Xn ]i .

(1)

Канал N

• • Канал 2 Канал 1

Пиксель x,

Рис. 2. Структура гиперспектрального изображения Одной из самых распространённых задач при обработке изображений является задача классификации отдельных пикселей изображения на заданное множество классов. В формальной постановке задача классификации описывается как построение алгоритма а: X ® У, способного отобразить произвольный объект х множества описания объектов х е X в объект конечного множества классов у е У. При этом известно конечное

множество значений отношения X ® У - обучающая выборка Хт = {(*!, уД...,^, ут)}.

Метод опорных векторов (БУМ) [6] показал хорошие результаты в задачах классификации гиперспектральных данных [7].

Большинство методов классификации, включая БУМ, рассматривают пиксели изображения как независимые друг от друга данные. Однако для более эффективной в реальных условиях классификации должны учитываться пространственные объекты, которым принадлежат отдельные пиксели. Для этого вектор признаков конкретного пикселя должен содержать информацию двух типов: непосредственно информацию об интенсивности спектрального диапазона в данной точке, а также информацию, полученную в результате анализа соседних пикселей. Информацию о пространственных структурах можно получить в ходе процедуры сегментации, которая разделяет изображение на несколько сегментов (суперпикселей) на основании общих визуальных характеристик.

Предлагаемый в данной работе алгоритм пространственной классификации изображений основан на методе, впервые описанном в [8]. Пространственные данные обрабатываются в ходе процедуры сегментации. В описываемом алгоритме для сегментации используется кластеризация изображения. Независимо от сегментации проводится попиксельная классификация изображения с использованием алгоритма БУМ.

После получения результатов сегментации и по-пиксельной классификации происходит их совмещение алгоритмом мажоритарного голосования для каждого найденного кластера.

Кластеризация используется для полного разбиения пикселей исходного изображения в гомогенные группы пикселей.

Основной проблемой метода является использование для кластеризации итеративных методов ¡БОБАТА [9] или максимизации ожидания ЕМ [10]. Результат работы этих алгоритмов существенным образом зависит от начального выбора центров кластеров и не всегда приводит к удовлетворительному решению.

В этой статье исследуется метод кластеризации к-шеа^++, отличающийся от обычного к-шеа^ улучшенным алгоритмом выбора начального приближения. Показывается, что, помимо повышения точности при кластеризации, он также понижает время обработки изображения за счёт меньшего количества считывания его данных.

Описание алгоритма SVM

Базовая версия метода БУМ осуществляет классификацию только для двух классов, строя в пространстве признаков разделительную гиперплоскость вида:

w • х - Ь = 0,

где w - перпендикуляр к разделяющей гиперплоскости.

Алгоритм максимизирует расстояние между параллельными гиперплоскостями:

w • x - b = 1, w • x - b = -1.

Эта задача двойственна задаче поиска седловой точки функции Лагранжа, которая сводится к задаче квадратичного программирования. В алгоритме есть коэффициент С, который позволяет регулировать отношение между максимизацией ширины полосы w, разделяющей классы, и минимизацией суммарной ошибки.

Для классификации методом SVM данных с более чем n = 2 классами обычно строят n(n-1)/2 бинарных классификаторов для каждой возможной пары из множества классов [11]. Их последовательно применяют к входных данным, выбирая для каждого вектора класс с наибольшим числом положительных результатов.

На практике чаще всего данные в пространстве признаков не могут быть разделены линейной гиперплоскостью. Для применения SVM с такими данными используется т.н. «kernel trick», который состоит в переходе от скалярного произведения к произвольным ядрам, переводящим входные данные в пространство большей размерности, в котором их уже можно разделить. При работе с гиперспектральными изображениями используются специальные типы ядер, например радиальное гаус-совское ядро (RBF) [7, 12]:

Г II ||2 Л

K (x,., x j ) = exp

i\ I2

2g2

(2)

Параметр у влияет на то, насколько значения отдельных векторов обучающего множества влияют на финальную модель. Чем больше у, тем это влияние меньше.

Описание процедуры сегментации

Процедура сегментации разбивает изображения на группы (суперпиксели), обладающие схожими визуальными характеристиками. В данной работе степень схожести суперпикселей определяется величиной нормы разности пикселей, которые составляют эти суперпиксели. Процесс нахождения суперпикселей состоит из трёх основных этапов: сокращение размерности изображения, кластеризация его пикселей и нахождение связных компонент.

При обработке гиперспектральных изображений особенно эффективно использование алгоритмов сокращения размерности. Эти алгоритмы позволяют выделить из множества каналов гиперспектрального изображения наиболее информативные. Исследования показывают, что для большинства задач с гиперспектральными изображениями доля существенных для обработки каналов составляет 10 % от общего их числа и менее [13].

Наиболее распространённым методом сокращения размерности является метод главных компонент (РСА), который сводится к вычислению собственных векторов и собственных значений ковариационной матрицы каналов изображения. Элементы матрицы имеют вид:

Си = Е{(х, -Е(X,))(х, -Е(х,))}

(3)

где Е - оператор математического ожидания.

Из дальнейшего спектрального разложения матрицы в форме С = АВАТ, где В = diag(11; 12,..., ) -

матрица с собственными значениями, можно отсортировать собственные числа по убыванию и использовать собственные вектора первых К < N строк матрицы АТ для аппроксимации пикселей оригинального изображения следующим образом:

(4)

где - новый пиксель изображения после сокращения размерности, значения компонент которого не зависят друг от друга, а^ - элементы матрицы собственных векторов А.

Метод кластеризации к-тгит++

Метод к-теаш стремится минимизировать суммарное квадратичное отклонение точек кластеров от центров этих кластеров:

21

22 =

_ 2* _

Ф= X ™?!Iх, - Цу

(5)

где X - множество входных векторов х,, - множество кластеров ^^ с центрами ц^

Точное решение этой проблемы является №-полной задачей. В обычном алгоритме к-шеаш итеративно ищется приближенное решение, выбирая при старте начальные центры кластеров случайным образом. Данный алгоритм имеет ряд недостатков. Среди них достижение локального минимума суммарного квадратичного отклонения вместо глобального минимума, а также медленная сходимость.

Алгоритм к-теа^++ устраняет эти недостатки, используя более оптимальный алгоритм выбора начальных приближений центров:

• Первый центр ^ выбирается случайным образом из множества X.

• Остальные центры ^ выбираются случайным образом из X с вероятностью:

Р(*) = -

В( х)2

X.X В(х,)2 , где В(х) - расстояние от вектора до ближайшего вычисленного центра кластера. • После того как все центры выбраны, запускается обычный k-means алгоритм.

Основным преимуществом этого алгоритма является то, что он аппроксимирует глобальный, а не локальный минимум функции ошибки. Также он сходится всего за 0(^к) операций (к - количество кла-

стеров) [14]. Это выгодно отличает его не только от оригинального к-теаш, но и некоторых его простых модификаций, например, 1БОБАТА [15], которая отличается наличием эвристических правил, объединяющих похожие кластеры.

Объединение данных классификации и сегментации

После кластеризации пиксели изображения X полностью распределены в С кластеров. Однако, поскольку в процессе кластеризации не использовалась информация о пространственном положении пикселей, пиксели одного изображения могут находиться как рядом друг с другом, так и в разных местах изображения. Для проведения процедуры сегментации и получения множества суперпикселей необходимо выполнить алгоритм поиска связных компонент [16]. Алгоритм принимает на вход пиксели изображения, которые распределены на множестве кластеров вместе с информацией об их пространственном положении, и на основании этой информации создаёт множество суперпикселей.

Полученное множество суперпикселей может быть избыточным по сравнению с действительным количеством существующих пространственных структур, но это не имеет большого значения для решаемой задачи классификации.

Финальный алгоритм классификации с учётом пространственной близости состоит из следующих шагов:

1. Сегментация. Гиперспектральное изображение разбивается на регионы с использованием кластеризации. Число кластеров С выбирается с учётом количества классов, заданных в исходных данных кластеризации.

2. Классификация пиксельных данных. Независимо от процедуры сегментации, выполняется классификация изображения без учёта пространственной близости. Для этого используется классификатор БУМ с ядром радиальной базисной функции Гаусса.

3. Объединение данных. Для каждого суперпикселя выбирается класс как класс большинства пикселей в этом суперпикселе (рис. 3).

Ж

V

Рис. 3. Процесс объединения данных Постобработка. Для уменьшения зашумлённости изображение дополнительно обрабатывается фильтрами (рис. 4):

4.1. Если более чем Т1 соседей на расстоянии одного пикселя принадлежат классу Ь, отличному от класса пикселя, то пикселю назначается этот класс.

4.2. Если более чем Т2 соседей на расстоянии в два пикселя принадлежат классу Ь, отличному

х

а

а

а

а

х

11

2

а

а

а

а

х. =

х

к

а

а

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

а

а

х

2

4

от класса пикселя, то пикселю назначается этот класс.

Рис. 4. Используемые для сглаживания шумов маски

Результаты экспериментов

Для проверки производительности алгоритма пространственной классификации и проверки эффективности k-means++ был проведён вычислительный эксперимент. В качестве входных данных использовалось изображение проекта ROSIS Pavia Center размером 1096x1096 пикселей, содержащее 102 канала. На снимке можно выделить девять основных классов поверхности, каждый из которых обозначается своим цветом на изображении: асфальт, низины, гравий, деревья, кровля, почва, битум, кирпичи и тень. Эти классы приведены в табл. 1.

Таблица 1. Классы, выделяемые в тестовом изображении

Класс Количество образцов

Номер Имя Цвет Обучающих Тестовых

1 Асфальт 548 6641

2 Низины 540 18649

3 Гравий 392 2099

4 Деревья 524 3064

5 Кровля 265 1345

6 Почва 532 5029

7 Битум 375 1330

8 Кирпичи 514 3682

9 Тень 231 947

В эксперименте исследовалось достижимое качество классификации каждого из представленных в изображении классов. Для сравнения использовались три метода: обычная попиксельная классификация, пространственная классификация с использованием кластеризации ЗОБАТА и пространственная классификация с использованием кластеризации к-теаш++.

Для предотвращения преобладания в обучении каналов с наибольшей интенсивностью изображение предварительно было нормализовано. Алгоритм по-пиксельной классификацией SVM выполнялся с коэффициентам С = 128, использовалось ядро RBF с параметром у = 0,125.

На рис. 5 и в табл. 2 представлены сравнительные результаты классификации изображения для каждого класса, процент успешно классифицированных пикселей. Для каждого алгоритма приведены данные до этапа постобработки (устранения шумов) и после.

Как видно из полученных данных, использование пространственной классификации позволило улучшить точность распознавания для всех рассматриваемых классов, кроме почвы и тени, результаты которых ухудшились на 0,5 %, однако это компенсируется

хорошими результатами для асфальта, низин, гравия и битума - в сумме это дало на 10 % больше правильно классифицированных пикселей.

Рис. 5. Используемое в эксперименте изображение: а) исходное изображение; б) кластеризованное изображение; в) попиксельная классификация методом SVM; г) пространственная классификация методами SVM и K-means+ +

При этом улучшение зависело от используемого алгоритма кластеризации - использование к-теапэ++ вместо ЗОБАТА дополнительно повысило точность классификации низин и гравия при схожих результатах для остальных классов, улучшая суммарные показатели на 3,5 % правильно классифицированных пикселей.

Таблица 2. Результаты классификации рассмотренными методами

Для оценки производительности и точности используемых алгоритмов кластеризации был проведён второй эксперимент. Сравнивались алгоритмы 1БОБАТА и к-теаш++, были замерены суммарная квадратичная ошибка ф и время сходимости сравниваемых алгоритмов кластеризации. Результаты приведены в табл. 3 для нескольких значений размерности используемого гиперспектрального изображения, получаемых выбором различных параметров при работе РСА.

Таблица 3. Результаты сравнения используемых алгоритмов кластеризации

Из данных этого эксперимента тоже видны преимущества к-теа^++: данный метод имеет преимущество как по минимизации суммарной ошибки, так и по общему времени работы. Сокращение времени вычислений (в 2-2,5 раза) объясняется тем, что после оптимального выбора центров алгоритму потребовалось меньше считываний данных для того, чтобы итеративный алгоритм сошёлся.

Таким образом, показано, что использование алгоритма к-теаш++ позволяет выиграть не только в точности классификации, но и в суммарном времени обработки изображения. Проблемы при его использовании могут наблюдаться при большом количестве кластеров, но они могут решаться использованием параллельной реализации алгоритма [17].

Заключение

Выполненные эксперименты показывают преимущества пространственной классификации по сравнению с простыми попиксельными методами. На экспериментальных данных удалось повысить точность классификации на 10 %, что является достаточно весомым результатом при обработке изображений городской местности с большим количеством деталей. В работе также показано, что использование алгоритма кластеризации к-теа^++ позволяет получить лучшие результаты по сравне-

нию с другими алгоритмами, обычно используемыми в таких задачах.

В дальнейшем можно развить предложенный в данной работе метод использованием более продвинутых методик извлечения признаков. Например, использованием метода kernel PCA [18] вместо обычного метода PCA.

Благодарности

Работа выполнена при поддержке Министерства образования и науки РФ и грантов РФФИ №№13-07-12181, 14-07-97009 и 14-07-97008.

Литература

1. Фурсов, В.А Тематическая классификация гиперспектральных изображений по показателю сопряжённости / В.А. Фурсов, С.А. Бибиков, О.А. Байда // Компьютерная оптика. - 2014. - Т. 38, № 1. - С. 154-158.

2. Журавель, Ю.Н. Особенности обработки гиперспектральных данных дистанционного зондирования при решении задач мониторинга окружающей среды / Ю.Н. Журавель, А.А. Федосеев // Компьютерная оптика. - 2013. -Т. 37, № 4. - С. 471-476.

3. Гашников, М.В. Иерархическая сеточная интерполяция при сжатии гиперспектральных изображений / М.В. Гашников, Н.И. Глумов // Компьютерная оптика. -2014. - Т. 38, № 1. - С. 87-93.

4. Green, R.O. Imaging spectroscopy and the airborne visible/infrared imaging spectrometer (AVIRIS) / R.O. Green [et al.] //Remote Sensing of Environment. - 1998. - V. 65(3). -P. 227-248.

5. Rickard, L.J. HYDICE: An airborne system for hyperspec-tral imaging / L.J. Rickard [et al.] //Optical Engineering and Photonics in Aerospace Sensing. - International Society for Optics and Photonics, 1993. - P. 173-179.

6. Cristianini, N. An introduction to support vector machines and other kernel-based learning methods / N. Cristianini, J. Shawe-Taylor. - Cambridge university press, 2000.

7. Gualtieri, J.A. Support vector machines for hyperspectral remote sensing classification / J.A. Gualtieri, R.F. Cromp // The 27th AIPR Workshop: Advances in Computer-Assisted Recognition. - International Society for Optics and Photonics, 1999. - P. 221-232.

8. Tarabalka, Y. Spectral-spatial classification of hyperspec-tral imagery based on partitional clustering techniques / Y. Tarabalka, J.A. Benediktsson, J. Chanussot // IEEE Transactions on Geoscience and Remote Sensing. - 2009. -V. 47(8). - P. 2973-2987.

9. Ball, G.H. ISODATA, a novel method of data analysis and pattern classification / G.H. Ball, D.J. Hall. - Stanford research institute Publisher, 1965.

10. Dempster, A.P Maximum likelihood from incomplete data via the EM algorithm / A.P. Dempster [et al.] // Journal of the Royal Statistical Society. - 1977. - V. 39(1). - P. 1-38.

11. Vapnik, V. The nature of statistical learning theory. -Springer, 2000.

12. Fauvel, M. Spectral and spatial methods for the classification of urban remote sensing data // Institut Technologique de Grenoble-Université d'Islande, Thèse de Doctorat, 2007.

13. Rodarmel, C. Principal component analysis for hyperspec-tral image classification / C. Rodarmel, J. Shan // Surveying and Land Information Science. - 2002. - V. 62(2). - P. 115122.

14. Arthur, D. k-means++: The advantages of careful seeding / D. Arthur, S. Vassilvitskii // Proceedings of the eighteenth annual ACM-SIAM symposium on discrete algorithms. - Society for Industrial and Applied Mathematics, 2007. - P. 1027-1035.

15. He, L. Fast connected-component labeling / L. He [et al.] // Pattern Recognition. - 2009. - V. 42(9). - P. 1977-1987.

Класс SVM SVM+ISODATA SVM+KM++

№ PR PR PR

1 84,93 90,13 92,16 94,4 90,25 92,78

2 70,79 73,73 87,07 87,45 92,23 94,09

3 67,16 68,93 61,43 61,32 84,07 86,25

4 97,77 98,76 98,59 98,63 98,48 98,8

5 99,46 99,91 99,46 99,91 100 100

6 92,83 96,87 97,38 97,88 94,21 98,26

7 90,42 93,68 99,69 100 95,12 96,83

8 92,78 97,41 98,69 99,02 97,3 98,42

9 98,11 98,62 97,86 97,86 96,12 98,26

Размерность d Ошибка ф Время T, c

ISODATA KM++ ISODATA KM++

10 2,17^ 103 9,58102 17,42 15,09

20 7,16104 2,1103 32,11 27,16

40 9,67-105 7,8-103 70,05 52,17

80 2,62-10' 2,5-105 298,51 102,52

200 3,45-108 7,2-106 872,08 315,11

16. Bahmani, B. Scalable k-means++ / B. Bahmani [et al.] // Proceedings of the VLDB Endowment. - 2012. - V. 5(7). -P. 622-633.

17. Scholkopf, B. Kernel principal component analysis / B. Scholkopf, A. Smola, K.R. Müller // Advances in kernel methods-support vector learning. - MIT Press Cambridge. -1999. - P. 327-352.

References

1. Fursov, V.A. Thematic classification of hyperspectral images by conjugacy indicator / V.A. Fursov, S.A. Bibikov, O.A. Bajda // Computer Optics. - 2014. - V. 38, Issue 1. -P. 154-158.

2. Zhuravel, Yu.N. The features of hyperspectral remote sensing data processing under environment monitoring task solution / Yu.N. Zhuravel, A.A. Fedoseev // Computer Optics. - 2013. - V. 37(4). - P. 471-476.

3. Gashnikov, М.V. Hierarchical grid interpolation for hyperspectral image compression / M.V. Gashnikov, N.I. Glumov // Computer Optics. - 2014. - V. 38(1). - P. 87-93.

4. Green, R.O. Imaging spectroscopy and the airborne visible/infrared imaging spectrometer (AVIRIS) / R.O. Green [et al.] // Remote Sensing of Environment. - 1998. -V. 65(3). - P. 227-248.

5. Rickard, L.J. HYDICE: An airborne system for hyperspectral imaging / L.J. Rickard [et al.] // Optical Engineering and Photonics in Aerospace Sensing. - International Society for Optics and Photonics, 1993. - P. 173-179.

6. Cristianini, N. An introduction to support vector machines and other kernel-based learning methods / N. Cristianini, J. Shawe-Taylor. - Cambridge university press, 2000.

7. Gualtieri, J.A. Support vector machines for hyperspectral remote sensing classification / J.A. Gualtieri, R.F. Cromp // The 27th AIPR Workshop: Advances in Computer-Assisted

Recognition. - International Society for Optics and Photonics, 1999. - P. 221-232.

8. Tarabalka, Y. Spectral-spatial classification of hyperspectral imagery based on partitional clustering techniques / Y. Tarabalka, J.A. Benediktsson, J. Chanussot // IEEE Transactions on Geoscience and Remote Sensing. - 2009. -V. 47(8). - P. 2973-2987.

9. Ball, G.H. ISODATA, a novel method of data analysis and pattern classification / G.H. Ball, D.J. Hall. - Stanford research institute Publisher, 1965.

10. Dempster, A.P. Maximum likelihood from incomplete data via the EM algorithm / A.P. Dempster [et al.] //Journal of the Royal Statistical Society. - 1977. - V. 39(1). - P. 1-38.

11. Vapnik, V. The nature of statistical learning theory. -Springer, 2000.

12. Fauvel, M. Spectral and spatial methods for the classification of urban remote sensing data // Institut Technologique de Grenoble-Université d'Islande, Thèse de Doctorat, 2007.

13. Rodarmel, C. Principal component analysis for hyperspectral image classification / C. Rodarmel, J. Shan // Surveying and Land Information Science. - 2002. - V. 62(2). - P. 115-122.

14. Arthur, D. k-means++: The advantages of careful seeding / D. Arthur, S. Vassilvitskii // Proceedings of the eighteenth annual ACM-SIAM symposium on discrete algorithms. - Society for Industrial and Applied Mathematics, 2007. - P. 1027-1035.

15. He, L. Fast connected-component labeling / L. He [et al.] // Pattern Recognition. - 2009. - V. 42(9). - P. 1977-1987.

16. Bahmani, B. Scalable k-means++ / B. Bahmani [et al.] // Proceedings of the VLDB Endowment. - 2012. - V. 5(7). -P. 622-633.

17. Scholkopf, B. Kernel principal component analysis / B. Scholkopf, A. Smola, K.R. Müller //Advances in kernel methods-support vector learning. - MIT Press Cambridge. -1999. - P. 327-352.

SPECTRAL-SPATIAL CLASSIFICATION WITH K-MEANS++ PARTICIONAL CLUSTERING

E.A. Zimichev2, N.L. Kazanskiy 1"2, P.G. Serafimovich 1,2

1 Image Processing Systems Institute, Russian Academy of Sciences,

2 Samara State Aerospace University Abstract

A complex spectral-spatial classification scheme for hyperspectral images is proposed and explored. The key feature of method is using widespread and simple enough algorithms while having high precision. The method combines the results of a pixel wise support vector machine classification and the segmentation map obtained by partitional clustering using majority voting. The k-means++ clusterization algorithm is used for image clustering. Principal component analysis is used to prevent redundant processing of similar data. The proposed method provides improved precision and speed of hyperspectral data classification.

Key words: hyperspectral imaging, classification, segmentation, SVM, k-means.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Сведения об авторах

Зимичев Евгений Андреевич, 1991 года рождения. Студент Самарского государственного аэрокосмического университета им. академика С.П. Королёва направления «Прикладная математика и информатика». Область интересов: алгоритмы обработки изображений, высокопроизводительные вычисления.

E-mail: [email protected] .

Evgeniy Andreevich Zimichev (b. 1991) is a student of S.P. Korolyov Samara State Aerospace University, majoring in Applied Mathematics and Informatics. His interests include image processing, high performance computations.

Сведения об авторах Казанский Николай Львович и Серафимович Павел Григорьевич

см. стр. 187 этого номера.

Поступила в редакцию 7 мая 2014 г.

i Надоели баннеры? Вы всегда можете отключить рекламу.