Методы подчеркивания границ при интерактивном визуальном анализе. Примеры градиентных операторов. Реализация выделения границ средствами пакета ERDAS Imagine

Высокочастотная фильтрация(методы подчеркивания границ)

резултат фильтрации = >

-оператор Робертса

A=I a22-a11I D=Ia21-a12I

R=√A²+B²

Чем больше перепад,тем больше будет величина

Отриц: много нулевых эффектов

-оператор Собела-наиболее эффективный

Длинные формулы, кому попадется, спросите лекции.

Медианная фильтрация

Она считает в окошке медианы гистограммы.

Справа и слева-один. Кол-во точек=> значение яркости,которое мы должны увязать. Это значение присваивается центральному значению окна.

Врезултате среднее значение «уплывает»,а при мкдианн фильтрации-он будет сконцентрирован в наибольшем скоплении точек.

В Erdas:

Низкочастотное сглаживание-smoch

Подчеркивание границ-shrper

Свертка с различными масками(с произвольным ядром)-простите не разобрала,что написано

Все эти процедуры находятся в блоке интерпритатор пространства

Преобразование-Spafral Enhacement

 

Корреляция между признаками (каналами многозонального изображения), ее отражение на диаграмме рассеяния сигнатур в пространстве признаков. Способ расчета матрицы корреляции между признаками.

Совокупности всех векторов-образов соответствует определенное множество точек в n-мерном пространстве, которое называют пространством признаков (ПП).

Задача классификации заключается в разбиении признакового пространства на области, соответствующие различным тематическим категориям (классам) объектов земной поверхности. То есть по каждому измерению классам будут сопоставлены определенные интервалы значений, один или несколько для каждого класса.

Используя признаковое пространство, можно определить:

• какие каналы наиболее полно отображают представленные на изображении тематические классы;

• где в признаковом пространстве расположены спектральные сигнатуры интересующих аналитика тематических категорий и какие классы будут разделяться наиболее надежно.

В пространстве признаков Относительное количество точек с конкретной парой значений признаков отображается цветом от красного к фиолетовому в порядке убывания. Красные пятна, таким образом, соответствуют локальным максимумам многомерной гистограммы изображения

На некоторых ПП-изображениях области значений сжаты вдоль некоторого направления . Это свидетельствует о сильной корреляции между данной парой признаков. В таких случаях можно не использовать оба признака, а выбрать один, более информативный с точки зрения аналитика данных. Вообще всегда целесообразно снизить размерность задачи, когда есть такая возможность.

С точки зрения общей информативности для классификации лучше всего выбрать пары признаков с наиболее широкими диаграммами рассеяния и наибольшим количеством локальных мод (красных или желто-оранжевых пятен на цветном ПП-изображении). Если эти моды соответствуют каким-то тематическим классам, то такие классы будут выделяться наиболее надежно.

Корреляционная мера и корреляционная матрица.Корреляционная мера сходства двух векторов аи b определяется как косинус угла между этими векторами:

где (а,Ь) - скалярное произведение векторов, ||-|| - норма (длина) вектора.

Ясно, что величина ρ будет принимать значения на отрезке [-1,1], при этом она будет положительна при одинаковых знаках соответствующих координат векторов аи b и отрицательна при противоположных. При конечном числе образов N эта величина есть ни что иное, как выборочный коэффициент корреляции.

При значении меры корреляции ρjk, близкой по модулю к 1, в некоторых случаях можно практически без потери информации использовать при распознавании только один из признаков Xiили Xj. Тем не менее, перед этим все-таки целесообразно проверить, какие классы разделяются по этому признаку и не является ли наличие данного измерения принципиально важным для нашей конкретной задачи.

Матрица R={pjk}, j=l,...,n, k=l,...,n размерности n x n называется корреляционной матрицей.Из определения коэффициента корреляции ясно, что корреляционная матрица R - симметрическая положительно полуопределенная, с диагональными элементами pjj =1, j=l,...,n.

Стандартизованная матрица данных.Пусть у нас имеется N образов, представляющих собой векторы в n-мерном пространстве измеряемых признаков - реализаций n-мерной случайной величины ξ. Представим полученные данные в виде матрицы размерности n x N.

Заметим, что каждый столбец матрицы - это вектор в пространстве размерности N, где N -число наблюдений (образов). В таком N-мерном пространстве задачу выделения наиболее информативных признаков (снижения размерности) можно рассматривать как задачу кластеризации по корреляционной мере сходства, о чем уже упоминалось в разделе 6.

2. Вычислим выборочную дисперсию по каждой компоненте:

Для решения этой задачи приведем матрицу данных Х° к стандартизованному виду. 1. Рассчитаем выборочные средние по каждой компоненте (столбцу) j=l,...,n:

Дисперсия, рассчитанная по (7.3), является смещенной оценкой с точки зрения математической статистики, но здесь она рассматривается скорее как среднее внутригрупповое расстояние, подобно тому, как это делалось в алгоритмах кластеризации.

Элементы стандартизованной матрицы данных Х={хij} вычисляются по формуле:

Стандартизованную матрицу данных X иначе называют нормированной матрицей.В результате проведенных операций мы перемещаем начало координат пространства признаков в точку с координатами ml...,mn и нормируем шкалу по каждой координате на значение а. Полученная таким образом стандартизованная матрица данных обладает следующими свойствами.

Мера корреляции (7.2) между двумя измеряемыми параметрами j и к, представленными вектор-столбцами матрицы X, тогда принимает вид:

Анализ главных компонент. Общее теоретическое обоснование метода (с графической иллюстрацией). Использование метода главных компонент при интерактивном анализе изображения и для снижения размерности наборов данных.

Системы дистанционных измерений, особенно космические, обычно рассчитаны на широкий спектр прикладных задач. И если для выделения конкретных классов объектов мы будем использовать все доступные наборы измерений (например, все каналы Тематического Картографа), мы можем получить задачу слишком большой размерности. Это затруднит если не сами расчеты, то, по меньшей мере, получение представительных выборок для описания классов в системе координат признаков. Поэтому после выбора перечня классов можно подумать над тем, какописать эти классы с использованием меньшего количества измерений.

В целом в задачах распознавания образов преобразование признакового пространства X обычно имеет две цели:

1) сократить общее количество признаков n, сохранив при этом

максимальное количество полезной информации;

2) сделать эти признаки статистически независимыми, то есть образующими ортогональный базис в пространстве X.

Статистическая независимость признаков значительно упрощает расчеты при описании классов в пространстве X и непосредственно при классификации.

Предположим, что значения координат образов в признаковом пространстве X для каждого из наших классов распределены по нормальному (гауссову) закону. Эта гипотеза часто используется, в частности, при классификации аэрокосмических изображений, так как на измерения коэффициентов отражения подстилающей поверхности воздействует множество случайных факторов различной природы.

В общем случае плотность многомерного нормального распределения имеет вид

где m - среднее по множеству X, а С - ковариационная матрица размерности n x n, элементы которой определяются как

Ковариационная матрица - это, собственно, та же матрица разброса образов в классе относительно центра распределения m (6.13). Элементы этой матрицы отражают взаимосвязь между координатами векторов из множества X. Если для системы координат измерений - базиса пространства X - выполняется условие ортогональности, то есть скалярные произведения (Xi,Xj)=0, i=l,...,n, j=l,...,n, это означает статистическую независимость параметров Xj, j=l,...,n. В этом случае С будет диагональной матрицей с элементами σ ij=(σi2), которые представляют собой дисперсии множества по параметрам Хi Для описания распределения вместо матрицы С тогда достаточно иметь n значений координат вектора σ.

В интерактивных системах обработки многозональных изображений, в частности, для выбора эталонных участков при обучении классификаторов, ортогональное преобразование признакового пространства иногда используется с целью визуализации тех классов объектов, которые не различаются в исходной системе координат пространства признаков, хотя и могут быть разделены автоматическими методами классификации (рис.7.1).

Диапазоны значений признаков X1 и х2 для классов А и В, изображенных на рис .7.1, перекрываются, поэтому при визуальном анализе изображения, когда определенные цвета присваиваются определенным интервалам, нам не удастся различить эти классы в исходной системе координат, хотя ясно, что для них можно построить разделяющую функцию (в данном примере совпадающую с осью координат f1). В этом случае преобразование признакового пространства к системе координат f1,f2 позволит нам «увидеть» объекты, принадлежащие к этим классам, так как они различаются по признаку f2.

Анализ многомерных статистических данных с использованием преобразования системы координат исходных параметров к новому ортогональному базису обычно называют анализом главных компонент.

Мы уже говорили о том, что взаимосвязь между координатами измерений отражают элементы матрицы внутригруппового рассеяния или, иначе, ковариационной матрицы. При анализе главных компонент иногда используют непосредственно ковариационную матрицу (7.1), но в наиболее общем случае - корреляционную матрицу. Рассмотрим, что представляет собой эта матрица, более подробно.

 


 

Рис.7.1. Разделение классов путем преобразования к главным компонентам

Корреляционная мера и корреляционная матрица.Корреляционная мера сходства двух векторов аи b определяется как косинус угла между этими векторами:

где (а,Ь) - скалярное произведение векторов, ||-|| - норма (длина) вектора.

Ясно, что величина ρ будет принимать значения на отрезке [-1,1], при этом она будет положительна при одинаковых знаках соответствующих координат векторов аи b и отрицательна при противоположных. При конечном числе образов N эта величина есть ни что иное, как выборочный коэффициент корреляции по наборам из i=l,...,N реализаций случайных величин εi и εк.

При значении меры корреляции ρjk, близкой по модулю к 1, в некоторых случаях можно практически без потери информации использовать при распознавании только один из признаков Xiили Xj. Тем не менее, перед этим все-таки целесообразно проверить, какие классы разделяются по этому признаку и не является ли наличие данного измерения принципиально важным для нашей конкретной задачи.

Матрица R={pjk}, j=l,...,n, k=l,...,n размерности n x n называется корреляционной матрицей.Из определения коэффициента корреляции ясно, что корреляционная матрица R - симметрическая положительно полуопределенная, с диагональными элементами pjj =1, j=l,...,n.

Наиболее удобным формализованным способом расчета корреляции между признаками-измерениями по выборке образов является использование так называемой стандартизованной матрицы данных [5]. Эта схема удобна и при расчете корреляции между атрибутивными описаниями объектов в ГИС, например, при решении некоторых задач картографической генерализации.

Стандартизованная матрица данных.Пусть у нас имеется N образов, представляющих собой векторы в n-мерном пространстве измеряемых признаков - реализаций n-мерной случайной величины ξ. Представим полученные данные в виде матрицы размерности n x N.

Заметим, что каждый столбец матрицы - это вектор в пространстве размерности N, где N -число наблюдений (образов). В таком N-мерном пространстве задачу выделения наиболее информативных признаков (снижения размерности) можно рассматривать как задачу кластеризации по корреляционной мере сходства.

Для решения этой задачи приведем матрицу данных Х° к стандартизованному виду. 1. Рассчитаем выборочные средние по каждой компоненте (столбцу) j=l,...,n:


 

2. Вычислим выборочную дисперсию по каждой компоненте:


Дисперсия, рассчитанная по (7.3), является смещенной оценкой с точки зрения математической статистики, но здесь она рассматривается скорее как среднее внутригрупповое расстояние, подобно тому, как это делалось в алгоритмах кластеризации.

 

Элементы стандартизованной матрицы данных Х={хij} вычисляются по формуле:

Стандартизованную матрицу данных X иначе называют нормированной матрицей.В результате проведенных операций мы перемещаем начало координат пространства признаков в точку с координатами ml...,mn и нормируем шкалу по каждой координате на значение а. Полученная таким образом стандартизованная матрица данных обладает следующими свойствами.

Мера корреляции (7.2) между двумя измеряемыми параметрами j и к, представленными вектор-столбцами матрицы X, тогда принимает вид:

Заметим, что ρjkij/(σiσj), где σij - выборочная ковариация между случайными величинами ξj и ξк. Именно поэтому при выполнении ортогонального преобразования к главным компонентам иногда пользуются не корреляционной, а ковариационной матрицей (7.1). Тем не менее, не следует путать эти два понятия.

Задачи корреляционного и факторного анализа возникли значительно раньше методологии распознавании образов. Чаще всего они встречаются в естественнонаучных исследованиях при выявлении факторов (параметров, характеристик), наиболее существенно влияющих на тот или иной процесс, или их комбинаций. Отсюда и название факторный анализ. В геоинформационных технологиях факторный анализ может применяться при картографической генерализации и при создании так называемых синтетических карт, когда производится классификация таксономических единиц карты на несколько градаций по целому комплексу показателей.

Именно потому, что факторный анализ имеет своей основной целью снижение размерности множества данных, мы рассмотрим эту задачу в наиболее общем виде, где ортогональность новых параметров является всего лишь дополнительным условием.