ScanEx Image Processor v.5.0. Руководство - часть 14

 

  Главная      Учебники - Разные     Программа обработки данных дистанционного зондирования Земли ScanEx Image Processor v.5.0. Руководство

 

поиск по сайту            правообладателям  

 

 

 

 

 

 

 

 

содержание      ..     12      13      14      15     ..

 

 

ScanEx Image Processor v.5.0. Руководство - часть 14

 

 

 

небольшой  размер  окна  поиска;  наличие  в  проекте  снимков  с  разными  расхождениями 

между собой и т.п.). 

 

В случае ручной установки/доустановки связующих точек необходимо проследить, чтобы 

начала  и  концы  точек  были  в  нужных  системах  координат  (т.е.  в  пиксельных  системах 

координат  связываемых  растров).  Для  быстрого  просмотра  систем  координат  начала  и  конца 

выделенной точки удобно использовать строку 

Маркированная

 в панели опорных точек. 

Список  связующих  точек  можно  просматривать  и  редактировать  через  диалог 

Список 

опорных  точек

  (

Трансформирование

 

  Список  опорных  точек

).  При  редактировании 

связующих  точек  их  количество  пересчитывается  самостоятельно.  Для  пересчета  СКО  надо 

нажать кнопку 

Обновить СКО

 

6.

 

Для  проверки  правильности  установки  связующих  точек  можно  использовать  специальные 

режимы – 

Трекинг выделенных слоев

Трекинг выделенных точек

В новом окне

Флаг

 

Трекинг  выделенных  слоев

  –  при  включении  этого  флага,  в  RGB-окне  блочного 

уравнивания отключается видимость всех RGB-слоев, кроме выделенных в таблице проекта 

блочного уравнивания. 

Флаг

 

Трекинг  выделенных  точек

  –  при  включении  этого  флага,  происходит  отключение 

видимости  опорных/связующих  точек.  В  рабочем  окне  показываются  только  связующие 

точки  выделенных  пересечений  растров,  а  рядом  с  самим  флагом  указывается  их 
количество. Пересечения растров выделяются через вкладку 

Пересечения

. При этом при 

просмотре  списка  всех  опорных  точек  «невидимые»  точки  приобретают  значение 

неактивная

,  а  «видимые»  точки  - 

активная

  (

Трансформирование

 

 

Список  опорных 

точек

, столбец 

Активная

).  

Кнопка

 

В новом окне

 – при нажатии создается новое RGB-окно. Выделенные в таблице проекта 

через вкладку 

Растровые слои

 RGB-слои будут добавлены в новое RGB-окно в виде RGB-

слоев.  Если  же  выделение  растров  было  осуществлено  через  вкладку 

Пересечения

,  то 

будет  создано  два  новых  RGB  окна,  в  каждом  из  которых  будет  отображен  один  из 

связываемых RGB слоев (Рис 126). Исходное же RGB-окно со всеми слоями будет свернуто.  

 

 

Рис 126.

 

Доустановка связующих точек с использованием двухоконного режима 

В  таком  режиме  (в  двух  новых  RGB-окнах,  появляющихся  в  результате  выбора  какого-то 

пересечения  растров  во  вкладке 

Пересечения

  и  нажатия  на  кнопку 

В  новом  окне

)  удобно 

проверять  качество  установки  связующих  точек,  а  также  вручную  добавлять  новые  связующие 

точки. Два новых RGB-окна можно расположить рядом друг с другом (например, командой 

Окно

 

 

Расположить вертикально

). Перед тем как ставить опорную (связующую) точку, надо в панели 

установки опорных точек установить в качестве системы координат начала и конца точки значение 

Растр верхнего слоя

7.

 

Далее  следует  установить  опорные  точки  к  имеющимся  опорным  данным  либо  можно 

воспользоваться опорными точками, которые использовались ранее на этапе 

Ортокоррекция

Эти  точки  должны  ставиться  так:  система  координат  начала  опорной  точки  должна  быть 

пиксельной  системой  координат  соответствующего  растра  (т.е.  СК  «верхнего»  слоя),  система 
координат конца опорной точки – географические координаты (

Координаты проекта

). Точек 

нужно немного – 6-9 опорных точек может быть достаточно для всей территории. Особенности 

установки  опорных  точек  описаны  в  разделе 

Геометрическая  коррекция  с  использованием 

опорных точек

. 

В  случае  если  опорные  точки  для  уравнивания  будут  поставлены  не  в  той  системе 

координат  (например,  начало  –  тоже  в  географических  координатах),  то  программа  при 

попытке расчета модели/уравнивания будет выдавать сообщение об ошибке. 

8.

 

Расчет модели трансформирования и оценка общей ошибки: 

  

 

Кнопка

 

Рассчитать модель

 – при ее нажатии происходит расчет модели трансформирования всех 

растров  с  оценкой  среднеквадратической  ошибки  (Final  RMSE)  и  пересчетом  СКО 

связующих  точек  в  каждом  пересечении  слоев.  Тип  трансформирования  для  расчета 

модели задается в выпадающем списке 

Тип трансформирования 

(Rigid+Rotation/Affine). 

Непосредственно трансформирования при расчете модели не происходит. Кроме того, при 

расчете модели формируется и показывается log-файл блочного уравнивания.  

 

Содержание Log-файла блочного уравнивания: 

 

В  первой  части  log-файла  описываются  входные  параметры  модели  (растровые  слои  в 
проекте; тип трансформирования; связующие и опорные точки для  участвующих растров; 

количество пересечений растровых слоев и т.п.). 

 

Далее – рассчитанные параметры трансформирования для каждого растрового слоя. 

 

Далее  последовательно  показаны  все  имеющиеся  опорные  и  связующие  точки  и  их 
рассчитанные  ошибки:  Заголовок  пересечения-связи  (имена  двух  растров,  либо  Ground–

растр); параметры точек – 

X1

Y1

X2

Y2

 (координаты начала и конца опорной/связующей 

точки  в  координатах  проекта), 

dX

  и 

dY

  –  остаточные  ошибки  по  X  и  Y, 

Dist

  – 

среднеквадратическая ошибка точки. 

 

Далее  в  списке  в  том  же  порядке  перечисляются  минимальные,  средние  и  максимальные 
значения ошибок (

dX

dY

 и 

Dist

) в каждом пересечении (включая слой «Ground») 

В  данной  части  списка  log-файла  удобно  просматривать  средние/максимальные 

значения  ошибок  в  пересечениях  слоев  (в  том  числе  -  ошибки  для  наземных  точек),  тем 

самым оценивая качество привязки между разными слоями. 

 

В самом конце log-файла приводится значение общей ошибки трансформирования (СКО) – 

Final RMSE

При  необходимости  log-файл  можно  сохранить,  нажав  кнопку 

Сохранить 

в  окне  с  log-

файлом.  

 

9.

 

Используя  log-файл,  следует  оценить  значения  ошибок  (как  общей  ошибки,  так  и  ошибок  для 

отдельных  точек).  В  случае  допустимых  значений  ошибок  можно  переходить  к  операции 

уравнивания,  в  случае  же  неудовлетворительных  значений  ошибок  следует  либо 

корректировать связующие/опорные точки, либо усилить модель трансформирования. 

10.

 

Уравнивание растровых слоев: 

Кнопка

 

Уравнять

 – при нажатии происходит расчет модели трансформирования и сама операция 

трансформирования всех участвующих в проекте растровых слоев согласно установленным 
точкам. Так же, как и при расчете модели, формируется и показывается log-файл блочного 

уравнивания. 

Флаг 

Связать  каналы

  –  используется,  если  исходные  снимки  имеют  больше  3-х  каналов.  Если 

флаг  установлен,  то  остальные  каналы  снимка  (не  участвующие  в  построении  RGB-

изображения) будут трансформироваться по аналогичным параметрам. 

 

Поле ввода

 

Относительная точность

: – значение, определяющее конец процесса уравнивания. 

Если  изменения  при  итерациях  меньше  указанного  в  этом  поле,  то  уравнивание 

завершается. 

 

Проект  блочного  уравнивания  при  необходимости  успешно  сохраняется  в  виде  обычного 

проекта  ScanEx  Image  Processor.  Для  возобновления  работы  с  блочным  уравниванием,  после 

загрузки  сохраненного  проекта  в  программу,  следует  снова  вызвать  диалог 

Проект  блочного 

уравнивания

,  выполнив 

Трансформирование

 

 

Блочное  уравнивание

  и  выбрать  в 

выпадающем списке 

Контуры растров

 соответствующий вектор-описание проекта. 

 

Классификация растровых изображений 

Блок 

Классификация

  растровых  изображений  представлен  в  программе  в  двух  частях:  в 

базовой  комплектации  ScanEx  Image  Processor 

Классификация

  представлена  рядом 

инструментов  для  выполнения  как  неуправляемой  (алгоритм  ISODATA),  так  и  управляемой 

(Нейронные сети прямого распространения, древовидный классификатор и принцип максимальной 

энтропии)  классификаций.  Дополнительный  модуль  тематической  интерпретации  данных 

дистанционного  зондирования  (ТематикПро)  позволяет  решать  задачи  тематической 

интерпретации  многослойных  данных,  их  визуализации  и  интерпретаций  с  помощью 

топографических отображений, реализованных несколькими алгоритмами. 

Неуправляемая классификация ISODATA 

(Итерационная самоорганизующаяся методика анализа данных – 

 Iterative Self-Organizing Data Analysis Technique) 

Данный  алгоритм  является  одним  из  наиболее  популярных,  используемых  для 

неуправляемой  классификации  (классификации  без  учителя).  Он  базируется  на  кластеризации 

изображения,  основанной  на  разнице  между  средними  значениями  кластеров  (минимальном 

спектральном расстоянии между центрами классов). 

Существует  несколько  вариантов  исполнения  алгоритма  и  в  данном  программном 

обеспечении использована следующая логическая последовательность: 

1.

 

Начальная инициализация кластеров: входные данные предварительно обрабатываются по 
методу  главных  компонент  (PCA),  а  затем  по  обработанным  растрам  с  помощью  метода 

стандартных  отклонений.  В  результате  устанавливается  начальное  положение  центров 

спектральных классов. Количество классов определяется пользователем. 

2.

 

Первая  итерация:  на  данном  этапе  все  пиксели  изображения  присваиваются  классам  по 

признаку наименьшего расстояния между средним  значением класса и значением яркости 

пикселя, образуя кластеры. В качестве меры сравнения расстояний используется Евклидова 

метрика. 

3.

 

Затем  производится  пересчет  средних  значений  в  классах.  Соотнесение  получившихся  на 
предыдущем  шаге  кластеров  к  спектральным  классам  проходит  по  тому  же  принципу. 

Кластеры  могут  объединяться  или  делиться  в  зависимости  от  установленных  пороговых 

значений.  Затем  вновь  производится  пересчет  средних  значений  и  образование  новых 

кластеров. 

4.

 

Данная  процедура  повторяется  до  тех  пор,  пока  кластеры  могут  объединяться  или 

делиться, либо по достижению максимального числа итераций, задаваемых пользователем. 

Результатом  обработки  является  новый  растровый  слой,  содержащий  получившиеся 

кластеры,  объединенные  по  принадлежности  к  спектральным  классам.  Получившиеся 

 

спектральные  классы  кодируются  от  минимальных  средних  к  максимальным  и  нумеруются  с 

единицы.  

Последующая  обработка  сводится  к  тематической  интерпретации  получившихся 

спектральных  классов.  Для  отнесения  полученных  спектральных  классов  к  тематическим 

необходимо использовать соответствующий инструментарий, описанный в разделе «

Отображение 

результатов классификации

». 

 

Для 

определения 

параметров 

алгоритма 

используется 

диалог 

Спектральная 

классификация без учителя

, вызываемый командой  меню 

Классификация 

 

Без учителя 

 

Спектральная классификация 

(Рис 127)

 

Рис 127.

 

Диалог 

Спектральная классификация без учителя

 

В 

списке

 

Выбрать  каналы

  –  необходимо  указать  спектральные  каналы,  которые  будут 

обрабатываться. Необходимо указать не более 32 входных каналов. 

Выпадающий  список 

Нормализовать  по:

  -  позволяет  нормализовать  выбранные  каналы  по 

одному из следующих способов: 

 

Без нормализации

 – без предварительной нормализации; 

 

По всем данным

 – нормализовать с использованием всех пикселей растра; 

 

По  всем  данным  для  обучения

  –  нормализовать  с  использованием  только 

пикселей, указанных в качестве обучающих образцов. 

 

Группа 

Обучить  в  пределах  маски 

 

-  позволяет  настроить  параметры,  используемые  при 

начальной инициализации кластеров: 

Выпадающий  список

  –  непосредственно  задает  границу  области.  В  качестве  границы  может 

быть использована векторная маска или определенная прямоугольная область, указанная 

с помощью инструмента 

Выбор региона

Выпадающий  список

 

Веса  из:

  –  позволяет  указать  поля,  из  которых  будут  браться 

коэффициенты веса при обучении в пределах маски. 

Выпадающий список

 

Ограничить результат по маске

  – задает  границу области, используемой 

при  классификации.  В  качестве  границы  может  быть  использована  векторная  маска  или 
определенная прямоугольная область, заданная инструментом 

Выбор региона

В 

группе

 

Параметры

 классификации – задаются параметры классификации растра без учителя: 

Выпадающий  список 

Метод  классификации

  –  позволяет  задать  один  из  реализованных  в 

программе методов: 

 

ISODATA

 - итерационная самоорганизующаяся методика анализа данных; 

 

Нейронный  газ

  –  алгоритм,  позволяющий  осуществлять  адаптивную 

кластеризацию входных данных 

(доступен в модуле TematicPro);

 

 

SOM 

- алгоритм «самоорганизующихся карт» 

(доступен в модуле TematicPro)

;  

 

Пакетный  SOM

  –  модифицированный  алгоритм  SOM  с  возможностью  выбора 

используемого для вычислений устройства OpenCL

 (доступен в модуле TematicPro). 

Для  каждого  из  методов  доступны  собственные  основные  и  дополнительные  параметры.  Для 

Метода классификации

 

ISODATA

 это: 

Раскрывающийся список 

Основные параметры: 

Поле  ввода

  Целевое  количество  классов

  – 

задает  максимальное  количество 

спектральных классов. Максимально допустимое число выходных классов равняется 
255. 

Поле  ввода

  Максимальное  количество  итераций

  – 

задает  максимальное  количество 

итераций  обработки.  При  достижении  указанного  значения,  в  случае  если  не 
произошла самоорганизация, алгоритм будет остановлен. 

Раскрывающийся список 

Дополнительные параметры

Поле  ввода

  Максимальное  число  пар  кластеров  для  объединения

  – 

задает 

максимальное число объединяемых пар кластеров на одной итерации. 

Поле  ввода

  Минимальное  количество  образцов  в  кластере

  – 

задает  минимально 

допустимое количество пикселей в кластере. Если количество пикселей в кластере 
будет  меньшим,  чем  заданное  значение,  то  он  будет  удален,  и  формирующие  его 
пиксели присвоятся наиболее близкому классу или классам. 

Поле  ввода

  Порог  стандартного  отклонения  при  разбивке

  – 

задает  максимально 

допустимое  стандартное  отклонение  в  пределах  кластера.  В  случае  если 
стандартное  отклонение  в  кластере  более  заданного  значения,  кластер  будет 
разделен на два. 

 

Поле

 

ввода

  Порог  расстояния  в  парах  при  объединении

  –  задает  минимальное 

расстояние между средними значениями кластеров. Кластеры будут объединены в 

случае,  если  расстояние  между  их  средними  значениями  будет  меньше,  чем 

указанное. 

Поле

 

ввода

 Множитель стандартного отклонения при разбивке

 – задает параметр, 

характеризующий допустимое среднеквадратическое отклонение при разбивке. 

Поле

 

ввода

  Без  нормализации

  –  принимает  значения  «Да»  или  «Нет»  и  позволяет 

использовать вариант алгоритма без нормализации расстояний

 

Блок, 

расположенный  под 

раскрывающимися  списками

  указания  параметров,  содержит 

дополнительные интерактивные пояснения – при выборе какого-либо параметра сверху, в 

данном блоке отображается соответствующие развернутые пояснения.  

Для  удобства  пользователя  все  параметры  заполнены  усредненными  значениями,  характерными 

соответствующим  полям  и  после  их  изменения  новые  значения  отображаются  жирным 

шрифтом.  

Группа

 

Параметры  выходных  растров

  –  содержит  поля  для  настройки  параметров  выходных 

растров: 

Поле

 

ввода

  Имя  слоя  с  классами

  –  позволяет  задать  имя  слоя,  содержащего  результат 

классификации; 

Флаг 

Создать слой с вероятностями

  –  активирует  возможность создания  дополнительного 

слоя с вероятностями; 

Поле

 

ввода

  Создать  слой  с  вероятностями

  –  позволяет  задать  имя  слоя,  содержащего 

значения вероятностей; 

Флаг 

Маскировать  результаты  с  неопределенностью

  –  при  активации  все 

результирующие значения с неопределенностью будут скрыты. 

Поле  ввода

 

Файл  классификатора

  –  позволяет  указать  имя  и  путь  для  сохранения    всех 

настроенных значений параметров спектральной классификации. 

Кнопка

 

Использовать сохраненный классификатор

 – позволяет выбрать сохраненный ранее 

файл с настройками параметров классификации. 

Кнопка

 

Обучить  и  классифицировать

  –  инициирует  процесс  неконтролируемой  спектральной 

классификации. 

Кнопка

 

Закрыть

  –  закрывает  диалог  без  выполнения  классификации  и  сохранения  заданных 

параметров. 

 

В  результате  выполнения  классификации  будет  автоматически  создан  новый  растровый 

тематический  слой  с  именем  «

ISODATA_Elements

».  А  при  включенном 

флаге 

Создать  слой  с 

вероятностями

  –  будет  также  автоматически  создан  дополнительный  слой  с  вероятностями  – 

«

ISODATA_Elements_Prob

».  Для  последующей  обработки  полученных  результатов  можно 

использовать инструментарий 

Показать легенду

 (см. 

«Отображение результатов классификаций 

(Показать легенду)»

).  

 

Управляемая классификация.  

Нейронные сети прямого распространения. 

Описание алгоритма нейронных сетей прямого распространения 

Нейронные  сети  прямого  распространения  используют  классические  нейроны  с 

сигмоидальной  функцией  активации.    Если  обозначить  через  x

1

,  x

2

,…,x

n

  входные  сигналы  j-го 

нейрона, то он реализует функцию:

1

n

j

i

ji

i

y

x w

, где y

j

 – выход j-го нейрона, w

ij

 – вес связи, 

соединяющей  j-й  нейрон  с  его  входными  сигналами,  которыми  могут  быть  как  входные  сигналы 

нейронной сети, так и выходы нейронов предыдущего слоя, и 

 

 – сигмоид:

 

1

1

I

I

e

В общем виде модель нейрона имеет следующий вид: суммарный вход нейрона определяется 

как  взвешенная  сумма  сигналов  на  его  входах 

i

i

i

I

w x

,  а  выход  нейрона 

( )

y

I

  есть 

функция  активации  от  его  суммарного  входа.  При  использовании  в  качестве  функции  активации 

сигмоида 

( ) 1/(1

)

ca

a

e

 нейрон реализует логистическую регрессию.  

Поскольку модель нейрона реализует функцию от его входов, нейроны можно объединять в 

соответствии  с  правилами  суперпозиции  функций,  получая  более  сложные  модели,  называемые 

многослойными  персептронами  (MLP  –  Multilayer  Perceptron)  или  искусственными  нейронными 

сетями  прямого  распространения,  которые  можно  рассматривать,  в  том  числе,  как  усложнение 
логистической регрессии.  

Для  определения  параметров  такой  модели  (обучения  нейронной  сети  в  терминах  теории 

искусственных нейронных сетей) используется стандартный метод наименьших квадратов, для чего 

составляется  квадратичная  функция  ошибки (Rumelhart, 1986): 

( )

2

1

( )

(

( )

)

2

i

o

i

i

E

y

d

w

w

зависящая от весов нейронной всей сети 

w

, в которой суммирование ведется по всем имеющимся 

входным  векторам  с  известным  откликом 

i

d

,  который  и  нужно  моделировать  (он  должен  быть 

равен значению на выходе нейрона 

o

y

, находящегося на верхнем уровне суперпозиции функций, 

реализуемых нейронами сети). 

Для  минимизации  полученной  функции  ошибки  применяется  стандартный  подход  решения 

системы нормальных уравнений итерационным методом градиентного спуска с тем отличием, что 

за  счет  использования  свойств  суперпозиции  функций  удается  достаточно  быстро  вычислять 

производные  для  всех  весов,  число  которых  может  достигать  тысяч.  В  результате  применения 

рекурсивной процедуры получается формула для обновления весов 

ij

w

 (соединяющих выход 

i

-го 

нейрона 

сети 

с 

входом 

j

-го) 

в 

методе 

градиентного 

спуска: 

 

( )

j

j

ij

ij

j

j

ij

dy

I

E

E

w

w

y

dI

w

 

 

w

,  где 

k

jk

k

j

E

w

y

  (суммирование  ведется  по 

всем  нейронам,  с  которыми  соединен  выход 

j

-го  нейрона),  и 

k

k

k

k

E dy

y

dI

,  что  позволяет 

получить  рекурсивную  формулу  пересчета 

k

,  двигаясь  вглубь  суперпозиции  от  выхода  сети  к 

входам  (именно  поэтому  метод  получил  название  «обратного  распространения  ошибки»): 

j

j

k

jk

k

j

dy

w

dI

 

  для  всех  нейронов,  кроме  выходных,  и 

(

)

o

o

o

o

dy

y

d

dI

  для 

выходных. 

Таким  образом,  подавая  на  вход  нейронной  сети  исходные  данные  и  проводя  расчеты  в 

прямом  направлении,  заданном  суперпозицией,  мы  можем  рассчитать  значения 

k

I

,  после  чего, 

двигаясь в обратном направлении, рассчитать поправки для весов, и т.д. 

Методы улучшения обучения нейронной сети, реализованные в программе Scanex 

скорости  обучения.  Использование  небольшого  (порядка  0.1)  смещения,  прибавляемого  к 

производной сигмоида, позволяет обеспечить изменение весов и в этом случае. 

Естественное  убывание  весов

.  Для  того  чтобы  избежать  неограниченного  роста  весов 

нейронной сети (в частности, в силу наличия смещения производной), при обучении используется 

параметр 

  естественного  уменьшения  весов  путем  добавления  к  производной 

( )

ij

E

w

w

  на 

каждом  шаге  величины 

ij

w

.  Таким  образом,  при  нулевом  значении  производной,  веса  будут 

стремиться  к  нулю,  что  обеспечивает  улучшение  качества  и  стабильность  («консервативность») 
прогноза при последующем использовании обученной нейронной сети. 

Использование инерции.

 В ряде случаев, особенно при использовании больших значений 

скорости  обучения,  изменения  весов  приобретает  характер  колебательного  процесса,  когда  веса 

сначала  увеличиваются,  затем  уменьшаются,  затем  снова  увеличиваются,  и  т.д.  Это  происходит 

потому,  что  значения  весов  «проскакивают»  оптимальное  положение  в  силу  слишком  большой 

 

скорости  обучения.  Для  того  чтобы  избежать  такого  «зигзагообразного»  поведения  весов, 

применяется  стандартный  для  оптимизационных  алгоритмов  метод,  когда  при  изменении  весов 

учитывается  их  предыдущее  значение,  и  фактическое  значение  изменения  весов 

'

( )

(1

)

( )

(

1)

ij

ij

ij

w t

w t

w t

 

 

  

 вычисляется как взвешенная сумма изменения,  

 вычисленного на данном шаге, и прошлого изменения; в качестве веса используется момент 

инерции 

, принимающий значения от 0 до 1. 

Использование  случайного  изменения  данных.

  В  ряде  случаев  известно,  что 

наблюдаемые значения входных и выходных параметров содержат случайную ошибку с заданным 

распределением (в нашем случае ошибка выходных значений оценивается методом Монте-Карло). 
В этом случае добавление в процессе обучения случайных значений с заданным распределением к 

исходным данным позволяет улучшить качество обучения нейронной сети. 

Алгоритм  Quick  Propagation

.  Для  ускорения  процесса  обучения  широко  используется 

алгоритм  «быстрого  обучения» 

Quick  Propagation

,  в  котором  скорость  обучения  является 

адаптивным  параметром,  вычисляемым  в  процессе  обучения  индивидуально  для  каждого  веса  с 

использованием квадратичной аппроксимации: если 

(

1)

ij

g t

 – градиент 

( )

ij

E

w

w

, вычисленный 

на  шаге  t-1, 

( )

ij

g t

  –  градиент,  вычисленный  на  шаге  t,  то  значение  скорости  обучения 

 

вычисляется  как 

( ) /( (

1)

( ))

ij

ij

ij

ij

g t

g t

g t

 

.  Чтобы  избежать  слишком  больших  скоростей, 

вызванных  артефактами  вычислений,  максимальная  скорость  изменения  параметра 

  обычно 

ограничивается.  

 

 

 

Пример топологии нейронных сетей без 

скрытого слоя

 

 

Пример топологии нейронных сетей 

с одним скрытым слоем 

 

Пример топологии нейронных сетей с двумя  

скрытыми слоями: в первом скрытом слое 

использовано 7 нейронов, во втором – 3 

Рис 128.

 

Примеры вариантов топологии 

 

Топология построения нейронных 

сетей прямого распространения 

Нейроны нейронной сети организованы в слои таким образом, что выходной сигнал i-го слоя 

подается на входы всех нейронов (i+1)-го слоя. Любая нейронная сеть имеет как минимум два слоя 

–  входной,  содержащий  «рецепторы»  входных  сигналов,  и  выходной,  содержащий  выходные 

нейроны,  что  обеспечивает  реализацию  простейших  алгоритмов  распознавания.  Кроме  этого, 

программа  позволяет  определить  еще  один  или  два  промежуточных  («скрытых»)  слоя,  которые 

обеспечивают решение более сложных задач (Рис 128). Большее число слоев необязательно, так 

как одного скрытого слоя достаточно для решения задач практически любой сложности. Следует 
учитывать, что число нейронов выходного слоя равно числу тематических классов, которые нужно 

распознать  (дискриминировать).  Обычно  в  слое,  предшествующем  выходному,  размещают 

примерно  столько  же  или  больше  нейронов,  что  и  число  распознаваемых  классов  (выходных 

нейронов). 

В качестве примера  приведем искусственную (сильно упрощенную для наглядности) задачу 

выделения  на  осеннем  (начало  октября)  снимке  LANDSAT 7  (Приведен  снимок  в  стандартном 

синтезе 4-5-2  -  Рис  129)  нескольких видов природных объектов, а именно  -  указанных в легенде 

(Таблица 4):  

 

 

 

 

Таблица 4.

 

Часть легенды снимка LANDSAT 7, представленного на Рис 129 

№  Цвет 

Комментарий 

 

Молодые (в основном восстановленные после рубок), хвойные 

леса 

 

Старые (в пределах заповедника) хвойные леса 

 

Травянистая растительность (озимые поля, луга) 

 

Открытая вода 

 

Открытый грунт (распаханные поля, селитебные территории) 

 

Широколиственные леса 

нейронных сетей 

 

 

Рис 129.

 

Снимок LANDSAT 7 в синтезе 4-5-2 

Для  классификации  использовались  яркости  в  2,  3,  4  и  5  каналах.  Векторный  обучающий 

слой с эталонными объектами приведен ниже (Рис 130)

 

Рис 130.

 

Снимок LANDSAT 7 с наложенными эталонными объектами 

 

Обучающие (требуемые) выходы нейронной сети кодируются очевидным образом набором из 

6  нулей  и  одной  единицы,  соответствующей  требуемому  классу.  Так,  класс  «Открытая  вода» 

кодируется  вектором  выходных  сигналов  (0,0,0,1,0,0,0),  а  класс  «Открытый  грунт»  –  вектором 

(0,0,0,0,1,0,0).  Поскольку  выходной  сигнал  каждого  нейрона  выходного  слоя  может  принимать 

произвольное значение от 0 до 1, то ошибка так же может принимать произвольные значения из 

диапазона  [-1,+1].  Для  отображения  в  строке  состояния  программы  используется 

среднеквадратическая  ошибка  по  всем  входным  пикселям,  усредненная  по  всем  классам 

(выходным нейронам).  

В  обучении  используется  градиентный  алгоритм,  использующий  вычисление  производных 

для  каждого  веса  методом  обратного  распространения  ошибки  и  оптимальный  выбор  шага 

градиентного  спуска  с  использованием  одномерной  квадратичной  аппроксимации  (широко 

известный алгоритм 

Quick Propagation

). 

Результат классификации приведен на рисунке ниже (Рис 131)

 

Рис 131.

 

Результат классификации снимка LANDSAT 7 

 

 

 

Классификация с использованием нейронной сети 

Классификация  с  помощью  нейронной  сети  выполняется  с  помощью  инструмента 

Спектральная  классификация  с  учителем

,  который  вызывается  командой 

Классификация 

 

С учителем 

 

Спектральная классификация

 главного меню программы. При этом должен 

быть задан 

Метод классификации

 – Нейронная сеть (Рис 132)

 

Рис 132.

 

Диалог 

Спектральная классификация с учителем

, метод классификации – 

Нейронная сеть

 

В 

группе

 

Выбрать  каналы

  –  задаются  спектральные  каналы,  участвующие  в  процессе 

классификации. 

Группа

 

Источник образцов

 – определяет источник эталонов для обучения нейронной сети: 

Переключатель

 

Вектор

 – при включении сообщает о необходимости использовать в качестве 

источника  эталонов  полигональный  векторный  слой.  Выпадающий  список  справа  – 

позволяет выбрать векторный слой. 

Выпадающий список

 

Классы из:

 – позволяет выбрать одно из атрибутивных полей указанного 

выше  векторного  слоя,  содержащее  коды  тематических  классов.  Коды  тематических 

классов  должны  быть  представлены  положительными  целочисленными  значениями, 

количество классов не должно быть более 50. 

Выпадающий  список

 

Веса  из:

  –  позволяет  выбрать  одно  из  атрибутивных  полей  указанного 

выше векторного слоя, содержащее значение весов тематических классов. 

 

 

 

 

 

 

 

содержание      ..     12      13      14      15     ..