ministÉrio da defesa exÉrcito brasileiro secretaria de ... · oscar ricardo vergara – d. e. do...

99
MINISTÉRIO DA DEFESA EXÉRCITO BRASILEIRO SECRETARIA DE CIÊNCIA E TECNOLOGIA INSTITUTO MILITAR DE ENGENHARIA (Real Academia de Artilharia, Fortificação e Desenho, 1792) - DEPARTAMENTO DE ENGENHARIA CARTOGRÁFICA - PROJETO DE FIM DE CURSO ESTUDO DAS POTENCIALIDADES CARTOGRÁFICAS DAS IMAGENS CCD DO SATÉLITE CBERS 1° TEN GIOVANA MIRA DE ESPINDOLA RIO DE JANEIRO 2002

Upload: others

Post on 31-Aug-2020

0 views

Category:

Documents


0 download

TRANSCRIPT

MINISTÉRIO DA DEFESA

EXÉRCITO BRASILEIRO

SECRETARIA DE CIÊNCIA E TECNOLOGIA

INSTITUTO MILITAR DE ENGENHARIA

(Real Academia de Artilharia, Fortificação e Desenho, 1792)

- DEPARTAMENTO DE ENGENHARIA CARTOGRÁFICA -

PROJETO DE FIM DE CURSO

ESTUDO DAS POTENCIALIDADES CARTOGRÁFICAS DAS IMAGENS CCD

DO SATÉLITE CBERS

1° TEN GIOVANA MIRA DE ESPINDOLA

RIO DE JANEIRO

2002

II

INSTITUTO MILITAR DE ENGENHARIA

TEN GIOVANA MIRA DE ESPINDOLA

ESTUDO DAS POTENCIALIDADES CARTOGRÁFICAS DAS IMAGENS CCD

DO SATÉLITE CBERS

Projeto de Fim de Curso apresentado ao Curso de Graduação em Engenharia Cartográfica do Instituto Militar de Engenharia, como requisito parcial para a obtenção do grau de engenheiro em Engenharia Cartográfica. Orientadores: Prof. Oscar Ricardo Vergara – D. E. Maj Clóvis Gaboardi – M. C.

Rio de Janeiro 2002

III

INSTITUTO MILITAR DE ENGENHARIA

TEN GIOVANA MIRA DE ESPINDOLA

ESTUDO DAS POTENCIALIDADES CARTOGRÁFICAS DAS IMAGENS CCD

DO SATÉLITE CBERS

Projeto de Fim de Curso apresentado ao Curso de Graduação em Engenharia Cartográfica do Instituto Militar de Engenharia, como requisito parcial para a obtenção do grau de engenheiro em Engenharia Cartográfica.

Orientadores: Prof. Oscar Ricardo Vergara – D.E. Maj Clóvis Gaboardi – M.C.

Aprovado em 28 de Outubro de 2002 pela seguinte Banca Examinadora:

Oscar Ricardo Vergara – D. E. do IME – Presidente

Luís Antônio de Andrade – Cel QEM R/1 – M. C. do IME

Clóvis Gaboardi – Maj QEM – M. C. do IME

Rio de Janeiro 2002

IV

Para Dilza, minha querida mãe e amiga, que

me ensinou a lutar e sempre seguir em

frente; para Ricardo, meu companheiro, que

soube sempre me dar apoio nos momentos

de fraqueza.

V

AGRADECIMENTOS

Agradeço a todos os professores do Departamento de Engenharia Cartográfica do Instituto Militar de Engenharia, pelo carinho e dedicação com que buscam transmitir os conhecimentos necessários à formação de seus alunos. Agradeço em especial aos meus orientadores, pela dedicação e entusiasmo empregados no desenvolvimento deste projeto.

Ao Instituto Nacional de Pesquisas Espaciais, na pessoa do Sr. Paulo Roberto Martini, por fornecer a imagem CCD do CBERS.

Ao Instituto Pereira Passos pela cessão sem custo, da base cartográfica digital do Município do Rio de Janeiro – RJ, na escala 1:2.000.

VI

SUMÁRIO

LISTA DE ILUSTRAÇÕES IX

LISTA DE TABELAS XI

LISTA DE ABREVIATURAS E SÍMBOLOS XII

LISTA DE SIGLAS XIII

RESUMO XIV

ABSTRACT XV

1. INTRODUÇÃO 01

1.1 Enquadramento do Projeto 01

1.1.1 Imageador de Largo Campo de Visada (WFI - Wide Field Imager) 03

1.1.2 Câmera CCD de Alta Resolução (CCD - High Resolution CCD

Camera) 03

1.1.3 Câmera de Varredura no Vnfravermelho (IR-MSS - Infrared

Multispectral Scanner) 04

1.1.4 Linha de Pesquisa 04

1.2 Objetivos 05

1.3 Área de Interesse 06

1.4 Outras Considerações 06

1.5 Cronograma 07

2. FUNDAMENTAÇÃO TEÓRICA 08

2.1 Conceitos Básicos de Sensoriamento Remoto 08

2.1.1 O Espectro Eletromagnético 08

2.1.2 Influência Atmosférica 09

2.1.3 Características Espectrais de Alvos 09

2.1.3.1 Refletividade da Vegetação 10

2.1.3.2 Refletividade dos Solos 10

2.1.3.3 Refletividade da Água 11

2.1.3.4 Refletividade das Áreas Urbanas 11

2.2 Processamento Digital de Imagens 11

2.2.1 Pré-Processamento Digital de Imagens 12

VII

2.2.1.1 Georreferenciamento de Imagens Digitais 12

2.2.1.2 Eliminação de Ruído 16

2.2.1.2.1 Filtragem 16

2.2.2 Extração de Feições 17

2.2.2.1 Operações Aritméticas 17

2.2.2.1.1 Razão de Bandas Simples 18

2.2.2.1.2 NDVI – Normalised Difference Vegetation Index 18

2.2.2.2 Classificação Digital de Imagens 19

2.2.2.2.1 Fatiamento de Densidades 20

2.2.2.2.2 Classificação Supervisionada 20

2.2.2.3 Distância de Jeffries-Matusita 22

2.2.2.4 Pós-Classificação Digital de Imagens 22

2.2.2.4.1 Matriz de Confusão ou de Erros 23

2.2.2.4.2 Coeficiente Kappa 24

3. METODOLOGIA 25

3.1 Materiais Empregados 25

3.1.1 Imagens 25

3.1.2 Softwares 25

3.1.3 Hardware 26

3.1.4 Outros Materiais 26

3.2 Georreferenciamento da Imagem 26

3.2.1 Utilizando o ENVI 3.4 26

3.2.2 Utilizando o SPRING 3.6 32

3.3 Processamento Digital das Imagens 40

3.3.1 Eliminação de Ruídos 40

3.3.1.1 Filtros de Convolução 41

3.3.1.2 Filtros Morfológicos 46

3.3.1.3 Filtros de Textura 46

3.3.1.4 Filtros Adaptativos 52

3.4 Extração de Feições 58

3.4.1 Extração de Corpos D’Água 58

3.4.2 Realce da Vegetação 60

VIII

3.5 Classificação Digital das Imagens 64

4. RESULTADOS PARCIAIS 68

4.1 Georreferenciamento da Imagem 68

4.1.1 Georreferenciamento – ENVI 3.4 68

4.1.2 Georreferenciamento – SPRING 3.6 69

4.2 Eliminação de Ruído 70

4.3 Extração de Feições 70

4.3.1 Classificação Digital das Imagens 70

5. CONCLUSÕES 73

6. REFERÊNCIAS BIBLIOGRÁFICAS 74

7. SUGESTÕES PARA TRABALHOS FUTUROS 75

8. ANEXOS 76

IX

LISTA DE ILUSTRAÇÕES

FIG 1.1 Satélite CBERS 02

FIG 1.2 Corte da imagem do sensor CCD 05

FIG 3.1 Janela Available Bands List 27

FIG 3.2 Janela Register 28

FIG 3.3 Janela Image to Map Registration 29

FIG 3.4 Janela Ground Control Points Selection 30

FIG 3.5 Janela Ground Control Points Selection 31

FIG 3.6 Janela Registratrion Parameters 32

FIG 3.7 Janela do IMPIMA 33

FIG 3.8 Janela criar Banco de Dados 34

FIG 3.9 Janela criar Projeto 34

FIG 3.10 Janela do Painel de Controle 35

FIG 3.11 Janela Seleção de Imagens 36

FIG 3.12 Janela Registro de Imagem 37

FIG 3.13 Janela Importar Arquivos Grib 39

FIG 3.14 Janela Lista de Categorias 39

FIG 3.15 Janela Modelo de Dados 40

FIG 3.16 ENVI 3.4 – Filtros de Convolução 41

FIG 3.17 Janela Convolution Input File 42

FIG 3.18 Janela Convolution Parameters 42

FIG 3.19 Filtro Passa Baixas: comparação entre a imagem original

(esquerda) e a imagem filtrada (direita)

43

FIG 3.20 Filtro Passa Baixas: comparação entre a imagem original

(esquerda) e a imagem filtrada (direita)

44

FIG 3.21 Janela Convolution Input File 45

FIG 3.22 Janela Convolution Parameters 45

FIG 3.23 Filtro da Mediana: comparação entre a imagem original

(esquerda) e a imagem filtrada (direita)

46

FIG 3.24 ENVI 3.4 – Filtros de Textura 47

FIG 3.25 Janela Texture Input File 48

FIG 3.26 Janela Occurrence Texture Parameters 48

X

FIG 3.27 Filtro Occurrence Measures: comparação entre a imagem

original (esquerda) e a imagem filtrada (direita)

49

FIG 3.28 Janela Texture Input File 50

FIG 3.29 Janela Co-occurrence Texture Parameters 51

FIG 3.30 Filtro Co-occurrence Measures: comparação entre a

imagem original (esquerda) e a imagem filtrada (direita)

51

FIG 3.31 Filtro Co-occurrence Measures: comparação entre a

imagem original (esquerda) e a imagem filtrada (direita)

52

FIG 3.32 ENVI 3.4 – Filtros Adaptativos 53

FIG 3.33 Janela Lee Filter Input File 54

FIG 3.34 Janela Lee Filter Parameters 54

FIG 3.35 Filtro Lee: comparação entre a imagem original

(esquerda) e a imagem filtrada (direita)

55

FIG 3.36 Janela Localized Sigma Filter Input File 56

FIG 3.37 Janela Localized Sigma Filter Parameters 56

FIG 3.38 Filtro Local Sigma: comparação entre a imagem original

(esquerda) e a imagem filtrada (direita)

57

FIG 3.39 Filtro Local Sigma: comparação entre a imagem original

(esquerda) e a imagem filtrada (direita)

57

FIG 3.40 Janela #1 Density Slice 58

FIG 3.41 Janela #2 – Fatiamento da Imagem 59

FIG 3.42 Janela Raster To Vector Parameters 60

FIG 3.43 Janela NDVI Calculation Input File 61

FIG 3.44 Janela NDVI Calculation Parameters 62

FIG 3.45 Janela Band Ratio Entry 63

FIG 3.46 Janela Band Ratio Parameters 63

FIG 3.47 Janela Region of Interest Controls 65

FIG 3.48 Janela Maximum Likelihood Parameters 66

FIG 3.49 Janela Math Classe Parameters 67

FIG 4.1 Distância JM 71

XI

LISTA DE TABELAS

TAB 1.1 Características do Satélite CBERS 02

TAB 1.2 Características do Sensor CCD 04

TAB 1.3 Cronograma 07

TAB 2.1 Comparação entre os Algoritmos 15

TAB 2.2 Matriz de Confusão 23

TAB 2.3 Desempenho da Classificação 24

TAB 4.1 Análise do Georreferenciamento – ENVI 3.4 68

TAB 4.2 Análise do Georreferenciamento (PC) – SPRING 3.6 69

TAB 4.3 Análise do Georreferenciamento (PT) – SPRING 3.6 69

TAB 4.4 Valores de Kappa 72

XII

LISTA DE ABREVIATURAS E SÍMBOLOS

ABREVIATURAS

pixel Picture Element

PC Pontos de Pontrole

PT Pontos de Teste

NDVI Normalised Difference Vegetation Index

XIII

LISTA DE SIGLAS

CBERS China-Brazil Earth Resources Satellite

INPE Instituto Nacional de Pesquisas Espaciais

IPP Instituto Pereira Passos

XIV

RESUMO

O emprego de imagens de sensores remotos na cartografia é uma

realidade cada vez mais aceita e difundida na comunidade visto que a gama de

sensores torna-se cada vez maior. Para o correto emprego de imagens de

satélite na atualização de cartas topográficas é necessário que se realize um

pré-processamento da imagem que engloba as fases de georreferenciamento

e, se necessário, eliminação de ruídos, prévia à extração de informação

temática.

A imagem a ser estudada corresponde a um corte realizado em uma

imagem proveniente do sensor CCD do satélite CBERS. A imagem possui

quatro bandas espectrais, sendo azul, verde, vermelho e infravermelho

próximo, com resolução espacial de 20m. A imagem foi cedida pelo INPE e é

datada de 26 de Junho de 2001. O corte abrange a área desde a Barra da

Tijuca até a Vila Militar no Rio de Janeiro – RJ.

Após a fase de pré-processamento, são empregadas diversas técnicas

de processamento digital de imagens para o estudo da viabilidade de extração

de feições temáticas da imagem.

XV

ABSTRACT

The use of remote sensing images in cartography is a more and more

acceped and diffused reality in the community, seen that the range of sensors

becomes wider every day. For the correct using of satellite images in the

updating of topographical maps, its necessary to pre-process those images, in

order to georreferentiate them and, if necessary, eliminate noise, before the

extraction of thematical information from the images.

The image to be studied corresponds to a cut carried out in an image

originated from the CCD sensor of the CBERS satellite. The image has four

spectral bands, blue, green, red and near infrared, with 20m spatial resolution.

The image was given by INPE and is dated from June 26, 2001. The cut

includes the area since "Barra da Tijuca" up to "Vila Militar" in the city of Rio de

Janeiro – RJ.

After the pre-processing stage, several digital image processing

techniques will be employed in order to evaluate feasability in the extraction of

thematical features from the image.

1

1. INTRODUÇÃO

1.1 Enquadramento do Projeto

Os recursos naturais e o meio ambiente estão em mudanças contínuas em

resposta à evolução natural e às atividades humanas. Para compreender o

complexo inter-relacionamento dos fenômenos que causam estas mudanças é

necessário fazer observações com uma grande gama de escalas temporais e

espaciais. A observação da Terra por meio de satélites é uma maneira efetiva e

econômica de coletar os dados necessários para monitorar e modelar estes

fenômenos, especialmente em países de grande extensão territorial. Os

satélites empregados para estes propósitos são complexos, dispendiosos e de

alto conteúdo tecnológico.

Em julho de 1988, os governos do Brasil e da República Popular da China

assinaram um acordo para iniciar um projeto de desenvolvimento de dois

satélites de sensoriamento remoto. O Programa CBERS - China-Brazil Earth

Resources Satellite agrega a capacidade técnica e os recursos financeiros dos

dois países para estabelecer um sistema completo de sensoriamento remoto

competitivo e compatível com as necessidades internacionais atuais. Em 14 de

outubro de 1999 ocorreu o lançamento do primeiro Satélite CBERS, utilizando-

se o foguete Chinês Longa Marcha 4B. Tendo cumprido todas as etapas

previstas em órbita, a partir da abertura dos painéis solares e tendo passado

pelas fases de ajuste de órbita e testes dos subsistemas, e realizado os testes

e calibração de suas três câmaras - CCD, IRMSS e WFI, o satélite foi

considerado apto para operação normal.

O satélite CBERS, (figura 1.1), é composto de dois módulos. O módulo

carga útil, (tabela 1.1), acomoda os sistemas ópticos (CCD - High Resolution

CCD Cameras, IRMSS - Infra-Red Multispectral Scanner e WFI - Wide Field

Imager) e os eletrônicos usados para observação da Terra e Coleta de Dados.

O módulo serviço contém os equipamentos que asseguram o suprimento de

energia, os controles, as telecomunicações e demais funções necessárias à

operação do satélite.

2

Características Massa total 1450 kg Potência gerada 1100 W Baterias 2 x 30 Ah NiCd Dimensões do corpo (1,8 x 2,0 x 2,2) m Dimensões do painel 6,3 x 2,6 m Altura da órbita hélio-síncrona 778 km Propulsão a hidrazina 16 x 1 N; 2 x 20 N Estabilização 3 eixos Supervisão de bordo Distribuída Comunicação de Serviço UHF e banda S Tempo de vida (confiabilidade de 0,6) 2 anos

TAB 1.1 – Características do Satélite CBERS

FIG 1.1 – Satélite CBERS

A órbita do CBERS é heliossíncrona a uma altitude de 778 km,

perfazendo cerca de 14 revoluções por dia. Nesta órbita, o satélite cruza o

equador sempre na mesma hora local, 10:30 da manhã, permitindo assim que

se tenha sempre a mesma condição de iluminação solar para a comparação de

imagens tomadas em dias diferentes. O satélite demora 26 dias para retornar

ao mesmo ponto de cobertura da Terra. Este é o tempo necessário para se ter

imagens de todo o globo terrestre com suas câmaras CCD e IRMSS que

possuem campos de visada de 113 Km a 120 Km, respectivamente. Já com a

câmara WFI, que consegue imagear uma faixa de 890 km de largura, o tempo

3

necessário para uma cobertura global é de 5 dias. Em visada lateral, pode-se

obter imagens da mesma área do terreno a cada 3 dias.

O satélite CBERS é equipado com câmaras para observações ópticas

de todo o globo terrestre, além de um sistema de coleta de dados ambientais.

São sistemas de sensores que combinam características especiais para

resolver a grande variedade de escalas temporais e espaciais.

1.1.1 Imageador de Largo Campo de Visada (WFI - Wide Field Imager)

O WFI imageia uma faixa de 890 km de largura, fornecendo uma

imagem com resolução espacial de 260 m. Em cerca de 5 dias obtém-se uma

cobertura completa do globo em duas bandas espectrais centradas em:

0,66µm (vermelho) e 0,83µm (infravermelho próximo)

1.1.2 Câmara CCD de Alta Resolução (CCD - High Resolution CCD

Camera)

A câmara CCD (tabela 1.2) fornece imagens de uma faixa de 113 km de

largura, com uma resolução de 20 m. Esta câmara tem capacidade de orientar

seu campo de visada dentro de ± 32 graus, possibilitando a obtenção de

imagens estereoscópicas. Além disso, qualquer fenômeno detectado pelo WFI

pode ser focalizado pela Câmara CCD através do apontamento apropriado de

seu campo de visada, no máximo a cada 3 dias. A Câmara CCD opera em 5

faixas espectrais, sendo uma faixa pancromática, uma faixa no azul, uma no

verde, uma no vermelho e uma faixa no infravermelho próximo. As duas faixas

espectrais do WFI são também empregadas na câmara CCD para permitir

a combinação dos dados obtidos pelas duas câmaras. São necessários 26

dias para uma cobertura completa da Terra com a câmara CCD. Cabe

ressaltar que as imagens pancromáticas, bem como as imagens

estereoscópicas ainda não estão disponíveis devido a problemas presentes no

sensor.

4

Características do Sensor CCD

Bandas espectrais

0,51 - 0,73 µm (pan) 0,45 - 0,52 µm (azul) 0,52 - 0,59 µm (verde) 0,63 - 0,69 µm (vermelho) 0,77 - 0,89 µm (infravermelho próximo)

Campo de Visada 8,3º Resolução espacial 20 x 20 m Largura da faixa imageada 113 km Capacidade de apontamento do espelho

±32º

Resolução temporal 26 dias com visada vertical (3 dias com visada lateral)

Portadora de Rádio Freqüência 8103 a 8321 MHz Taxa de dados da imagem 2 x 53 Mbits/s

TAB 1.2 – Características do Sensor CCD / INPE (2002)

1.1.3 Câmera de Varredura no Infravermelho (IR-MSS - Infrared

Multispectral Scanner)

A câmera de varredura IR-MSS tem 4 faixas espectrais e estende o

espectro de observação do CBERS até o infravermelho termal. O IR-MSS

produz imagens de uma faixa de 120 km de largura com uma resolução de 80

m (160 m na banda termal). Em 26 dias obtém-se uma cobertura completa da

Terra que pode ser correlacionada com aquela obtida através da câmera CCD.

1.1.4 Linha de Pesquisa

Na cartografia, dentro de certos limites de escala, tem-se a possibilidade

de realizar atualizações de cartas topográficas com a utilização de imagens de

satélites sem recorrer ao uso do vôo aerofotogramétrico. Dentro deste

contexto, pode-se inserir esse trabalho na área de Sensoriamento Remoto,

visto que será estudado um produto oriundo de um sensor capaz de obter

informações do terreno sem necessidade de contato com o mesmo. No

Departamento de Engenharia Cartográfica do Instituto Militar de Engenharia,

este trabalho está inserido no grupo de pesquisa de Imageamento do Terreno.

5

1.2 Objetivos

O objeto deste estudo é uma imagem do sensor CCD do CBERS

com quatro bandas espectrais - azul, verde, vermelho e infravermelho próximo

com resolução espacial de 20m. A imagem foi cedida pelo INPE e é datada de

26 de junho de 2001.

FIG 1.2 – Corte da imagem do sensor CCD

O objetivo do trabalho consiste em avaliar as potencialidades

cartográficas de imagens CBERS através do estudo de extração de feições

para a atualização de cartas topográficas, mediante a avaliação da sua

qualidade geométrica. Levando em conta as características da imagem a ser

utilizada (falta de um georreferenciamento com precisão compatível com

aplicações cartográficas e presença de ruído), faz-se necessário um pré-

6

processamento da imagem que engloba as fases de georreferenciamento e

eliminação de ruído.

O georreferenciamento da imagem será feito utilizando-se pontos de

controle e pontos de teste obtidos na base cartográfica da região, na escala

1:2.000. Já a correção radiométrica será feita através da utilização de técnicas

de processamento digital de imagens, comparando-se os resultados obtidos

através de aplicação de diversos procedimentos de filtragem.

Após a fase de pré-processamento serão empregadas técnicas de

processamento digital de imagens para a extração da informação temática

atualizada. Pode-se citar como técnicas empregadas na extração de

informação temática as ferramentas de fatiamento de densidades, razão de

bandas (simples e NDVI) e classificação supervisionada da imagem.

1.3 Área de Interesse

A imagem utilizada no presente trabalho abrange um setor da área

urbana do Rio de Janeiro. Nela estão presentes vários elementos, como

vegetação, mar, lagoas, além de uma área densamente urbanizada, o que

possibilita um estudo abrangente sobre as possibilidades de se extrair das

imagens do sensor CCD, as informações temáticas que poderão ser utilizadas

para a atualização de cartas topográficas. A imagem caracteriza-se ainda pela

presença de áreas planas e áreas montanhosas. A área correspondente é

coberta pela carta topográfica Vila Militar na escala 1:50000.

1.4 Outras Considerações

O interesse de se desenvolver uma pesquisa tendo como tema uma

imagem CBERS decorre da possibilidade de se valorizar um produto oriundo

de tecnologia brasileira, viabilizando a utilização deste tipo de imagem na área

de cartografia.

7

A escassez de publicações sobre este tema é outro fator relevante a ser

considerado, visto que o próprio INPE manifesta interesse em que se

desenvolvam pesquisas sobre as imagens do CBERS.

O trabalho está dividido em uma introdução, seguida da fundamentação

teórica e da metodologia empregada, para seqüencialmente serem

apresentados os resultados obtidos e sua discussão e uma conclusão.

1.5 Cronograma

Para a realização do presente projeto de pesquisa será seguido o

seguinte cronograma:

FASES DO PROJETO

M

A

R

A

B

R

M

A

I

J

U

N

J

U

L

A

G

O

S

E

T

O

U

T

Pesquisa Bibliográfica

Escolha da Imagem

Corte da Imagem

Georreferenciamento da Imagem

Eliminação de Ruído

Extração de Feições da Imagem

Estudo das Potencialidades Cartográficas

TAB 1.3 – Cronograma

8

2. FUNDAMENTAÇÃO TEÓRICA

2.1 Conceitos Básicos de Sensoriamento Remoto

Segundo Novo (1988), Sensoriamento Remoto é toda a tecnologia que

possibilita a aquisição de informações sobre objetos sem contato físico com os

mesmos. Neste sentido, os sensores são equipamentos capazes de coletar

energia proveniente de objetos, convertê-la em sinal passível de ser registrado

e apresentá-lo em forma adequada à extração de dados. As mais diversas

informações obtidas dos produtos de sensoriamento remoto são resultado da

interação entre a radiação eletromagnética e as substâncias que compõem os

objetos presentes na superfície da Terra.

Os sistemas sensores podem ser classificados, quanto a fonte de

energia, em sensores passivos e sensores ativos. Os sensores passivos

detectam a radiação solar refletida ou a radiação emitida pelos objetos da

superfície. Os sensores ativos são aqueles que produzem sua própria radiação.

2.1.1 O Espectro Eletromagnético

A radiação eletromagnética propaga-se no vácuo a uma velocidade de

300000 m/s. A intensidade da radiação varia de acordo com uma função

senoidal e está correlacionada diretamente com o comprimento de onda e a

freqüência. O comprimento de onda λ é definido pela distância média entre

dois pontos semelhantes consecutivos da onda, como, por exemplo, dois

mínimos ou dois máximos. A freqüência f é o intervalo de tempo entre dois

pontos consecutivos de mesma intensidade. A fonte principal de radiação

natural é o Sol, que emite, a uma temperatura de cerca de 6000 K, grandes

quantidades de energia em um espectro contínuo.

No que se refere às técnicas de sensoriamento remoto por sistemas

passivos, a faixa do espectro mais utilizada estende-se do ultravioleta até o

infravermelho. A radiação natural forma um espectro contínuo, que contém

comprimentos de ondas de milésimos de nanômetros até dezenas de

9

quilômetros. As técnicas de sensoriamento remoto por sistemas passivos,

contudo, utilizam somente o intervalo de 0,4 até 2,5 µm, dividido em bandas

espectrais. A banda espectral do visível representa um pequeno intervalo entre

0,38 µm e 0,72 µm, seguida pelo infravermelho, que chega até 3,0 µm. O

infravermelho pode ser dividido em infravermelho próximo ou reflexivo, de 0,72

µm a 1,3 µm e o infravermelho afastado ou emissivo, de 1,3 µm a 3,0 µm.

2.1.2 Influência Atmosférica

Durante o seu caminho através da atmosfera, a radiação solar é

atenuada pelos gases e aerossóis que a compõem. Alguns gases (oxigênio,

ozônio, vapor d’água, gás carbônico) absorvem a energia eletromagnética em

determinadas bandas do espectro de maneira que a atmosfera é

intransmissível à radiação nestas bandas. O grau de transmissão, ou

transmissividade representa a capacidade das ondas eletromagnéticas em

penetrarem a atmosfera. As faixas de comprimento de onda para as quais a

atmosfera parece transmissível são definidas como janelas atmosféricas. Elas

têm grande importância porque possibilitam a reflexão da radiação pela Terra e

podem ser aproveitadas pelos sistemas sensores passivos.

2.1.3 Características Espectrais de Alvos

Segundo Novo (1988), para que se possa extrair informações a partir de

dados de sensoriamento remoto, é fundamental o conhecimento do

comportamento espectral dos objetos da superfície terrestre e dos fatores que

interferem neste comportamento. A determinação da natureza dos alvos pelos

métodos de sensoriamento remoto é baseada no fato de que diferentes

materiais são caracterizados por reflectâncias próprias em cada banda do

espectro.

A reflectância ou fator de reflexão é proporcional à razão da radiação

refletida pela radiação incidente. Quando as respostas espectrais de vários

10

materiais são conhecidas, as propriedades de alvos desconhecidos podem ser

determinadas pela comparação das respostas espectrais desses alvos com os

dados de referência.

2.1.3.1 Refletividade da Vegetação

A determinação e a diferenciação da vegetação pelos métodos de

sensoriamento remoto é possível no intervalo de comprimento de onda de 0,4

até 2,5 µm, pois neste intervalo as folhas são caracterizadas por

comportamentos específicos de reflexão, absorção e transmissão. Nas bandas

do visível o comportamento da reflexão é determinado pela clorofila, cuja

absorção encontra-se no intervalo do azul e do vermelho, enquanto reflete no

intervalo do verde.

A clorofila regula o comportamento espectral da vegetação e o faz de

maneira mais significativa em comparação com outros pigmentos. A clorofila

absorve a faixa espectral do verde só em pequena quantidade, por isso a

reflectância é maior neste intervalo , o que é responsável pela cor verde das

folhas para a visão humana. Na banda do infravermelho, dependendo do tipo

de planta, a radiação é refletida em uma proporção de 30 a 70% dos raios

incidentes, ainda que as superfícies das folhas e os pigmentos sejam

transparentes para esses comprimentos de onda.

2.1.3.2 Refletividade dos Solos

As curvas espectrais dos solos sem vegetação apresentam, no intervalo

espectral correspondente ao azul, valores de reflexão baixos, os quais

aumentam continuamente em direção à banda do vermelho e do infravermelho.

Os parâmetros constantes, como tipo de mineral, granulação e conteúdo de

material orgânico, assim como os parâmetros variáveis, como umidade do solo

e rugosidade de superfície, influenciam a resposta espectral. Deve-se ressaltar

a existência de elevada correlação entre os parâmetros constantes e os

variáveis.

11

Uma alta umidade do solo é caracterizada, em todos os comprimentos

de onda, por valores baixos de reflexão.

2.1.3.3 Refletividade da Água

Segundo Novo (1988), os diferentes estados físicos da água influenciam

seu comportamento espectral. A água em estado líquido apresenta baixa

reflectância entre 0,38 e 0,70 µm, absorvendo toda a radiação acima de 0,7

µm.

2.1.3.4 Refletividade das Áreas Urbanas

As áreas urbanas são caracterizadas por uma aparência heterogênea,

causada pelo fato da variação interna dessas áreas ser muito grande, devido à

sua própria natureza. As áreas residenciais, por exemplo , são formadas por

materiais variados, tais como concreto, asfalto, vidro, ferro e vegetação. Há que

se considerar ainda, a influência das sombras causadas por edificações altas.

Por isso, a refletividade de cidades só pode ser descrita de uma forma

generalizada.

A detecção de áreas urbanizadas representa um fator limitante para

aplicação de classificações automáticas, pois a informação espectral pode ser

parecida com a de solos puros ou de áreas agrícolas.

2.2 Processamento Digital de Imagens

A análise digital de dados, mais especificamente, a análise de imagens

digitais de sensoriamento remoto orbital, possibilitou, nos últimos anos, um

grande desenvolvimento das técnicas voltadas para a análise de dados

multidimensionais, adquiridos por diversos tipos de sensores.

Por processamento digital de imagens entende-se a manipulação de

uma imagem por computador. O objetivo de se usar processamento digital de

12

imagens é melhorar o aspecto visual de certas feições estruturais para o

analista humano e fornecer outros subsídios para a sua interpretação, inclusive

gerando produtos que possam ser posteriormente submetidos a outros

processamentos.

A área de processamento digital de imagens tem atraído grande

interesse nas últimas duas décadas. A evolução da tecnologia de computação

digital, bem como o desenvolvimento de novos algoritmos para lidar com sinais

bidimensionais está permitindo uma gama de aplicações cada vez maior.

O processamento digital de imagens pode ser dividido em três etapas

independentes: pré-processamento, realce e classificação. O pré-

processamento refere-se ao processamento inicial de dados brutos para

calibração radiométrica da imagem, correção de distorções geométricas e

remoção de ruído. As técnicas de realce mais comuns em processamento

digital de imagens são: realce de contraste, filtragem, operações aritméticas e

componentes principais. Já as técnicas de classificação podem ser divididas

quanto à forma de treinamento (supervisionada e não-supervisionada) ou

quanto ao processo de classificação (por região e por pixel).

2.2.1 Pré-Processamento Digital de Imagens

2.2.1.1 Georreferenciamento de Imagens Digitais

Segundo Crósta (1993), imagens geradas por sensores remotos são

sujeitas a uma série de distorções espaciais, não possuindo portanto precisão

cartográfica quanto ao posicionamento dos objetos, superfícies ou fenômenos

nelas representados. Os tipos de distorções mais comuns são causadas pela

velocidade de rotação da Terra, instabilidade da plataforma e curvatura da

Terra.

Para que a precisão cartográfica seja introduzida em imagens de

sensoriamento remoto, faz-se necessário que essas imagens digitais sejam

corrigidas segundo algum sistema de coordenadas. A transformação de uma

imagem de modo que ela assuma as propriedades de escala e de projeção de

13

um mapa é chamada de correção geométrica. Chama-se georreferenciamento

a técnica empregada para se obter o ajuste do sistema de coordenadas de

uma imagem ao sistema equivalente de uma outra base cartográfica, que pode

ser uma carta ou uma outra imagem.

Segundo Richards (1986) existem duas técnicas para corrigir os vários

tipos de distorção geométrica em uma imagem digital: a primeira consiste em

uma transformação baseada no modelo de geometria orbital e o segundo

consiste na transformação baseada em pontos de controle (PC) do terreno. Na

prática, essas duas formas de correção devem ser aplicadas de forma

complementar, sendo a primeira aplicada para suavizar as distorções e a

segunda para refinar e ainda referenciar a imagem a algum sistema de

coordenadas de terreno.

A técnica baseada em pontos de controle consiste em se estabelecer

relações matemáticas entre as posições dos pixels numa imagem e suas

coordenadas correspondentes no terreno, de acordo com um sistema de

coordenadas. Segundo Mather (1999) a correção de imagens utilizando pontos

de controle implica no uso de polinômios de mapeamento; assim, são definidos

dois sistemas de coordenadas cartesianas;

(x,y) → pontos no terreno

(u,v) → pontos na imagem

e um par de funções que relacionem esses dois sistemas;

u = f(x,y)

v = g(x,y)

As funções f e g são polinômios de 1o grau (eq. 2.1) 2o grau (eq. 2.2) ou

3o grau (eq. 2.3).

++=

++=

ybxbbv

yaxaau

210

210 eq. 2.1

+++++=

+++++=2

52

43210

25

243210

ybxbxybybxbbv

yaxaxyayaxaau eq. 2.2

+++++++++=

+++++++++=3

93

82

72

62

52

43210

39

38

27

26

25

243210

ybxbxybyxbybxbxybybxbbv

yaxaxyayxayaxaxyayaxaau eq. 2.3

14

Polinômios de grau maior que três não costumam ser usados pois um

aumento no grau do polinômio implica numa melhora da acurácia apenas na

vizinhança dos PC, degradando a exatidão posicional do resto da imagem.

Segundo Crósta (1993) os PC devem ser feições bem definidas,

geralmente com grande contraste espectral em relação aos arredores da

imagem e facilmente reconhecíveis. Os pontos de controle utilizados no

presente trabalho foram retirados da base cartográfica do Rio de Janeiro na

escala 1:2000 fornecida pelo Instituto Pereira Passos – IPP/Rio de Janeiro-RJ.

A solução das equações descritas acima é realizada através do

ajustamento das observações pelo Método dos Mínimos Quadrados. Segundo

Gemael (1994) é necessária uma superabundância de observações para se

realizar o ajustamento. Assim, sendo n o número de observações e u o número

de parâmetros, é necessário que se tenha n> u.

O software que irá realizar os cálculos dos parâmetros da transformação

deve fornecer os resíduos para cada PC, de forma que o usuário possa avaliar

os erros decorrentes da transformação.

Segundo Crósta (1993), o processo de correção das distorções de uma

imagem através de PC resulta na produção de uma nova imagem. Os pixels

dessa nova imagem, por força do processo de correção, não correspondem

espacialmente aos pixels da imagem original, desta forma é necessário que se

determine o novo valor do nível de cinza (NC) de cada pixel na imagem

reamostrada.

Os novos valores de NC são determinados por métodos de interpolação,

sendo que os métodos mais comuns são: Vizinho mais Próximo, Interpolação

Bilinear e Convolução Cúbica. A escolha de qual dos métodos deve ser usado

depende basicamente de dois fatores: qual será o uso dado à imagem e quais

os recursos computacionais disponíveis, visto que o custo computacional de

processamento de algumas técnicas é elevado.

Segundo Brito (2002), tabela 2.1, a comparação entre os algoritmos de

interpolação apresenta vantagens e desvantagens que devem ser analisadas

no momento da escolha do método.

Após os cálculos dos coeficientes dos polinômios de mapeamento e da

reamostragem, a imagem, agora georreferenciada, está pronta para ser usada.

Todavia, é interessante que antes disso, seja feita uma análise da qualidade do

15

georreferenciamento utilizando pontos de teste (PT). Com os polinômios de

mapeamento, obtêm-se as coordenadas dos PT medidos na imagem para

compará-los com o seu valor real no terreno. A análise dos resíduos dos PT

dará uma idéia não tendenciosa da precisão do georreferenciamento e,

conseqüentemente, dos limites de escalas para a utilização da imagem em

projetos de Engenharia Cartográfica. Cabe ressaltar que alguns tipos de

programas computacionais não separam os pontos usados para o

georreferenciamento e só fo rnecem um grupo de pontos. O sistema SPRING

cria automaticamente dois grupos: o de PC e o de PT, cabendo ao usuário

decidir quais pontos pertencerão a cada um dos grupos.

Processo Vantagens Desvantagens

Vizinho mais

Próximo

- preserva os níveis de cinza

originais;

- adequado para manipulação

numérica;

- fácil implementação;

- processamento rápido.

- ocorrência de

descontinuidades

geométricas;

- imagem reamostrada

apresenta pouca estética.

Interpolação

Bilinear

- maior precisão geométrica;

- não se formam

descontinuidades.

- imagem suavizada;

- grande volume de cálculos;

- altera o valor dos níveis de

cinza da imagem original;

Convolução

Cúbica

- não se formam

descontinuidades;

- produz imagens com

aparência mais natural.

- degradação da qualidade

radiométrica da imagem;

- grande volume de cálculos.

TAB 2.1 – Comparação entre os Algoritmos / Brito (2002)

16

2.2.1.2 Eliminação de Ruído

As imagens digitais geradas por sensores remotos possuem

freqüentemente imperfeições que são inerentes ao processo de imageamento

e transmissão dos dados. Os ruídos presentes nas imagens não representam

apenas um fator visualmente desagradável, mas também podem afetar

algumas técnicas de processamento digital de imagens. As técnicas

empregadas para a remoção de ruído são variadas e dependem da origem do

mesmo. A técnica mais utilizada consiste na aplicação de filtros de convolução.

2.2.1.2.1 Filtragem

Segundo Crósta (1993), a enorme mistura de freqüências em uma

imagem dificulta a interpretação de feições com freqüências específicas. Para

contornar esse problema e melhorar a aparência da distribuição espacial das

informações, são usadas técnicas de filtragem. No contexto deste projeto, são

analisados os filtros de convolução, os filtros de textura e os filtros adaptativos.

A) Filtros de Convolução: são analisados dois tipos básicos de filtros de

convolução, filtro passa baixas e filtro da mediana.

- Filtro Passa Baixas: a maior utilização do filtro passa baixas é a remoção de

ruídos, comuns em imagens de satélite. O filtro passa-baixas preserva as

baixas freqüências na imagem, provocando um efeito de suavização

(smoothing). Outra característica desse filtro é que o efeito de suavização

aumenta proporcionalmente à dimensão da máscara usada. Apresenta como

principal desvantagem, perda de informação.

- Filtro da Mediana: neste tipo de filtro o pixel central da máscara é substituído

pelo valor mediano dos seus vizinhos. Apresenta como principal vantagem a

homogeneização da imagem.

B) Filtros de Textura: várias imagens contêm regiões que são caracterizadas

por variações de luminosidade. O filtro de textura interpreta as variações

espaciais de tons da imagens como uma função de escala. Ao contrário das

características espectrais que descrevem as variações de tonalidade de um

17

objeto, a textura contém informações sobre a distribuição espacial dessas

variações de tonalidade. São analisados dois tipos básicos de filtros de textura,

filtro Occurrence Measures e filtro Co- Occurrence Measures.

- Filtro Occurrence Measures: os filtros de ocorrência usam o número de

ocorrências de cada nível de cinza dentro da janela de processamento para o

cálculo da textura.

- Filtro Co-Occurrence Measures: o filtro Co-Occurrence é usado para aplicar

automaticamente diferentes tipos de filtros de textura baseado na matriz de co-

ocorrência. O filtro de co-ocorrência usa os tons de cinza em função da matriz

de cálculo dos valores de textura. Esta matriz é a matriz das freqüências

relativa dos valores dos pixels que ocorrem nas vizinhanças da janela de

processamento.

C) Filtros Adaptativos: são analisados dois tipos básicos de filtros de

convolução, filtro Lee e filtro Sigma Local, ambos recomendados para a

eliminação de ruído em imagens de radar. Porém, considerou-se de interesse

testar seu desempenho ao ser aplicado na imagem CCD/CBERS.

2.2.2 Extração de Feições

2.2.2.1 Operações Aritméticas

Operações aritméticas são operações pixel a pixel entre imagens de

bandas diferentes, através de uma regra matemática definida, tendo como

resultado uma banda representante da combinação das bandas originais. As

operações mais comuns são a soma, subtração, divisão (ou razão entre

bandas) e a multiplicação de uma banda por uma constante (realce linear).

Estas operações podem requerer um fator de ganho (multiplicativo) ou

off-set (aditivo), para melhorar a qualidade de contraste da imagem. Os fatores

devem ser definidos considerando a faixa de valores de entrada e a operação a

executar. Em geral, as operações de adição e multiplicação são utilizadas para

18

realçar similaridade entre bandas ou diferentes imagens e a subtração e a

divisão, para realçar as diferenças espectrais.

2.2.2.1.1 Razão de Bandas Simples

A razão de bandas simples é utilizada para realçar as diferenças

espectrais de um par de bandas, caracterizando determinadas feições da curva

de assinatura espectral de alguns alvos.

Pode apresentar resultados incorretos devido a:

- Bandas que apresentam ruídos, pois estes serão realçados.

- Presença do espalhamento atmosférico seletivo em relação às bandas

espectrais, gerando valores de nível de cinza que não representam a diferença

de reflectância entre os alvos.

- Presença de objetos distintos nas bandas originais com características

espectrais semelhantes, porém de diferentes intensidades. Na imagem

resultante, estes objetos não serão distintos.

A seguir, alguns exemplos de aplicação:

- Remover efeitos de ganho provenientes de variações espaciais ou temporais,

quando ocorrem em bandas de uma mesma imagem;

- Diminuir variações de radiância da imagem, provenientes de efeito de

topografia, declividade e aspecto;

- Aumentar diferenças de radiância entre solo e vegetação.

- Para aumentar o contraste entre solo e vegetação, utilizando a razão entre as

bandas referentes ao vermelho e infravermelho próximo. Esta operação

obedece a equação: RB = B4/B3, onde B3 é a banda do vermelho e B4 é a

banda do infravermelho nas imagens CCD do CBERS.

2.2.2.1.2 NDVI - Normalised Difference Vegetation Index

O índice de vegetação de diferença normalizada (NDVI) possui a

característica de aumentar o contraste espectral entre a vegetação e o solo,

tendo os efeitos de iluminação e declividade da superfície compensados pelo

19

índice. Esta operação obedece a equação: NDVI = (B3-B4)/(B3+B4), onde B3 é

a banda do vermelho e B4 é a banda do infravermelho.

2.2.2.2 Classificação Digital de Imagens

Define-se classificação de imagens como sendo o processo de extração

de informação em imagens para reconhecer padrões e objetos homogêneos.

Desse modo, a classificação pode ser considerada como uma função que

associa a cada pixel da imagem uma determinada classe temática.

Os classificadores, por sua vez, são algoritmos que têm por objetivo a

implementação de uma determinada função de classificação, associando a

cada pixel da imagem uma classe de uma cena.

Os classificadores podem ser divididos da seguinte forma:

a) quanto à forma de treinamento: classificadores supervisionados e não-

supervisionados;

b) quanto ao processo de classificação: classificadores por região e

classificadores pixel a pixel.

Na classificação supervisionada existem regiões da imagem em que o

usuário dispõe de informações que permitem a identificação de uma classe de

interesse. Para um treinamento supervisionado o usuário deve identificar na

imagem uma área representativa de cada classe. É importante que a área de

treinamento seja uma amostra homogênea da classe respectiva, mas ao

mesmo tempo deve-se incluir toda a variabilidade dos níveis de cinza do tema

em questão.

Quando o usuário utiliza algoritmos para reconhecer as classes

presentes na imagem, o treinamento é dito não-supervisionado. Ao definir

áreas para o treinamento não-supervisionado, o usuário não deve se preocupar

com a homogeneidade das classes. As áreas escolhidas devem ser

heterogêneas para assegurar que todas as possíveis classes e suas

variabilidades sejam incluídas.

Os classificadores por região utilizam, além de informação espectral de

cada pixel, a informação espacial que envolve a relação entre os pixel e seus

vizinhos. Estes classificadores procuram simular o comportamento de um foto-

20

intérprete, ao reconhecer áreas homogêneas de imagens, baseados nas

propriedades espectrais e espaciais de imagens. A informação de borda pode

ser utilizada inicialmente para separar as regiões e as propriedades espaciais e

espectrais que irão unir áreas com mesma textura.

Os classificadores pixel a pixel utilizam apenas a informação espectral,

isoladamente, de cada pixel para achar regiões homogêneas. Estes

classificadores podem ser ainda separados em métodos estatísticos (que

utilizam regras da teoria de probabilidade) e determinísticos (que não o fazem).

Existe ainda um tipo mais simples de classificação, conhecido por

fatiamento de densidades, que não se encaixa em nenhuma categoria de

classificação mencionada acima.

2.2.2.2.1 Fatiamento de Densidades

Segundo Crósta (1993), o fatiamento de densidades (fatiamento de

níveis de intensidade) representa a forma mais simples de classificação e é

aplicado a uma única banda espectral de cada vez. Este método corresponde

na verdade a uma forma de aumento de contraste, uma vez que realça os

pixels cujas intensidades se situem dentro de um intervalo especificado (fatia)

de níveis de cinza. O fatiamento é geralmente feito de forma interativa, na qual

o usuário pode definir a largura da fatia para que as feições de interesse sejam

realçadas.

2.2.2.2.2 Classificação Supervisionada

Segundo Richards (1986), o princípio de classificação supervisionada é

baseado no uso de algoritmos para se determinar os pixels que representam

valores de reflexão característicos para uma determinada classe. O método

supervisionado se inicia a partir de um certo conhecimento da área de estudo,

adquirido por experiências anteriores ou por trabalhos de campo. Este método

envolve três passos básicos;

21

a) Treinamento: onde são identificadas as áreas de treinamento e onde há

uma descrição dos atributos espectrais de cada tipo de cobertura de

interesse na cena.

b) Classificação: o pixel é classificado em função de suas características,

se assemelhando ou não a alguma classe, caso contrario, ele é dito

desconhecido.

c) Resultado: podem ser analisados de diferentes maneiras. São formas

típicas de produtos: os mapas temáticos, as tabelas com dados

estatísticos para varias classes de cobertura de solo e os dados para

posterior utilização em geoprocessamento.

Segundo Crósta (1993), a área da imagem na qual o usuário identifica

como representante de uma classe é chamada área de treinamento. Uma área

de treinamento é definida traçando-se seus limites diretamente sobre a

imagem. Várias áreas de treinamento podem ser definidas para cada classe,

para assegurar que os pixels a ela pertencentes são realmente representativos

desta classe. Define-se conjunto de treinamento todos os pixels dentro de uma

área de treinamento para cada uma das classes.

Existem alguns métodos estatísticos usados para classificação dos

pixels da imagem, sendo eles: Método do Paralelepípedo, Método da Mínima

Distância e método da Máxima Verossimilhança.

A) Método da Máxima Verossimilhança: a classificação Maxver é a

classificação supervisionada mais aplicada no tratamento de dados de

satélites. O método é baseado no princípio de que a classificação errada de um

pixel particular não tem mais significado do que a classificação errada de

qualquer outro pixel na imagem. O usuário determina a significância nos erros

de atributos especificados para uma classe em comparação a outras. Por

exemplo, tendo-se duas subclasses da classe trigo, seria mais aceitável

classificar um pixel particular na subclasse milho para a subclasse cevada do

que para a classe água.

O método estatístico da máxima verossimilhança é o mais popular

devido principalmente a sua performance, sendo, por esta razão, que muitas

das novas técnicas de classificação são comparadas com este método. O

resultado do Maxver é melhor quanto maior o número de pixels numa amostra

22

de treinamento para implementá-los na matriz de covariância. Se o tamanho

das amostras de treinamento para as classes é limitado, recomenda-se um

método de classificação mais simples e rápido, que não use uma matriz de

covariância. Para que a classificação por máxima verossimilhança seja precisa

o suficiente, é necessário um número razoavelmente elevado de pixels para

cada conjunto de treinamento. Isto resultará em uma precisão razoável da

estimativa do vetor médio e da matriz de covariância de todas as classes

espectrais.

Os conjuntos de treinamento definem o diagrama de dispersão das

classes e suas distribuições de probabilidade, considerando a distribuição de

probabilidade normal para cada classe do treinamento. Crósta (1993) considera

que o método Maxver deve ser aplicado quando o analista conhece bem a

imagem a ser classificada, para que possa definir classes que sejam

representativas.

2.2.2.3 Distância de Jeffries-Matusita (JM distance)

A distância de Jeffries-Matusita é um método muito usado em

sensoriamento remoto para a obtenção da separabilidade dos pares de classes

usadas na classificação supervisionada. Os valores de JM podem variar de

zero a dois, sendo que zero representa pares de classes com grande

correlação e dois representa pares de classes não correlacionadas. No

contexto deste trabalho, define-se como critério aceitável para a utilização das

classes na classificação supervisionada, valores de JM acima de 1,5.

2.2.2.4 Pós-Classificação Digital de Imagens

O controle dos resultados de classificação é um dos passos mais

importantes para se chegar a um resultado bem homogêneo, mas também,

para controlar a qualidade das diferentes classificações aplicadas. Um dos

métodos mais usados na avaliação da classificação é através da análise da

Matriz de Confusão ou de Erros e do Coeficiente Kappa.

23

2.2.2.4.1 Matriz de Confusão ou de Erros

A Matriz de Confusão ou de Erros é usada para avaliar o resultado de

uma classificação, para isso, ela compara os dados da verdade de campo com

os da classificação, agrupando-os como mostrado na tabela 2.2.

Matriz de Confusão

Classes A B C

A 35 2 2

B 10 37 3

C 5 1 41

Total 50 40 46

Omissão (%) 30,0 7,5 10,9 Tabela 2.2 – Matriz de Confusão

Os componentes da diagonal principal da matriz de confusão fornecem o

número de pixels corretamente classificados para cada classe correspondente.

Por exemplo, para a classe B, foram corretamente classificados 37 pixels, no

entanto, constatou-se que nessa mesma classe, foram classificados 10 pixels

como pertencentes a classe A, bem como outros 3 pixels que na realidade são

da classe C. Portanto, para os 50 pixels da classe B, 37 (74,0%) foram bem

classificados, enquanto o restante foram mal classificados. Este erro de

classificação é denominado erro de inclusão, pois se está incluindo pixels em

uma classe quando na verdade eles pertencem a outra(s). Analisando agora do

ponto de vista da verdade de campo, a classe C, por exemplo, tem 41 pixels

bem classificados. Porém há 2 pixels seus que são classificados como A e

outros 3 que são classificados como sendo da classe B. Este erro é o erro de

omissão, pois nos dois casos está-se a omitir pixels da classe correta

atribuindo-os a outra(s) classe(s).

Um subproduto da matriz de confusão, que auxilia na avaliação do

classificador é o coeficiente kappa(k). Uma das vantagens assumidas para o

uso do kappa é de que ele incorpora a informação dos pixels mal classificados,

e não apenas dos bem classificados.

24

2.2.2.4.2 Coeficiente Kappa

O coeficiente kappa ou coeficiente de concordância é obtido através da

seguinte expressão:

K = N Σ xii - Σ xi+ x+1 / N2 - Σ xi+ x+i (eq. 2.4)

Onde:

N - é o número total de amostras (ou observações);

xi+ - é a soma dos valores da linha i;

x+i - é a soma dos valores da coluna i;

xii - é o número de observações dos elementos da diagonal da matriz.

O coeficiente kappa mostra o desempenho da classificação, conforme a

tabela 2.3 .

KAPPA Desempenho da Classificação

< 0 Péssimo

0 < k < 0,2 Mau

0,2 < k < 0,4 Razoável

0,4 < k < 0,6 Bom

0,6 < k < 0,8 Muito Bom

0,8 < k < 1,0 Excelente Tabela 2.3 – Desempenho da Classificação / Landis (1977)

25

3. METODOLOGIA

3.1 Materiais Empregados

3.1.1 Imagens

A imagem utilizada nesse trabalho é um produto do sensor CCD do

satélite CBERS datada de 26 de junho de 2001. O módulo selecionado para o

estudo cobre a região da Barra da Tijuca até a Vila Militar no Rio de Janeiro –

RJ.

Características:

Nome: corte_CBERS151.tif

Tamanho em pixels: 1400x1300

Tamanho em MegaBytes: 5,23 MB

Bandas: B1 = azul B2 = verde

B3 = vermelho B4 = infravermelho próximo

3.1.2 Softwares

Foram utilizados os seguintes aplicativos:

- SPRING 3.6, o produto Spring é constituído de três módulos, sendo eles: o

Impima, o Spring e o Scarta. O módulo IMPIMA é utilizado para se obter uma

imagem no formato GRIB através da conversão das imagens para serem

utilizadas no Spring. O módulo SPRING é utilizado para o processamento

digital de imagens e geoprocessamento. O módulo SCARTA é utilizado para a

edição dos produtos cartográficos.

- ENVI 3.4, software importado, possui diversas aplicações em processamento

de imagens.

26

3.1.3 Hardware

Para a realização deste trabalho foi utilizado o computador do

Laboratório de Fotogrametria e Processamento Digital de Imagens do

Departamento de Engenharia Cartográfica do Instituto Militar de Engenharia,

que possui a seguinte configuração:

- Processador Intel Pentium III 1 GHz;

- 512 MB de memória RAM;

- disco rígido com capacidade para 40 GB;

- Monitor de 17’’.

3.1.4 Outros Materiais

Foram utilizados também os seguintes materiais:

- Carta topográfica da região – Vila Militar – na escala 1:50000.

- Fotos aéreas coloridas da região da Barra da Tijuca e Vila Militar – na escala

1:30000, de um levantamento de Julho de 1999.

3.2 Georreferenciamento da Imagem

3.2.1 Utilizando o ENVI 3.4

Para a execução do georreferenciamento da imagem através dos PC foi

utilizado o software ENVI (The Environment for Vizualizing Images) versão 3.4.

Segue-se, a baixo, uma seqüência de procedimentos a serem seguidos para o

georreferenciamento da imagem.

- abre-se o programa ENVI;

- na barra de ferramentas, seleciona-se File e Open Image File para que a

imagem seja aberta;

- Na janela Available Bands List (figura 3.1) são selecionadas as bandas

que irão compor o RGB – red, green e blue;

27

- Executar o comando Load RGB para que a imagem seja aberta em três

janelas distintas: RGB, Scroll e Zoom;

- Na barra de ferramentas, selecionar Register/ Select Ground Control

Points/ Image to Map (figura 3.2);

FIG 3.1 – Janela Available Bands List

28

FIG 3.2 – Janela Register

- A janela Image to Map Registration (figura 3.3) será aberta e nela serão

configurados os parâmetros do georreferenciamento da imagem:

o Sistema de projeção: UTM

o Datum: SAD/69 – Brazil

o Zona do fuso: 23

o Hemisfério: Sul

o Tamanho do pixel: 20m

29

FIG 3.3 – Janela Image to Map Registration

- Com a janela Ground Control Points Selection (figura 3.4) o aplicativo

está pronto para iniciar o georreferenciamento da imagem;

30

FIG 3.4 – Janela Ground Control Points Selection

- Para o georreferenciamento da imagem, deve-se marcar o ponto a ser

associado, indicando a feição de interesse. Insere-se a respectiva

coordenada geográfica do mesmo. Cabe lembrar que a lista com as

coordenadas geográficas de todos os pontos utilizados no

georreferenciamento foi obtida da base cartográfica do Rio de Janeiro,

na escala 1:2000.

- O programa vai inserir a marcação do referido ponto na imagem e uma

numeração referente a ordem de inserção;

- Procede-se a inserção de todos os pontos de controle;

- Procede-se a análise dos resíduos de cada ponto e do conjunto;

- Caso o resultado não seja bom, deve-se executar o refinamento na

posição dos pontos através dos comandos: Edit points (figura 3.5);

- Quando o valor do erro médio quadrático do georreferenciamento estiver

satisfatório, o arquivo com as coordenadas dos pontos deve ser salvo no

formato ASCII.

31

FIG 3.5 – Janela Ground Control Points Selection com o valor do erro médio quadrático de

0,2289

- Através dos comandos Options/ Warp File, é possível se escolher o tipo

de transformação e o grau do polinômio que fará o ajuste da imagem,

bem como o interpolador para a reamostragem (figura 3.6). Para este

caso:

Transformação = Polinomial

Grau do polinômio = 1

Reamostragem = Vizinho mais Próximo

- A transformação será salva no diretório escolhido pelo usuário.

32

FIG 3.6 – Janela Registratrion Parameters

3.2.2 Utilizando o SPRING 3.6

Para a execução do georreferenciamento da imagem através dos PC e

dos PT foi utilizado o software SPRING versão 3.6. Segue-se, a baixo, uma

seqüência de procedimentos a serem seguidos para o georreferenciamento da

imagem:

- Abre-se o aplicativo IMPIMA 3.6;

- Deve-se selecionar uma das bandas na imagem de entrada e da

imagem de saída. Através dos comandos: Arquivos/Salvar como, salvar

cada uma das bandas no formato GRIB. Proceder desta forma com

todas as bandas (figura 3.7).

33

FIG 3.7 – Janela do IMPIMA

- Abre-se o aplicativo Spring 3.6.

- Através dos comandos: Arquivos/Banco de Dados (figura 3.8), cria-se

um banco de dados que será usado para o armazenamento dos dados.

Deve-se escolher o nome do Banco de Dados e em qual diretório ele

será armazenado. Deve-se ativar o banco de dados criado.

- Através dos comandos: Arquivos/ Projeto (figura 3.9), cria-se um projeto

que será definido pelo limite geográfico da área de estudo e pela

projeção cartográfica. Para cada sistema de projeção há diferentes

modelos da Terra e parâmetros como hemisfério, latitude e longitude de

origem. Deve-se escolher o nome do projeto e em qual diretório ele será

armazenado. Deve-se ativar o projeto criado.

o Projeção : SAD/69

o Hemisfério : Sul

o Retângulo Envolvente: coordenadas planas

§ (653000.000, 7445000.000), extremidade superior

esquerda;

§ (682000.000, 7473000.000), extremidade inferior direita.

34

FIG 3.8 – Janela criar Banco de Dados

FIG 3.9 – Janela criar Projeto

35

- Através dos comandos: Exibir/Painel de Controle (figura 3.10), ativar a

Tela 5, que servirá para a visualização da imagem.

FIG 3.10 – Janela do Painel de Controle

- Executar os comandos: Arquivo/ Registro para a realização do

georreferenciamento da imagem;

- Na janela Seleção de Imagem (figura 3.11) deve-se selecionar a imagem

que será georreferenciada, selecionando as bandas para a visualização

da imagem. Na tela 5 deve-se executar os comandos: Executar/

Desenhar para que a imagem apareça na tela 5.

36

FIG 3.11 – Janela Seleção de Imagem

- Na janela Registro de Imagem (figura 3.12) deve-se ajustar os

parâmetros para o georreferenciamento da imagem.

- A aquisição dos pontos de controle pode ser feita de três modos: usando

um mapa na mesa digitalizadora (modo mesa), através de qualquer

plano de informação já georreferenciado (modo tela), ou informando as

coordenadas diretamente via teclado (modo teclado). Para o caso deste

projeto, usou-se o modo teclado.

- Para adquirir os pontos via teclado, deve-se seguir os seguintes

comandos: Teclado, nas opções Aquisição, Criar nas opções

Operações, na caixa de texto deve-se fornecer o nome do ponto que irá

ser adquirido. Na área Coordenadas de Referência deve-se digitar as

coordenadas planas nas caixas de texto.

- Um ponto representado por uma cruz verde aparece sobre a imagem, o

mesmo deve ser arrastado até a feição geográfica associada a ele.

Esses passos devem ser repetidos até que todos os pontos sejam

adquiridos.

37

FIG 3.12 – Janela Registro de Imagem

A seguir, outras operações de manipulação dos pontos de controle sobre a

imagem:

- Para se suprimir um ponto de controle, deve-se seguir os seguintes

comandos: Suprimir nas opções Operações, deve-se indicar o ponto que

se deseja eliminar da lista de Pontos de Controle para que o mesmo

seja suprimido.

- Para se mover um ponto de controle, deve-se seguir os seguintes

comandos: Mover nas opções Operações, indicar o ponto que se deseja

mover na lista de Pontos de Controle, posicionar o cursor sobre o ponto

selecionado e arrastá-lo.

- Após se inserir todos os pontos de controle, deve-se selecionar quais

deles serão usados para definir a equação de mapeamento. A janela

38

Registro de Imagem pode ser usada para definir os melhores pontos,

que são aqueles onde os erros são menores considerando-se a escolha

do grau do polinômio que será usado para registrar a imagem.

- Para selecionar os pontos do georreferenciamento deve-se seguir os

seguintes comandos: Selecionar nas opções Operações, indicar o ponto

escolhido na caixa de listagem dos Pontos de Controle.

- Deve-se ainda, indicar o grau do polinômio que será usado, para o caso

deste projeto – Polinômio de 1o Grau.

- Foram inseridos um total de 15 pontos de controle e dentre eles foram

escolhidos 8 pontos de controle (PC) do georreferenciamento, restando

7 pontos de teste (PT), obtendo-se os seguintes erros:

o Erro dos Pontos de Teste: 0,675 pixels

o Erro dos Pontos de Controle: 0,453 pixels

- Após a escolha dos pontos de controle e da análise dos erros dos

pontos de teste e de controle, deve-se importar a imagem

georreferenciada no formato GRIB para o projeto definido anteriormente.

Para essa etapa deve-se seguir os seguintes passos: Arquivo/ Importar

Arquivos GRIB (figura 3.13) e a janela Importar Imagens será

apresentada.

- Selecionar o diretório que contém as imagens que serão importadas e

indicar o arquivo GRIB na lista Arquivos, que a lista Imagens é

atualizada a cada arquivo selecionado.

- Indica-se uma imagem na caixa de listagem Imagens. Na opção

Categoria, será aberta a janela Lista de Categorias (figura 3.14) onde

será ajustada a categoria a qual pertencerá a imagem a ser importada.

- Cada banda importada definirá um plano de informação que será criado

no momento da importação das mesmas, através dos comandos: Editar/

Plano de Informação.

- As categorias que serão apresentadas na janela Lista de Categorias

deverão ser definidas previamente através dos comandos: Arquivos/

Modelos de Dados (figura 3.15).

- Desta forma, a imagem georreferenciada está contida dentro do projeto

definido para este fim.

39

FIG 3.13 – Janela Importar Arquivos Grib

FIG 3.14 – Janela Lista de Categorias

40

FIG 3.15 – Janela Modelo de Dados

3.3 Processamento Digital das Imagens

3.3.1 Eliminação de Ruídos

No processo de geração e transmissão dos dados, alguns ruídos são

inseridos nas imagens. Geralmente, os pixels com ruído aparecem com níveis

de cinza bem diferentes da sua vizinhança, estes pontos com ruídos podem

aparecer distribuídos aleatoriamente ou de forma sistemática. As causas

podem ser falhas nos detetores ou limitações do sistema e letrônico.

Para a eliminação do ruído presente na imagem foram aplicadas várias

técnicas de processamento digital de imagens disponíveis no software ENVI

41

3.4. Neste software estão disponíveis algoritmos dos seguintes tipos de filtros:

filtros de convolução, filtros morfológicos, filtros de textura e filtros adaptativos.

3.3.1.1 Filtros de Convolução

Os filtros de convolução estão divididos em: passa altas, passa baixas,

laplaciano, direcional, gaussiano, mediano, de Sobel, de Roberts e filtros

definidos pelo usuário (figura 3.16). Destes filtros, foram testados os filtros

passa baixas e da mediana, sendo que ambos apresentaram alguma melhora

na eliminação do ruído.

FIG 3.16 – ENVI 3.4 – Filtros de Convolução

a) Filtro Passa Baixas

- A primeira fase da transformação corresponde à escolha da imagem

que será usada, a escolha foi feita através dos comandos: File/ Open

Image File.

- Para a aplicação do algoritmo do filtro passa baixas seguiu-se os

seguintes comandos: Filters/ Convolutions/ Low Pass.

42

- Na janela Convolution Input File (figura 3.17) deve-se selecionar o

arquivo que será transformado, bem como suas bandas.

FIG 3.17 – Janela Convolution Input File

FIG 3.18 – Janela Convolution Parameters

- Na janela Convolution Parameters (figura 3.18) são ajustados os

parâmetros da transformação que será realizada.

- Size = 3x3

43

- Image Add Back Value = 0,0

- A imagem transformada apresenta as feições suavizadas, os pixels

ruidosos apresentam-se menos intensificados e a apresentação da

imagem melhora como um todo (figura 3.19).

FIG 3.19 – Filtro Passa Baixas: comparação entre a imagem original (esquerda) e a imagem

filtrada (direita)

- Mudando-se os parâmetros da janela Convolution Parameters (figura

3.18), obteve-se uma imagem com características distintas da imagem

anterior (figura 3.19).

- Size = 3x3

- Image Add Back Value = 0,50

- A imagem transformada apresenta as feições ainda mais suavizadas,

os pixels ruidosos quase não aparecem, todavia, a imagem perde a

definição das feições (figura 3.20)

44

FIG 3.20 – Filtro Passa Baixas: comparação entre a imagem original (esquerda) e a imagem

filtrada (direita)

b) Filtro da Mediana

- Para a aplicação do algoritmo do filtro da mediana foram seguidos os

seguintes comandos: Filters/ Convolutions/ Median.

- Na janela Convolution Input File (figura 3.21) deve-se selecionar o

arquivo que será transformado, bem como suas bandas.

- Na janela Convolution Parameters (figura 3.22) são ajustados os

parâmetros da transformação que será realizada.

- Size = 5x5

- Image Add Back Value = 0,0

- A imagem transformada apresenta as feições bem suavizadas,

existindo uma perda de informações nas feições. Os pixels ruidosos

tornam-se praticamente inexistentes (figura 3.23).

45

FIG 3.21 – Janela Convolution Input File

FIG 3.22 – Janela Convolution Parameters

46

FIG 3.23 – Filtro da Mediana: comparação entre a imagem original (esquerda) e a imagem

filtrada (direita)

3.3.1.2 Filtros Morfológicos

Os filtros morfológicos estão divididos em: de dilatação, de erosão, de

abertura e de fechamento. Destes, foram aplicados os de dilatação e de erosão

que não apresentaram bons resultados.

3.3.1.3 Filtros de Textura

Os filtros de textura estão divididos em: Occurrence Measures e Co-

Occurrence Measures. Esses dois tipos de filtros foram testados e

apresentaram bons resultados na eliminação do ruído da imagem (figura 3.24).

47

FIG 3.24 – ENVI 3.4 – Filtros de Textura

a) Occurrence Measures

- A primeira fase da transformação corresponde a escolha da imagem

que será usada, a escolha será feita através dos comandos: File/ Open

Image File.

- Para a aplicação do algoritmo do filtro Occurrence Measures foram

seguidos os seguintes comandos: Filters/ Texture/ Occurrence

Measures.

- Na janela Texture Input File (figura 3. 25) deve-se selecionar o arquivo

que será transformado, bem como suas bandas.

- Na janela Occurrence Texture Parameters (figura 3. 26) são ajustados

os parâmetros da transformação que será realizada.

- Textures to Compute = Mean

- Processing Window = 3x3

- A transformação apresentou bons resultados. Com uma melhora

significativa da imagem como um todo (figura 3. 27).

48

FIG 3.25 – Janela Texture Input File

FIG 3.26– Janela Occurrence Texture Parameters

49

FIG 3.27 – Filtro Occurrence Measures : comparação entre a imagem original (esquerda) e a

imagem filtrada (direita)

b) Co-occurrence Measures

- Para a aplicação do algoritmo do filtro Co-occurrence Measures foram

seguidos os seguintes comandos: Filters/ Texture/ Co-occurrence

Measures.

- Na janela Texture Input File (figura 3.28) deve-se selecionar o arquivo

que será transformado, bem como suas bandas.

50

FIG 3.28– Janela Texture Input File

- Na janela Co-occurrence Texture Parameters (figura 3.29) são

ajustados os parâmetros da transformação que será realizada.

- Textures to Compute = Mean

- Processing Window = 3x3

- Co-occurrence Shift = 1x1

- A transformação apresentou bons resultados, com uma melhora no

contraste das feições (figura 3.30).

51

FIG 3.29– Janela Co-occurrence Texture Parameters

FIG 3.30 – Filtro Co-occurrence Measures : comparação entre a imagem original (esquerda) e a

imagem filtrada (direita)

- Mudando-se os parâmetros da janela Co-occurrence Texture

Parameters (figura 3.29), obteve-se uma segunda imagem (figura 3.31)

com características diferentes da imagem anterior (figura 3.30).

52

- Textures to Compute = Mean

- Processing Window = 3x3

- Co-occurrence Shift = 2x2

- A transformação apresentou resultado bem satisfatório, eliminando

grande parte do ruído existente na imagem.

FIG 3.31 – Filtro Co-occurrence Measures : comparação entre a imagem original (esquerda) e a

imagem filtrada (direita)

3.3.1.4 Filtros Adaptativos

Os filtros adaptativos estão divididos em: Lee, Frost, Gamma, Kuan e

Local Sigma. Destes, foram testados o Lee, Frost, Gamma, e Local Sigma,

sendo que apenas o Lee e o Local Sigma apresentaram bons resultados (figura

3.32).

53

FIG 3.32 – ENVI 3.4 – Filtros Adaptativos

a) Lee

- Para a aplicação do algoritmo do filtro Lee foram seguidos os seguintes

comandos: Filters/ Adaptive/ Lee;

- Na janela Lee Filter Input File (figura 3.33) deve-se selecionar o arquivo

que será transformado, bem como suas bandas.

- Na janela Lee Filter Parameters (figura 3.34) são ajustados os

parâmetros da transformação que será realizada.

- Filter Size: 3x3

- Noise Model = Multiplicate

- Additive Noise Mean = 0

- Multiplicate Noise Mean = 1

- Noise Variance = 0,25

- A transformação apresentou poucas melhoras significativas quanto à

diminuição do ruído (figura 3.35).

54

FIG 3.33– Janela Lee Filter Input File

FIG 3.34– Janela Lee Filter Parameters

55

FIG 3.35 – Filtro Lee: comparação entre a imagem original (esquerda) e a imagem filtrada

(direita)

b) Local Sigma

- Para a aplicação do algoritmo do filtro Local Sigma foram seguidos os

seguintes comandos: Filters/ Adaptive/ Local Sigma;

- Na janela Localized Sigma Filter Input File (figura 3.36) deve-se

selecionar o arquivo que será transfo rmado, bem como suas bandas.

- Na janela Localized Sigma Filter Parameters (figura 3.37) são

ajustados os parâmetros da transformação que será realizada.

- Filter Size: 3x3

- Sigma Factor = 1

- A transformação não apresentou melhoras muito significativas (figura

3.38).

56

FIG 3.36– Janela Localized Sigma Filter Input File

FIG 3.37– Janela Localized Sigma Filter Parameters

57

FIG 3.38 – Filtro Local Sigma: comparação entre a imagem original (esquerda) e a imagem

filtrada (direita)

- Mudando-se os parâmetros da janela Localized Sigma Filter

Parameters (figura 3.37) uma nova imagem é gerada.

- Filter Size: 3x3

- Sigma Factor = 2

- A transformação apresenta apenas algumas poucas melhoras (figura

3.39).

FIG 3.39 – Filtro Local Sigma: comparação entre a imagem original (esquerda) e a imagem

filtrada (direita)

58

3.4 Extração de Feições

A seguir serão apresentados os procedimentos para a extração digital de

feições (corpos d’água e vegetação) com as ferramentas existentes no ENVI

3.4.

3.4.1 Extração de Corpos D’Água

Para a extração digital dos corpos d’água existentes na imagem através

da aplicação da operação de fatiamento de densidades, deve-se seguir os

seguintes procedimentos:

- Abre-se a banda do infravermelho (B4) da imagem proveniente da

transformação de Co-occurrence Texture através dos comandos: File/

Open Image File.

- Em seguida, na janela #1, seguir os comandos: Functions/ Color

Mapping/ Density Slice;

FIG 3.40– Janela #1 Density Slice

59

- Na janela #1 Density Slice (figura 3.40), ajusta-se os parâmetros para o

fatiamento da imagem. Através da opção Edit Range deve-se definir os

intervalos de fatiamento (figura 3.41), para unificar classes até ficarem

apenas duas: água e não água.

- Yellow = [1,51]

- Magenta = [52,103]

FIG 3.41– Janela #2 – Fatiamento da Imagem

- Os Ranges devem ser salvos através dos comandos: File/ Save

Ranges;

- A imagem fatiada deve ser salva através dos comandos: #1 Functions/

Out Put Display/ Image File;

- A imagem salva na etapa acima deve ser aberta no ENVI 3.4;

- Através dos comandos: Utilities/ Vector Utilities/ Raster to Vector

Conversion, faz-se a conversão da imagem para um arquivo vetorial;

- Na janela Raster To Vector Parameters (figura 3.42) deve-se ajustar os

parâmetros da conversão;

- Contour Value = 255

- O produto obtido é um arquivo vetorial com os limites dos lagos

extraídos da imagem.

60

FIG 3.42– Janela Raster To Vector Parameters

3.4.2 Realce da Vegetação

Para o realce digital da vegetação através da ferramenta NDVI, deve-se

seguir os seguintes comandos:

- Abre-se a imagem proveniente da transformação de Co-occurrence

Texture através dos comandos: File/ Open Image File;

- Em seguida, deve-se seguir os comandos: Transforms/ NDVI

(Vegetation Index);

- Na janela NDVI Calculation Input File (figura 3.43), seleciona-se a

imagem que foi utilizada.

61

FIG 3.43– Janela NDVI Calculation Input File

- Na janela NDVI Calculation Parameters (figura 3.44), ajusta-se os

parâmetros utilizados.

- Input File Type = Landsat TM

- NDVI Bands: Red= 3

Near IR = 4

62

FIG 3.44– Janela NDVI Calculation Parameters

Para a extração digital da vegetação através da razão de bandas

simples, deve-se seguir os seguintes comandos:

- Abre-se a imagem proveniente da transformação de Co-occurrence

Texture através dos comandos: File/ Open Image File;

- Executar os comandos: Transforms/ Band Ratio;

- Na janela Band Ratio Entry (figura 3.45) devem ser selecionados o

numerador (banda 4) e o denominador (banda 3) da razão de bandas.

- Na janela Band Ratio Parameters (figura 3.46), deve-se ajustar os

parâmetros da transformação da razão de bandas.

63

FIG 3.45– Janela Band Ratio Entry

FIG 3.46– Janela Band Ratio Parameters

64

3.5 Classificação Digital das Imagens

A ferramenta usada para a classificação da imagem foi a

classificação supervisionada com o método da máxima verossimilhança. Para

esta etapa do trabalho, foram seguidos os seguintes passos:

- Abre-se a imagem proveniente da transformação de Co-occurrence

Texture através dos comandos: File/ Open Image File;

- Em seguida, deve-se seguir os comandos: Basic Tools/ Region of

Interest/ Define Region of Interest.

- Na janela Region of Interest Controls (figura 3.47) deve-se, através da

opção Edit selecionar e nomear uma classe.

- Deve-se selecionar várias amostras na imagem para cada uma das

cinco classes definidas:

- Vegetação;

- Área Urbana;

- Oceano;

- Lagoas;

- Campos.

- As amostras representativas de cada uma das classes são

selecionadas com base na pesquisa feita nas fotografias aéreas da

região, na escala 1:30000.

- O arquivo com as amostras das classes deve ser salvo no formato .roi,

através dos comandos: File/ Save ROIs.

65

FIG 3.47– Janela Region of Interest Controls

- Através dos comandos: Basic Tools/ ROI Separability deve-se calcular

a distancia JM para as classes definidas acima.

- Executar os comandos: Classification/ Supervised/ Maximum

Likelihood.

- Na janela Maximum Likelihood Parameters, deve-se selecionar as

cinco classes e escolher um nome para o arquivo que será gerado

(figura 3.48).

66

FIG 3.48– Janela Maximum Likelihood Parameters

- Em seguida, deve-se seguir os comandos: Basic Tools/ Region of

Interest/ Define Region of Interest para que sejam definidas amostras de

testes das cinco classes definidas anteriormente.

- Deve-se selecionar várias amostras na imagem para cada uma das

cinco classes definidas como classes de teste

- Vegetação*;

- Área Urbana*;

- Oceano*;

- Lagoas*;

- Campos*.

- O arquivo com as amostras de teste das classes deve ser salvo no

formato .roi, através dos comandos: File/ Save ROIs.

- Deve-se abrir o arquivo .roi com as amostras de teste.

- Executar os comandos: Classification/ Post Classification/ Confusion

Matrix/ Using Ground Truth ROIs.

- Na janela Math Classes Parameters (figura 3.49), deve-se selecionar

os pares de classes que serão comparados.

67

FIG 3.49– Janela Math Classe Parameters

- Com os resultados obtidos na matriz de confusão, deve-se gerar uma

planilha no Excel/ Microsoft, para o calculo do coeficiente kappa.

68

4. RESULTADOS PARCIAIS

4.1 Georreferenciamento da Imagem

Os resultados relativos a esta etapa do trabalho são referentes à análise

do georreferenciamento da imagem através do estudo dos resíduos dos pontos

de controle e dos pontos de teste.

4.1.1 Georreferenciamento – ENVI 3.4

A correção geométrica realizada no software ENVI 3.4 através dos PC

foi realizada com êxito, uma vez que os erro médio quadrático está dentro do

limite aceitável pela bibliografia. O erro médio quadrático desta etapa foi de

0.2289 pixels com a utilização de 15 pontos de controle.

Mapa Imagem Erro Pts

X(m) Y(m) X(col) Y(lin) X(pixel) Y(pixel)

EMQ

(pixel)

1 673283.20 7454081.06 5408.75 4551.00 0.01 0.25 0.25

2 658141.41 7452946.18 4653.50 4570.25 0.08 -0.16 0.18

3 667570.05 7458796.94 5127.75 4299.75 0.21 -0.29 0.36

4 662146.89 7457011.39 4856.50 4376.00 0.00 -0.34 0.34

5 654364.87 7453045.63 4465.50 4555.25 0.03 0.29 0.29

6 674348.16 7467077.16 5471.75 3899.75 -0.12 -0.12 0.17

7 678022.34 7464049.98 5652.00 4061.25 0.12 -0.01 0.12

8 665365.55 7468749.29 5026.25 3793.00 0.05 0.04 0.07

9 661619.30 7468949.23 4840.25 3773.75 -0.03 -0.11 0.11

10 655369.87 7467907.93 4528.50 3810.50 0.11 -0.06 0.12

11 665860.82 7455525.14 5040.50 4460.00 -0.28 -0.18 0.33

12 669745.63 7461808.00 5238.50 4153.25 0.12 0.12 0.17

13 659307.61 7460592.29 4718.25 4188.25 -0.07 0.09 0.12

14 663157.86 7464884.86 4913.50 3981.75 -0.15 0.25 0.30

15 667657.91 7462988.39 5135.75 4088.50 -0.08 0.22 0.23

TAB 4.1 – Análise do Georreferenciament o – ENVI 3.4

69

4.1.2 Georreferenciamento – SPRING 3.6

A correção geométrica realizada no software SPRING 3.6 através dos

PC e dos PT foi realizada com os mesmos pontos utilizados no ENVI 3.4.

Foram utilizados sete pontos como pontos de teste e oito pontos como pontos

de controle. O erro dos pontos de controle foi de 0,453 pixels enquanto que o

erro dos pontos de teste foi de 0,675 pixels, sendo este último o indicador do

erro do georreferenciamento.

Erro Pts

X(pixel) Y(pixel) EMQ (pixel)

2 0,570 -0,038 0,571

5 -0.906 0,033 0,907

6 0,000 0,062 0,062

7 -0,465 0,008 0,465

10 0,029 0,018 0,034

11 0,433 0,059 0,437

14 0,156 0,021 0,157

15 0,184 -0,237 0,300

TAB 4.2– Análise do Georreferenciamento (PC) – SPRING 3.6

Erro Pts

X(pixel) Y(pixel) EMQ (pixel)

1 0,581 -0,236 0,627

3 0,046 -0,043 0,063

4 -0,350 -0,665 0,751

8 0,555 0,782 0,959

9 0,878 0,298 0,927

12 0,140 -0,414 0,437

13 -0,448 -0,237 0,506

TAB 4.3– Análise do Georreferenciamento (PT) – SPRING 3.6

70

4.2 Eliminação de Ruídos

Através da avaliação visual, considerou-se que o algoritmo que

apresentou o melhor resultado foi o do filtro Co-Occurrence Measures. Após a

transformação, a imagem apresentou-se com um aspecto geral muito

melhorado, com o efeito de ruído muito diminuído, sem perda de informação

espectral.

4.3 Extração de Feições

Com a aplicação da ferramenta de fatiamento de densidades conseguiu-

se delimitar os corpos d’água de diferentes tamanhos presentes na imagem.

Algumas outras pequenas feições extraídas juntamente com os corpos d’ água

são resultado da presença na imagem de alvos com resposta espectral

semelhante às massas d’água.

Através da inspeção visual, julgaram-se bons os resultados obtidos no

realce das áreas com vegetação.

4.3.1 Classificação Digital das Imagens

O cálculo da distância JM para as cinco classes usadas na classificação

supervisionada permitiu a avaliação da separabilidade das mesmas, estando

estas dentro dos limites aceitos por Richards (1986) (figura 4.1).

71

FIG 4.1– Distância JM

Com os resultados obtidos na pós-classificação foi possível avaliar a

qualidade da classificação supervisionada pelo método da máxima

verossimilhança. O valor de kappa (k= 0,979742) permite afirmar que a

classificação com as cinco classes propostas foi realizada com sucesso.

Para uma prévia avaliação da escolha do melhor filtro aplicado na

imagem, realizou-se a classificação supervisionada pelo método da máxima

verossimilhança usando-se as mesmas amostras de treinamento e de teste em

todas as imagens filtradas obtidas neste trabalho. Realizou-se o mesmo teste

com a imagem bruta , sem nenhum tipo de filtragem (apenas georreferenciada),

tabela 4.4 .

Os resultados obtidos permitem afirmar que a escolha do filtro de Co-

Occurrence foi acertada, uma vez que este apresenta valor de kappa

satisfatório. Com os resultados obtidos, pode-se afirmar ainda, que os métodos

empregados na eliminação do ruído foram satisfatórios, uma vez que, o valor

de kappa da imagem bruta foi o menor de todos.

72

TAB 4.4– Valores de Kappa

Como produto final da classificação, obteve-se a imagem com o realce

de cada uma das classes. A imagem realçada da classe lagoas foi vetorizada.

A comparação entre a extração das lagoas através do fatiamento de

densidades e a extração através da classificação supervisionada permite

constatar que os melhores resultados foram obtidos através da aplicação deste

último método.

FILTROS KAPPA VAR

Co-occurrence 0,979742 1,388x10-06

Gama 0,979375 1,414 x10-06

Lee 0,977272 1,555x10-06

Low pass 0,978496 1,473x10-06

Mediana 0,980152 1,361x10-06

Occurrence 0,979742 1,388x10-06

Sigma 0,976433 1,611x10-06

Imagem Bruta 0,966830 2,242x10-06

73

5. CONCLUSÕES

Os resultados obtidos ao final deste projeto permitem delinear uma

análise, dos pontos de vista geométrico e temático, das possibilidades de

utilizar as imagens CCD-CBERS com fins de cartografia topográfica.

ASPECTO GEOMÉTRICO

A precisão conseguida na etapa de georreferenciamento das imagens,

equivalente a 4,60 m, pode ser considerada como satisfatória do ponto de vista

cartográfico. Entretanto, para determinar os limites de escalas em que é

possível utilizar esses dados, é necessário considerar que nas diferentes

etapas de um procedimento de geração ou atualização de cartas com imagens

orbitais, são realizadas operações que geralmente acrescentam os valores de

erros geométricos dos dados cartográficos criados a partir das imagens. De tal

forma, não é possível, apenas com esse resultado, afirmar qual a escala que

será compatível com a atualização da informação temática presente nas

imagens CCD do satélite CBERS.

ASPECTO TEMÁTICO

Ao estudar as possibilidades de utilizar produtos orbitais na área da

cartografia é necessário considerar também o volume e a qualidade de

conteúdo informativo que tais dados fornecem. Nesse sentido, a extração e

realce de feições permitem concluir que as imagens CCD-CBERS permitem

mapear, sem maiores problemas, alguns elementos da hidrografia (corpos

d´água) e elementos da vegetação (áreas com mata, campo), bem como,

campos e delimitação da área urbana.

74

6. REFERÊNCIAS BIBLIOGRÁFICAS

Publicações

[1] BRITO, J. N. S., Modelagem Digital do Terreno, Rio de Janeiro, IME,

2002, Notas de Aula.

[2] CRÓSTA, Álvaro P., Processamento Digital de Imagens de

Sensoriamento Remoto, Campinas, IG/Unicamp, 1993.

[3] GEMAEL, C., Introdução ao Ajustamento de Observações, Aplicações

Geodésicas, Curitiba, UFPR, 1994.

[4] LANDIS, J. R., KOCH, C. H., The Measurement of Observer Agreement

for Categorical Data, Vol 33, no 3, Biometrics, 1977.

[5] MATHER, P. M., Computer Processing of Remotely Sensed Images: an

Introduction, 2. ed, New York, John Wiley & Sons, 1999.

[6] NOVO, E. M. L. de Moraes, Sensoriamento Remoto – Princípios e

Aplicações, 2. ed, São José dos Campos, Edgard Blucher, 1988.

[7] RIC HARDS, J. A., Remote Sensing Digital Image Analysis: an

Introduction, 2. ed, Berlin, Springer-Verlag, 1986.

[8] SPRING; Help; versão 3.6 – INPE, São José dos Campos – SP, 2001.

Sites

[1] Instituto Nacional de Pesquisas Espaciais – INPE, disponível em:

www.inpe.org.br; visitado em 10 de abril de 2002.

[2] Portal ENVI, disponível em: www.envi.com.br; visitado em 15 de setembro

de 2002.

75

7. SUGESTÕES PARA TRABALHOS FUTUROS

Tendo em vista o possível desenvolvimento de trabalhos futuros, sugere-

se que em uma etapa seguinte sejam extraídas as classes realçadas através

da aplicação das ferramentas de razão de bandas e classificação

supervisionada. Esta etapa poderá ser feita através da vetorização das classes

já existentes, bem como, através da vetorização de novas classes (ou

subclasses) criadas. A criação de novas classes é recomendada uma vez que

os valores de kappa foram satisfatórios para as cinco classes definidas. Outra

aplicação seria o estudo da extração de feições lineares, como por exemplo, a

extração de vias e ferrovias.

A análise qualitativa do georreferenciamento, através do estudo dos

possíveis erros embutidos no documento de saída, no formato digital (bases

cartográficas digitais) ou no analógico (folhas impressas) seria uma outra

possível análise que poderia ser feita a partir dos resultados obtidos neste

trabalho.

76

8. ANEXOS

1. Cena Completa – Sensor CCD do CBERS (colxlin=6903x6783).

77

2. Módulo da imagem com a representação da distribuição dos pontos de controle - sensor CCD do CBERS (colxlin=1400x1300).

78

3. Imagem Filtrada – Filtro de Co-Occurrence.

79

4. Imagem Filtrada – Filtro da Mediana.

80

5. Extração dos Corpos d’ Água – Fatiamento de Densidades

81

6. Extração dos corpos d’ água – Classificação Supervisionada.

82

7. Realce da Vegetação – Razão de Bandas Simples

83

8. Realce da Vegetação - NDVI

84

9. Imagem Classificada – 5 classes

Legenda:

Azul = Oceano

Verde = Vegetação

Amarelo = Lagoas

Ciano = Área Urbana

Magenta = Campos