f usion o f c ontinuous -v alued o utputs equipe: henrique lins (hsmpl) joão pascoal neto (jrpn)...
TRANSCRIPT
FUSION OF CONTINUOUS-VALUED OUTPUTS
Equipe: Henrique Lins (hsmpl)
João Pascoal Neto (jrpn)
Mário Barbosa (mbaj)
Tiago Farias (tfs)
ROTEIRO
Introdução Adquirindo scores
Scores discriminantes Estimadores de Laplace
Combinadores Conscientes à Classe Não treináveis Treináveis
Combinadores Indiferentes à Classe Templates de Decisão Combinador Dempster-Shafer
INTRODUÇÃO
Viável para vetores de características contínuas
Utiliza vários classificadores diferentes Cada classificador gera um score para cada
classe Scores são armazenados em uma matriz
conhecida como Perfil de Decisão (DP)
INTRODUÇÃO
Dimensão da DP é L x C onde L é a quantidade de classificadores e C é a quantidade de classes
Cada score pertence aos reais no intervalo [0,1]
Para cada coluna (classe) é calculado o score μ(x)
A classe que possuir o maior μ(x) é a escolhida
INTRODUÇÃO
Espaço de Características Intermediário Scores iniciais são colocados nesse espaço Outro classificador gera uma class label
ADQUIRINDO SCORES
Alguns exemplos Classificadores discriminantes Classificador Parzen Softmax
Função softmax normaliza resultados gerados Score 0 = Não há suporte para a classe Score 1 = Suporte máximo para a classe
ADQUIRINDO SCORES DE PROBABILIDADES
Scores probabilísticos são mais confiáveis Vários algoritmos
LDC QDC
Convergência para função softmax Softmax adaptado para problemas de 2
classes
REDES NEURAIS E CLASSIFICADORES KERNEL
Para uma rede neural (RN) com c saídas Saídas denotadas por (y1, y2, ..., yc) | yi є R, para i
= 1, 2, ..., c. Alvo denotado por (t1, ..., tc) | ti є {0, 1}, para i =
1, 2, ..., c. AQUI!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
ESTIMADOR DE LAPLACE
Árvores de estimativas de probabilidades (PETs) Calcula com precisão probabilidades a posteriori Estimativa da probabilidade utiliza-se de
proporção de classes do conjunto de treinamento
PET não é confiável para poucos elementos Usa-se a correção de Laplace para resolver
este problema Ajusta as estimativas para evitar extremos
ESTIMADOR DE LAPLACE
Suavização da regularização do estimador Utilização de uma parametro m (m-
estimator)
m muito grande, probabilidade restrita m muito pequeno, falta de regularização m x P(wj) ≈ 10 é considerado a melhor
alternativa
ESTIMADOR DE LAPLACE
Adaptação de Ting e Witten Onde ω* é a classe majoritária
Utilizando distâncias Baseado no k-nn
COMBINADORES CONSCIENTES À CLASSE
Divididos em duas categorias Não-treináveis Treináveis
Combinadores não-treináveis Sem parâmetros adicionais O conjunto final já está preparado Operações diretas no Perfil de Decisão
Combinadores treináveis Combinações de pesos Integral Fuzzy
COMBINADORES NÃO-TREINÁVEIS
Geram o μ(x) para cada coluna (classe) da DP
Aplicação de uma combinação sobre a coluna Média Simples
Máximo
Média cortada (trimmed mean) Utiliza um percentual α para “podar” o conjunto
Produto
COMBINADORES NÃO-TREINÁVEIS
Média Generalizada α = -∞ (mínimo) α = -1 (média harmônica) α = 0 (média geométrica) α = -1 (média aritmética) α = -∞ (máximo)
O “otimismo” do combinador cresce com o α
COMBINADORES NÃO-TREINÁVEIS
COMBINADORES NÃO-TREINÁVEIS
OWA (Ordered Weighted Averaging) Conjunto de L coeficientes Um coeficiente para cada classificador Trabalha com colunas do DP(x)
separadamente Coluna organizada em ordem decrescente Seja b um vetor de coeficientes
COMBINADORES NÃO-TREINÁVEIS
b varia de acordo com o combinador escolhido
Se L = 5 e o operador usado é o trimmed mean b = [0, 1/3, 1/3, 1/3, 0] (transposta)
COMBINADORES TREINÁVEIS
Média ponderada Três grupos baseados no número de pesos
L pesos. Um peso para cada classificador
(c x L) pesos. Um peso para cada conjunto {classe, classificador}
(c x c x L) pesos. DEPOIS!!
COMBINADORES TREINÁVEIS
Integral Fuzzy Gera bons resultados de classficação Confronta competência contra o suporte mais
alto Trabalha com subconjunto de classificadores medida fuzzy = “força” de cada subconjunto Para L classificadores, existem (2^k) – 1
subconjuntos Logo, são (2^k) – 1 medidas fuzzy
COMBINADORES TREINÁVEIS
COMBINADORES INDIFERENTES À CLASSE
Geram μj(x) usando todos os scores da DP