ESTUDO DA VARIABILIDADE E EFICIÊNCIADE FLUXOS DE TRÁFEGO NAS PRINCIPAIS VIAS
ESTRUTURANTES DE LISBOA
João Filipe Dionízio Rocha
Dissertação para obtenção do Grau de Mestre em
ENGENHARIA CIVIL
JúriPresidente: Prof. Doutor Joaquim Jorge da Costa Paulino Pereira
Orientador: Prof. Doutor José Manuel Caré Baptista Viegas
Vogal: Doutor João António de Abreu e Silva
NOVEMBRO 2008
i
Aos meus pais
“Tudo o que somos é criado pelos nossos pensamentos”
(Buda)
ii
RESUMO
Este estudo pretende contribuir para um melhor entendimento de um fenómeno complexo e não
linear que é o fluxo de tráfego. Uma parte da sua componente variável é devida ao comportamento
emocional dos condutores e outra corresponde a situações aleatórias. Neste sentido, o fluxo é
entendido como uma variável aleatória no tempo e que se caracteriza por apresentar um estado de
Escoamento Livre ou de Congestionamento. Na fronteira destes, o fluxo encontra-se em equilíbrio
mas uma rotura origina a passagem ao estado de Congestionamento. Estas variações podem ser bem
representadas no tempo por um diagrama de fluxo.
Os principais objectivos do estudo são: por um lado, reduzir a variabilidade na definição de
diagramas padrão com o intuito de optimizar os procedimentos de recolha de dados no terreno; e
por outro, avaliar objectivamente a capacidade de uma via em situação de equilíbrio, associando um
risco de rotura que origine a passagem ao estado de Congestionamento. Para alcançar o primeiro
objectivo tira-se partido de um conjunto de técnicas estatísticas segundo uma sequência lógica e
estruturada. No âmbito desta sequência pretende-se também melhorar a eficiência dos
procedimentos de recolha de dados em si através de uma recolha no terreno. O segundo objectivo
baseia-se no cálculo da eficiência do escoamento, grandeza caracterizadora do escoamento segundo
o conceito de potência derivado dos sistemas mecânicos.
A conclusão do estudo baseia-se na interpretação global dos resultados obtidos nas análises
parcelares e com recomendações relativas aos procedimentos de recolha de dados in situ.
PALAVRAS-CHAVE
Diagrama de fluxo, Variabilidade, Cluster, Modelação, Eficiência, Recolha de Dados
iii
ABSTRACT
This study aims for a better understanding of a complex and non- linear phenomenon such as traffic
flow. One part of its variable component is due to driver’s emotional behavior and the other to
random situations. Hence, traffic flow is understood as a random variable in time characterized by
changing between two states: Free Flow and Breakdown. Separating those there´s an equilibrium
situation but a disruption leads to a Breakdown state. These variations can be well illustrated in time
by a flow diagram.
The main goals for this study are: by one hand, reduce the variability in the definition of standard
diagrams for much more efficient assembling procedures of field data; by the other hand assess
objectively a freeway´s capacity in equilibrium situation, associating a risk of disruption that leads to
a Breakdown state. For accomplishing the first objective, one works with a set of statistical
techniques accordingly a structured and logical sequence. This sequence scope includes
improvements in data assembling procedures through a field experiment. The second objective
consists in calculating the flow efficiency, a variable that characterizes flow as power, in similarity to
mechanical systems.
The study conclusion consists on a global interpretation of the results, achieved through the partial
analysis, and on recommendations about on site data assembling procedures.
KEYWORDS
Flow Diagram, Variability, Cluster, Modulate, Efficiency, Data Assembling
iv
ÍNDICE
RESUMO II
ABSTRACT III
ÍNDICE IV
ÍNDICE DE FIGURAS VI
ÍNDICE DE TABELAS VIII
ABREVIATURAS IX
1 INTRODUÇÃO 1
1.1 ENQUADRAMENTO 11.2 OBJECTIVOS 31.3 INVESTIGAÇÃO ATÉ À DATA 41.4 ABORDAGEM METODOLÓGICA 41.5 PROCESSO DE RECOLHA DOS DADOS DE TRÁFEGO, JUNTO DE ENTIDADES OFICIAIS 8
2 TEORIA DE SUPORTE 12
2.1 COMPONENTES PRINCIPAIS 122.1.1. INTERPRETAÇÃO DO MODELO E FACTOR SCORES 142.1.2. VALIDAÇÃO DO MODELO 14
2.2 ANÁLISE DE CLUSTERS 15
2.3 TESTE DE KOLMOGOROV – SMIRNOV 182.3.1. FORMULAÇÃO 19
2.4 MODELAÇÃO DE SÉRIES CRONOLÓGICAS 212.4.1. ESTACIONARIEDADE 212.4.2. SÉRIES CRONOLOGICAS 222.4.3. GENERALIZAÇÃO 23
v
2.4.4. PERIODOGRAMA 252.4.5. TESTE DE SIGNIFICÂNCIA 262.5 ESTUDO DO CONGESTIONAMENTO 272.4.6. EFICIÊNCIA 272.5.1. EFICIÊNCIA EM INTERSECÇÕES 312.5.2. ANÁLISE DE ANO COMPLETO 322.5.3. ESTUDO DA PROBABILIDADE DE ROTURA 332.5.4. ATRASO VS VALOR DO TEMPO 35
3 CALCULOS E ANÁLISES 38
3.1 ANALISE EXPLORATÓRIA DOS DADOS 38
3.2 COMPONENTES PRINCIPAIS E ANÁLISE DE CLUSTERS 423.2.1. VALIDAÇÃO DA ANALISE DE COMPONENTES PRINCIPAIS 443.2.2. CONSTITUIÇÃO E VALIAÇÃO DE CLUSTERS PELO MÉTODO K –MEANS 46
3.3 KOLMOGOROV – TESTE DE AJUSTAMENTO 503.3.1. FACTORES DE AJUSTAMENTO 51
3.4 MODELAÇÃO POR SERIE DE FOURIER 533.4.1. VALIDAÇÃO DAS ESTIMATIVAS E DO RESÍDUO BRANCO 553.4.2. AVALIAÇÃO DA QUALIDADE DO AJUSTAMENTO 57
3.5 EFICIÊNCIA, PROB. DE ROTURA, TEMPO DE ATRASO VS VALOR DO TEMPO 58
3.6 RECOLHA DE DADOS IN SITU – AV. JOÃO CRISÓSTOMO 613.6.1. APARELHO E ESCOLHA DO MATERIAL DE FIXAÇÃO 613.6.2. ESCOLHA DA DATA, DO LOCAL E OBTENÇÃO DE AUTORIZAÇÃO 633.6.3. CONFIGURAÇÃO, TESTE DO EQUIPAMENTO E DO SOFTWARE 653.6.4. RECOLHA DE DADOS 673.6.5. ANÁLISE DO DIAGRAMA DE FLUXO OBTIDO 69
4 CONCLUSÕES 71
4.1 INTERPRETAÇÃO DE RESULTADOS 714.2 PROCEDIMENTOS DE RECOLHA DE DADOS 724.3 ESTUDO DESENVOLVIDO E SUGESTÕES DE CONTINUIDADE 73
5 BIBLIOGRAFIA 75
6 ANEXOS 77
vi
ÍNDICE DE FIGURAS
FIG. 1.1 - DIAGRAMA FUNDAMENTAL DA TEORIA DE FLUXO DE TRÁFEGO [2] .................................................... 2
FIG. 1.2 – LOCALIZAÇÃO: RALIS [8] .................................................................................................................. 10
FIG. 1.3 – LOCALIZAÇÃO: EIXO_N_S [8] ............................................................................................................ 10
FIG. 1.4 – LOCALIZAÇÃO: AV. JOÃO CRISÓSTOMO [8] ...................................................................................... 10
FIG. 1.5 – LOCALIZAÇÃO: AE A5-CARCAVELOS/LISBOA [8] ............................................................................... 10
FIG. 2.1 - EXEMPLO DO TESTE DE KS A DUAS AMOSTRAS INDEPENDENTES [11] ............................................... 20
FIG. 2.2 – EFICIÊNCIA: DEFINIÇÃO [12]............................................................................................................. 29
FIG. 2.3 - EFICIÊNCIA: EXEMPLO PARA AE 3 PISTAS/SENTIDO [12] .................................................................... 30
FIG. 2.4 - EFICIÊNCIA: EXEMPLO DE ESTRADA RURAL DE UMA PISTA/SENTIDO (ESQUERDA);............................ 30
FIG. 2.5 - EFICIÊNCIA: EXEMPLO DE INTERSECÇÃO NÃO SINALIZADA [12] ......................................................... 32
FIG. 2.6 - PROBABILIDADE DE ROTURA VS FLUXO OBSERVADO [14] ................................................................. 34
FIG. 3.1 – DIAGRAMA DE FLUXO: 1 DE MARÇO DE 2007, QUINTA-FEIRA, RALIS (BASE HORÁRIA) [16] - EP ........ 38
FIG. 3.2 – DIAGRAMA DE FLUXO: SEMANA DE 5 A 11 DE MARÇO 2007, RALIS (BASE HORÁRIA) [16] EP ............ 39
FIG. 3.3 - FUNÇÃO AUTOCORRELAÇÃO PARA OS DIAS 5,6 E 7 DE MARÇO DE 2007, RALIS ................................. 40
FIG. 3.4 - DISTRIBUIÇÃO NORMAL DOS FLUXOS DE MARÇO DE 2007, RALIS ..................................................... 41
FIG. 3.5 - FLUXO MÉDIO E MODAL DE MARÇO DE 2007, RALIS ......................................................................... 42
FIG. 3.6 - DIAGRAMA DE WARD: VARIÁVEIS ORIGINAIS (48 DIAS), 1ª ITERAÇÃO ............................................... 43
FIG. 3.7 - DIAGRAMA DE WARD: COMPONENTES PRINCIPAIS (48 DIAS), 1ª ITERAÇÃO ...................................... 43
FIG. 3.8 - DIAGRAMA DE WARD: VARIÁVEIS ORIGINAIS (33 DIAS), 2ª ITERAÇÃO ............................................... 44
FIG. 3.9 - DIAGRAMA DE WARD: COMPONENTES PRINCIPAIS (33 DIAS), 2ª ITERAÇÃO ...................................... 44
FIG. 3.10 - VALORES PRÓPRIOS........................................................................................................................ 45
FIG. 3.11 - VALORES PRÓPRIOS: VARIAÇÃO GRÁFICA DA VARIÂNCIA ................................................................ 45
FIG. 3.12 - FACTOR LOADINGS ......................................................................................................................... 46
FIG. 3.13 - COMUNALIDADES .......................................................................................................................... 46
FIG. 3.14 - DIAGRAMA PADRÃO: RALIS, 8 DE MARÇO 2008 [16] - EP ................................................................ 49
FIG. 3.15 - TESTE KS: TRANSFERÊNCIA NO ESPAÇO .......................................................................................... 50
FIG. 3.16 - TESTE KS: TRANSFERÊNCIA NO TEMPO ........................................................................................... 50
FIG. 3.17 - FUNÇÃO AUTOCORRELAÇÃO: DESFASAMENTO DE 30 HORAS (DIAS REGULARES) ............................ 54
vii
FIG. 3.18 - PERIODOGRAMA: REDUÇÃO DE 50% NA DIMENSÃO DA AMOSTRA ................................................. 56
FIG. 3.19 – GRÁFICO: REPRESENTAÇÃO DO RESÍDUO ....................................................................................... 56
FIG. 3.20 - FUNÇÃO AUTOCORRELAÇÃO DO RESÍDUO ...................................................................................... 56
FIG. 3.21 - DISTRIBUIÇÃO DO RESÍDUO ............................................................................................................ 57
FIG. 3.22 - AJUSTAMENTO DA SÉRIE ESTIMADA À SÉRIE REAL .......................................................................... 57
FIG. 3.23 - EFICIÊNCIA: CÁLCULO PARA AMOSTRA RECOLHIDA, RALIS .............................................................. 58
FIG. 3.24 - PROBABILIDADE DE ROTURA POR FLUXO, RALIS ............................................................................. 59
FIG. 3.25 - TEMPO DE ATRASO NUM CONGESTIONAMENTO, RALIS ................................................................. 60
FIG. 3.26 - APARELHO DE CONTAGEM, FOTO DE AUTOR .................................................................................. 62
FIG. 3.27 – CONJUNTO:MEMBRANA E APARELHO, FOTO DE AUTOR ................................................................ 62
FIG. 3.28 - AV. JOÃO CRISÓSTOMO, FOTO DE AUTOR ...................................................................................... 65
FIG. 3.29 - CONFIGURAÇÃO DO PROGRAMA HDM ........................................................................................... 66
FIG. 3.30 - LIMPEZA DO PAVIMENTO, FOTO DE AUTOR .................................................................................... 67
FIG. 3.31 - COLOCAÇÃO DE FITA, FOTO DE AUTOR ........................................................................................... 68
FIG. 3.32 – FIXAÇÃO DO CONJUNTO, FOTO DE AUTOR ..................................................................................... 68
FIG. 3.33 - EQUIP. NA VIA, FOTO DE AUTOR..................................................................................................... 68
FIG. 3.34 – CIRCULAÇÃO DO TRÂNSITO, FOTO DE AUTOR ................................................................................ 68
FIG. 3.35 – DIAGRAMA: DADOS IN SITU, 2008 ................................................................................................. 69
FIG. 3.36 – DIAGRAMA: DADOS CML, 2007 ...................................................................................................... 69
viii
ÍNDICE DE TABELAS
TABELA 3.1 - ESTATÍSTICA DESCRITIVA, MARÇO DE 2007 ................................................................................. 40
TABELA 3.2 - RESUMO DA ESTATÍSTICA DESCRITIVA ........................................................................................ 41
TABELA 3.3 - VALIDAÇÃO DA ANÁLISE DE CLUSTERS ........................................................................................ 48
TABELA 3.4 - FACTORES DE AJUSTAMENTO KS TESTE, RALIS ............................................................................ 52
TABELA 3.5 - FACTORES DE AJUSTAMENTO KS TESTE, EIXO_N_S...................................................................... 52
TABELA 3.6 - PARÂMETROS DA MODELAÇÃO POR SÉRIE DE FOURIER. N=480 .................................................. 54
TABELA 3.7 – EXCERTO DAS ESTIMATIVA DA SÉRIE E CÁLCULO DO RESÍDUO .................................................... 54
TABELA 3.8 - CÁLCULO DA VARIÂNCIA E SIGNIFICÂNCIA .................................................................................. 55
ix
ABREVIATURAS
AC Análise de Clusters
AE Auto-Estrada
ANOVA Analysis of Variance
EQM Erro Quadrático Médio
FPH Factor de Ponta Horária
HCM Highway Capacity Manual
HDM Highway Data Management
IST Instituto Superior Técnico
KS Kolmogorov – Smirnov
NIPST Núcleo de Infra-estruturas, Sistemas e Políticas de Transporte
PSP Polícia de Segurança Pública
SPT Social Price of Travel time savings
SVTT Subjective Value of Travel Time
VBA Visual Basic for Applications
x
1
1 INTRODUÇÃO______________________________________________________________________________
1.1 ENQUADRAMENTO
O estudo das ciências da engenharia e da matemática aplicado ao tráfego de veículos tem como
objectivo melhorar a compreensão deste fenómeno e contribuir para a redução dos problemas que
o congestionamento provoca. As primeiras tentativas para descrever o fenómeno numa base
matemática datam da década de 50 mas até ao presente não existe uma teoria geral consistente
que possa ser aplicada em condições reais.
O fluxo de tráfego de veículos é um fenómeno complexo, não linear e dependente das interacções
entre um grande número de veículos. Para mais, estas dependências não se regem apenas pelas
leis da mecânica mas também são devidas às reacções dos condutores. A formação de grupos de
veículos viajando a velocidades semelhantes entre si, mas diferentes do conjunto do fluxo, a
propagação para montante de ondas de concentração de densidade, as grandes variações de
velocidade média, as reduções de velocidade perante acidentes na faixa de circulação de sentido
contrário são alguns exemplos da componente “emocional” ou não matemática do tráfego que
torna a sua modelação matemática incompleta. [1]
O problema tem sido abordado por matemáticos e engenheiros de diferentes formas e com
diferentes objectivos.
Os matemáticos usam três escalas de observação do fenómeno [1]:
Microscópica: cada veículo é considerado como uma unidade e portanto é definida
usualmente uma equação diferencial ordinária;
Mesoscópica: é definida uma função que expressa uma probabilidade de haver um veículo
no momento t com velocidade v. Esta função segue métodos da mecânica estatística e
pode ser resolvida por uma equação integral-diferencial do tipo Boltzmann;
Macroscópica: em analogia com a dinâmica de fluidos, é descrito um sistema de equações
parciais com base em leis do equilíbrio para variáveis macro tais como a densidade e a
velocidade média.
Os engenheiros analisam o fluxo de tráfego com base em análises empíricas, de observação e
ajuste de curvas. Uma referência neste tipo de abordagem é o Highway Capacity Manual1, que
recomenda a modelação do fluxo tendo em conta que o tempo total de viagem depende da
dimensão da fila de espera e do tempo de atraso. Diminuir tempos de atraso é o mais importante
pois o acumulado no total de um ano pode ter grande peso na perda de eficiência económica de
1 Publicado pelo Transportation Research Board, organismo integrante do United States National Academy of Sciences
2
um sistema de mobilidade urbana de uma cidade. Se, por exemplo, uma cidade estiver muito
dependente do transporte individual, o tempo de atraso tem um custo de oportunidade elevado
para os utilizadores.
Na Fig. 1.1 apresenta-se o diagrama fundamental do tráfego, com base na qual foram
desenvolvidas as análises apresentadas no HCM. Após um grande conjunto de medições, ajusta-
se uma curva empírica que relaciona a velocidade com o fluxo, caracterizando o tráfego por
variáveis macro.
Fig. 1.1 - Diagrama Fundamental da Teoria de Fluxo de Tráfego [2]
É importante realçar duas características desta relação fundamental e que irão ser alvo de estudo
deste estudo:
Existe uma componente de variabilidade intrínseca ao conjunto das medições;
Existem duas fases do escoamento: Escoamento livre (I) e Congestionamento (III),
separados por uma situação de equilíbrio em que (nas condições ideais de circulação) se
verifica fluxos de 2400 a 2500 veic/h.pista com velocidades na ordem dos 80 km/h.
A componente de variabilidade traduz-se em diagramas de fluxo diferentes para cada período de
tempo analisado, por exemplo cada dia do ano. Um diagrama de fluxo é uma representação do
número de veículos que atravessa uma secção durante um certo período de tempo (horas, dias,
meses ou anos). Devido a esta componente, existe uma probabilidade de os valores de fluxo no
diagrama terem um maior ou menor desvio em relação ao valor real. Logo, é difícil estabelecer um
diagrama padrão válido em vários instantes e locais diferentes, que possam servir de
representação a médio/longo prazo
3
Quanto ao estudo das fases do escoamento, este tem sido conduzido por diversos autores e
entidades, não havendo dúvidas que de facto existe uma fase de Escoamento Livre, fluxo com
escoamento estável e uma fase de Congestionamento ou instabilidade. Mas esta última fase é
mais complexa e levanta divergências relativamente ao modo como são definidos os seus
parâmetros (capacidade e velocidade). A definição destes parâmetros é fundamental uma vez que
uma menor ou maior capacidade em situação de instabilidade tem implicações no desempenho de
uma rede viária e no modelo económico da cidade em que se insere a rede viária (externalidades
e tempo de atraso acumulado e valorização desse tempo). Também nesta fase está presente a
variabilidade e portanto existe um risco associado na definição de uma maior ou menor
capacidade da via.
1.2 OBJECTIVOS
Os objectivos que se pretende alcançar com este estudo são:
A nível estratégico:
1. Aumentar a eficiência nas operações de recolha de dados de tráfego;
2. Avaliar objectivamente a capacidade de uma via em estado de saturação.
A nível táctico, decorrentes dos anteriores:
1.1 Identificação/formação de clusters com dias mais propícios/regulares à recolha de
dados, para estabelecimento de diagrama padrão;
1.2 Aferição da transferibilidade do diagrama padrão no tempo e no espaço;
1.3 Modelação do diagrama padrão para uma dada secção.
1.4 Optimização dos procedimentos de recolha de dados no terreno, para
estabelecimento do diagrama padrão;
2.1 Cálculo de uma nova variável, Eficiência, para definição objectiva dos níveis de
congestionamento;
2.2 Associação de um grau de risco no dimensionamento de capacidade, em
situações de congestionamento (probabilidade de rotura);
2.3 Aferição do tempo de atraso acumulado, e custo associado, em situação de
Congestionamento;
Um diagrama padrão essencialmente é uma representação do número de veículos que
atravessam uma secção de via, durante um período de tempo. A particularidade deste diagrama
está no perfil da sua curva. Um diagrama padrão diário tem um perfil de curva que será
representativo da generalidade dos dias do ano, excluídos os dias atípicos que não têm esse perfil
4
dadas as circunstâncias particulares, tais como feriados, pontes, dias que habitualmente
correspondem a férias e alguns dias esporadicamente irregulares que forem detectados.
Os pontos 1.1 a 1.4 dizem respeito ao estudo da variabilidade presente no tráfego de veículos,
como anteriormente referido. Pretende-se com este grupo de objectivos contribuir para uma
melhor compreensão do fenómeno e entendimento do grau de necessidade da sua observação
repetida. Os pontos 2.1 a 2.3 referem-se ao estudo do Congestionamento, no sentido de definir
com mais rigor os níveis de carga de tráfego para os quais ocorre, uma vez que pequenas
variações no dimensionamento da capacidade de uma via têm grandes repercussões para jusante
na eficiência (fluidez de tráfego e eficiência económica) de um sistema viário.
1.3 INVESTIGAÇÃO ATÉ À DATA
Relativamente aos pontos 1.1; 1.2 e 1.3, existe um conjunto alargado de obras (ver secção 5 –
Bibliografia [4], [5], [6], [11], [13]) que desenvolvem individualmente cada uma das matérias
aplicadas neste estudo segundo o Fluxograma da página 7. No entanto, a junção de todas as
matérias referidas num só estudo e a aplicação de alguns conceitos, tais como a modelação de
séries cronológicas, representa uma inovação. Relativamente ao estudo da eficiência, não se
encontrou casos de aplicação a Portugal, sendo a bibliografia e as experiências de aplicação
referentes à fundamentação teórica de origem Alemã. [12], [14]. No que diz respeito a
equipamentos de contagem de fluxos de tráfego e processos de escolha de locais de montagem
do equipamento, existe um estudo Português bastante detalhado [3]
1.4 ABORDAGEM METODOLÓGICA
Tendo em vista o objectivo 1.3 de modelação de um diagrama padrão como um objectivo central,
existem procedimentos/objectivos que lhe servem de etapa inicial e outros, que no seguimento da
metodologia, fazem uso dos resultados atingidos nesse objectivo central. Estando definidos os
locais de recolha de dados que servirão para desenvolver todo o estudo, secção 1.5, a articulação
dos vários elementos do estudo de modo a alcançar os objectivos definidos é o exemplificado pelo
fluxograma da página 7, sendo a sua descrição a seguinte.
Propõe-se que o diagrama padrão ou série temporal padrão seja modelado pela equação,
composta de 3 partes (aplicação do principio da sobreposição) [5]:
Xt = sazonalidade + série cíclica determinística + ruído branco (erro na previsão) (1.1)
Neste ponto, apenas é importante referir como é tratada a sazonalidade, sendo possível encontrar
a definição detalhada dos outros conceitos em secções posteriores deste estudo. A nível urbano, e
em situações de relativa escassez de recursos pelos condutores, esta parcela deve-se
essencialmente ao peso que o dia do recebimento do vencimento tem nas decisões de
5
mobilidade. È perceptível que periodicamente há uma redução nos fluxos automóveis à medida
que os dias se aproximam do fim do mês / dia de recebimento dos salários. Neste sentido, é
retirada a sazonalidade dos dados diários tomando estes como uma percentagem da média de
cada semana. Implicitamente, a média da série padronizada passa a ser unitária.
Xt´ = Xt,j / Média semana j (1.2)
Esta padronização foi efectuada no início do estudo portanto todas as fases de estudo da
variabilidade tem por base a série temporal padronizada.
Posto isto, é importante referir, em termos gerais, o procedimento para alcançar o diagrama
padrão. Deve ser aplicada a técnica da Análise de Clusters em escalas temporais progressivas.
Isto é, partindo do princípio de que se dispõe das contagens horárias de um ou mais anos
completos, aplica-se primeiro a Análise de Clusters (A.C.) definindo as variáveis com a dimensão
de um mês. Após validação, um conjunto de meses seleccionados servirá para recolher variáveis
para a segunda fase. Nessa fase, as variáveis são agora definidas como semanas. Após a A.C.
validada, resulta um conjunto de semanas de onde serão definidas novas variáveis que serão
agora na base do dia. No último passo, a Análise de Clusters serve para eliminar outliers e
seleccionar o dia padrão (fluxograma, p. 7).
Este procedimento é o indicado, no entanto para este estudo foi assumido apenas como
pressuposto, devido às dificuldades inerentes a uma recolha de dados. Neste sentido, aceitou-se a
recomendação de um consultor experiente da área dos transportes, transmitida durante o
processo de recolha de dados, referido no ponto seguinte, de tomar como pressuposto que os
meses de Março e Outubro (última quinzena) são os meses propícios à recolha de dados. Tendo
sido apenas possível recolher dados referentes a 2007, a dimensão da amostra é reduzida. Neste
sentido, decidiu-se tomar uma solução de compromisso em que se definiu à partida as varáveis na
base do dia, a partir dos dois meses disponíveis. 2
Tendo sido identificado o dia padrão, para ser possível efectuar a modelação são necessários
dados. Visto o projecto ter duas componentes (Fluxograma), a modelação está presente em
ambas mas com propósitos diferentes. Está presente na componente estática para permitir o
desenvolvimento de uma metodologia de análise e está presente na componente dinâmica para
efeitos de aplicação do modelo e para previsões que sejam necessários no âmbito de outros
estudos. Como neste estudo o enfoque está em desenvolver uma metodologia de análise,
recorreu-se a aos dados já padronizados. Na prática, tendo a priori conhecimento de toda a
informação contida neste estudo, inicia-se o estudo pela recolha de dados in situ nos dias mais
2 Foi efectuada em paralelo uma análise em Componentes Principais onde também se aplicou a Análise deClusters. Teve como objectivo o de explorar algum resultado mais claro e/ou preciso que o uso dessa técnicajá provou conseguir alcançar e que portanto pudesse ser útil neste estudo.
6
consistentes, segundo os métodos da recolha descritos neste documento. Esta recolha de dados
in situ será na realidade uma etapa inicial do estudo do sistema, A partir desse ponto modela-se a
curva padrão. Não obstante, foi também levada a cabo uma recolha de dados in situ uma vez que
também é um propósito de estudo optimizar os procedimentos da recolha de dados.
A modelação da curva padrão é feita recorrendo às séries de Fourier. Seguindo o modelo
conceptual proposto, a série de Fourier resultante irá extrair a quase totalidade da variabilidade
contida na série original, e o resíduo será um resíduo branco. A qualidade da
modelação/ajustamento é aferida pelo Erro Quadrático Médio (EQM) [6].
Como resultado deste sistema tem-se a potencial transferibilidade do diagrama padrão no tempo e
no espaço, com validação dada pelo teste de Kolmogorov – Smirnov. As vantagens que este
resultado permite são enormes pois, garantindo pressupostos relativos à geometria e
funcionalidade da via, é possível reduzir em grande escala os custos de recolha de dados de
tráfego e classificação de vias.
Relativamente aos pontos 2.1 a 2.3 do conjunto de objectivos, que dizem respeito ao estudo do
escoamento instável, é importante referir o seguinte: na prática, após terem sido validados os
dados recolhidos experimentalmente numa determinada secção de uma via, com o intuito de
classificar uma via e prever fluxos futuros, o passo seguinte será a instalação de contadores fixos,
(por exemplo laços de indução). Com estes contadores, tem-se ao dispor em tempo real e a todas
as horas, contagens dos fluxos o que permite um estudo pormenorizado dos processos de
congestionamento, isto é do grau de eficiência da via em patamares de saturação e, se possível,
permite associar uma probabilidade a essa ocorrência, de modo a que os gestores de tráfego
avaliam a capacidade com base em níveis de risco. Se a esse risco estiver associado um custo
operacional derivado do tempo total de atraso acumulado em escoamento instável, a gestão de
uma rede viária torna-se mais eficiente. Por exemplo, passa a ser possível, com dados em tempo
real, aferir a eficiência da rede de uma cidade que esteja sujeita a portagem urbana. Caso os
níveis de eficiência ultrapassem o limite, isto seria sinónimo de falta de fluidez da rede. Nessa
altura, haveria necessidade de tentar compreender quais os pontos críticos na rede que estão a
condicionar a fluidez, uma vez que os custos com tempos perdidos estariam a subir e teriam de
ser compensados com um aumento da tarifa de entrada na portagem, para redução da procura.
Deste modo simples estar-se-ia a internalizar os custos externos. Com a devida transparência de
todo o processo e informação aos utilizadores da subida da tarifa, haveria um reajuste e o fluxo de
entrada na cidade reduziria e portanto a eficiência tomaria os valores desejáveis para um Nível de
Serviço não saturado.
7
Análise Clusters (incluiEliminação de Outliers)
ClustersVálidos?
Pré - Recolha dedados em
contadores FIXOSEstudo da variabilidade– Dia Padrão
Estudo doCongestionamento
Variáveisoriginais
ComponentesPrincipais Não
Sim
Determinação dia Padrão(conjunto de dias
consistentes)
Recolha efectiva dedados em
contadores fixos(WYA)
Modelação do diagrama dodia Padrão
Definição de Modelo Teórico (+padronização dos dados) epressupostos de caract.
geométricas e de função de via
(Pré) Recolha dedados em
contadoresMÒVEIS
ModeloVálido ?
Não
Cálculo da eficiência
Cálculo do risco de rotura ecustos de atraso
Transferência no espaço e notempo do modelo
Previsões
(Modelação)
Transf.válida?
Não
Sim
COMP. ESTÀTICA (DESENVOL. METODOLOGIA) COMP. DINÂMICA (APLICAÇÂO & INVESTIGAÇÂO)
Sim
8
1.5 PROCESSO DE RECOLHA DOS DADOS DE TRÁFEGO, JUNTODE ENTIDADES OFICIAIS
A cidade escolhida para desenvolver e aplicar este estudo foi Lisboa. Objectivamente é a cidade
mais indicada para o âmbito deste estudo pois dispõe das infra-estruturas necessárias para a
recolha de dados, e tem sedeada nos seus limites uma variedade de entidades, directa ou
indirectamente relacionadas com o tráfego automóvel, que gerem as infra-estruturas e dispõem de
bases de dados essenciais para a execução deste estudo.
O processo de recolha de dados é uma etapa inicial e essencial para o arranque do estudo e
consistiu fundamentalmente em duas partes:
1. Escolha dos locais equipados com contadores fixos, para recolha de fluxos;
2. Estabelecer contactos e reuniões com as entidades detentoras dos direitos dos dados
para posterior disponibilização dos dados pretendidos.
Foi feita uma escolha criteriosa dos locais. Esta teve em atenção o critério de obter uma amostra
que fosse representativa do tipo de fluxo e características geométricas de vias com vários níveis
hierárquicos da rede viária Lisboeta, vias com cariz semi - urbano ou de acesso à capital, e vias
sem influência do grande centro urbano (rurais mas com perfil de AE). Deste modo haveria uma
base de comparação para os diferentes tipos de fluxo. Os níveis hierárquicos da rede viária de
Lisboa são os definidos no Estudo de Mobilidade de Lisboa, 2005, pp. 110 – 115 “ nível 1 – rede
viária estruturante, a qual serve de suporte aos percursos de longa distância; nível 2 – rede de
distribuição principal, que tem como função dominante a distribuição entre sectores da cidade;
nível 3 – rede de distribuição secundária, servindo de suporte à distribuição de proximidade”. [7]
Neste sentido os locais escolhidos na cidade de Lisboa foram os seguintes. Consulte-se a sua
localização nas figuras da página seguinte (disponibilizada apenas a localização dos 4 locais cujos
dados foram utilizados para desenvolver este estudo):
Nível 1: 2ª Circular / Av. Cidade do Porto, em duas secções, no RALIS e no sublanço
compreendido entre o Eixo Norte/Sul e a Av. Lusíada. A escolha por esta via é evidente
pela sua elevada importância como via de acesso à capital e distribuição de tráfego, tanto
a Noroeste como a Oeste. O seu perfil geométrico é o característico de uma AE (2 faixas
de rodagem com 3 pistas cada) com velocidade de circulação limitada por lei aos 80 km/h.
A sua funcionalidade na rede é de via estruturante de atravessamento rádio - concêntrico.3
Nível 1: EIXO N_S, junto à 2ª Circular. A via tem um perfil de AE (2 faixas de rodagem
com 3 pistas cada), com velocidade de circulação limitada por lei aos 80 km/h. A sua
funcionalidade na rede e de via estruturante de atravessamento radial, com ligação à
3 Os dados recolhidos são anteriores à colocação dos radares de detecção de velocidades nesta via;
9
margem Sul (influência de congestionamento devido à ponte 25 de Abril) 4
Para estes três locais, os dados foram recolhidos no site das Estradas de Portugal, S.A.
Nível 2: Av. República, junto ao Campo Pequeno;
Nível 3: Av. João Crisóstomo, no sublanço entre Av. 5 de Outubro e Av. da República.
Esta via é de elevada importância para este estudo, pois dispõe-se de dados recolhidos
por contadores fixos (laços de indução) e recolhidos pelo autor (placa móvel), em dois
anos seguidos, para o mesmo mês e dia, o que permitirá confrontar medições e
pressupostos.
Para estes dois locais, os dados foram disponibilizados com a colaboração do Departamento de
Segurança Rodoviária e Tráfego da Câmara Municipal de Lisboa
Via semi – urbana: Auto-estrada A5 – Carcavelos/Lisboa;
Via rural: Auto-estrada A6 – Vendas Novas/Lisboa.
Para estes dois locais, os dados foram disponibilizados com a colaboração da Brisa.
Todos os dados recolhidos são referentes ao ano de 2007 (excepto os recolhidos pelo autor na
Av. João Crisóstomo que são de 2008) e ao sentido de entrada em Lisboa, nas duas direcções de
cada via. Deu-se primazia ao fluxo da ponta da manhã por se considerar de ter maior relevância
no quotidiano das deslocações pendulares. É do senso comum (confirmado por uma análise
exploratória feita no decurso deste estudo) que o estudo do congestionamento na ponta da manhã
é mais importante porque é maior a concentração de fluxos que na ponta da tarde.
Previamente à disponibilização dos dados, foram realizadas reuniões com os responsáveis das
várias entidades mencionadas, onde sobretudo se procurou o melhor compromisso entre volume
de informação desejável e o efectivamente disponibilizável em tempo útil.
Relativamente aos locais efectivamente utilizados no desenvolvimento do estudo, à medida que
este foi avançando verificou-se que, em termos comparativos, havia pouca utilidade em repetir
análises (logo usar todos os dados disponíveis) quando se poderia diversificar mais o âmbito do
estudo, desenvolvendo outros aspectos que potencialmente produziriam resultados mais
relevantes ou interessantes.
4 Os dados recolhidos são anteriores à conclusão da via no seu troço mais a norte (ligação à CRIL).
10
Fig. 1.2 – Localização: RALIS [8]Fig. 1.3 – Localização: EIXO_N_S [8]
Fig. 1.4 – Localização: Av. João Crisóstomo [8]Fig. 1.5 – Localização: AEA5-Carcavelos/Lisboa [8]
11
12
2 TEORIA DE SUPORTE______________________________________________________________________________
2.1 COMPONENTES PRINCIPAIS
A Análise de Componentes Principais é um dos métodos de Análise Factorial [5], que por sua vez
se insere nas Técnicas de Análise Multivariada. O objectivo da análise factorial é identificar a
estrutura subjacente à matriz dos dados que compõem um conjunto de variáveis. Definindo um
conjunto novo e de menor número de variáveis, encontra as relações internas essenciais
presentes no leque original das variáveis. A análise por componentes principais alcança esse
objectivo identificando as novas variáveis, factores, através da computação da matriz de
covariância, sendo os factores não correlacionados e os necessários para explicar a máxima
porção de variância relacionada com o conjunto das variáveis originais (é extraída a variância total
e comum sendo desprezável a específica e a de erro por serem reduzidas). [9]
A equação de cálculo dos factores é uma combinação linear das variáveis originais:
= (2.1)
= 1 = 1, … = º á
= 1, … ;
Prova-se que:
i)
Z = l F , com l = a , (2.2)
Onde os vectores são designados de factor loadings e representam o peso de cada factor na
variável original ou seja a parte da variância da variável explicada por cada factor, é o valor
próprio associado ao vector próprio ;
13
ii)
l = (2.3)
= Variância Total; = % variância total
Ou seja, ao calcular-se o valor próprio da componente principal j, determina-se uma fracção da
variância total que é explicada por essa componente. Para extrair os valores próprios (e os
vectores próprios necessários para definir (3)), recorre-se ao método dos multiplicadores de
Lagrange:
det(S I) = 0, (2.4)
, com S [p x p] matriz de variâncias/covariâncias
Consequentemente, ao primeiro valor próprio corresponde o máximo de variância extraível por
uma componente principal, sendo os valores próprios seguintes de valor inferior. Portanto, são
necessários critérios para definir o número de componentes principais j a usar. Este número não
deve ser excessivo mas apenas o suficiente para explicar capazmente a variância das variáveis
originais.
O número de factores a considerar é estabelecido ponderando o resultado de três critérios:
Critério da percentagem de variância acumulada: o conjunto de factores escolhidos tem
de explicar uma determinada percentagem. Preconiza-se uma percentagem de 70% pois
a experiência revelou que este limiar é suficiente para produzir bons resultados;
Critério da variância unitária: considerar apenas factores cujos valores próprios sejam
maiores ou iguais a 1. Cada variável é standarizada apresentando portanto
= 0 = 1 , logo um factor que não capte uma porção da variância superior a 1, não
é melhor que a variável original;
Critério do Scree Plot: representação gráfica da variância total associada a cada factor,
ou a cada valor próprio, onde um declive acentuado dos primeiros factores indica que
estes retiram grande parte da variância total. O número de factores a considerar será o
que corresponde à estabilização da curva.
È possível que, após ter sido fixado o nº de factores e a % da variância que eles explicam, seja
difícil de interpretar a matriz dos factor loadings. Com o objectivo de os tornar mais interpretáveis
pode-se aplicar posteriormente uma transformação, rotação, que redistribui a variância explicada
14
pelos factores individuais. Após esta transformação acontece que a capacidade explicativa dos
primeiros factores será menor do que antes, mas no conjunto mantém-se a mesma capacidade
explicativa. Dos vários métodos disponíveis, aplicou-se uma rotação ortogonal, Varimax
Normalized, pois este mantém os eixos dos factores ortogonais (eliminando possíveis
colineariedades nas análises estatísticas seguintes), redistribui as variâncias captadas por cada
factor de modo a maximizar as variáveis que apresentam elevada correlação segundo esse factor,
ou seja, os coeficientes da matriz estão mais próximos de um ou zero. [9]
2.1.1. INTERPRETAÇÃO DO MODELO E FACTOR SCORES
O estudo da significância dos factor loadings com as variáveis é interessante quando se pretende
interpretar os factores. No entanto, o objectivo principal não é interpretar este novo conjunto de
variáveis mas o resultado da sua aplicação na análise de Clusters subsequente.
Para tal, define-se uma nova matriz de variáveis, factor scores, que é um conjunto reduzido de
factores que caracterizam as variáveis originais:
= , = 1, . . (2.5)
onde,
– Factor scores
= – Factor scores coefficients
2.1.2. VALIDAÇÃO DO MODELO
A validação do modelo advém da análise das communalities, h , de cada variável. A comunalidade
verifica a porção da variância que de cada variável partilha com todas as outras. Valores de
comunalidades elevados indicam que aqueles factores extraíram grande parte da variância
comum. Por consequência, no resíduo que advém de se considerar apenas um número reduzido
de factores, está contida uma pequena parte da variância (resíduo = 1 – comunalidade).
l = h , l = 1, (2.6)
15
2.2 ANÁLISE DE CLUSTERS
A análise de Clusters é uma técnica estatística classificatória que tem como objectivo a divisão de
um universo de entidades em grupos que sejam internamente homogéneos (constituídos por
entidades semelhantes) e heterogéneos entre si (distintos uns dos outros). [9]
A formação dos grupos assenta em 4 etapas:
i) Selecção de entidades e das variáveis utilizadas para as representar;
ii) Selecção de uma medida de (dis) semelhança entre entidades (representada por uma
distância);
iii) Selecção de um método de construção de clusters (+ definição de número de clusters a
considerar);
iv) Análise e validação de resultados.
i) Selecção de entidades e das variáveis utilizadas para as representar: A selecção
de variáveis condiciona obviamente os resultados a obter. É necessário seleccionar
variáveis que sejam pertinentes para o fim em vista. Deve ser feita com sentido crítico,
pois o modelo deve ser adaptado à realidade que se pretende estudar. Pode ser útil e
benéfico para a análise e interpretação dos resultados, usar variáveis transformadas a
partir de uma análise factorial, nomeadamente a de Componentes Principais, evitando-
se deste modo redundância de informação, uma vez que se reduz o número de
variáveis “explicativas”, garantindo um limiar de por exemplo 70% de variância total
explicada;
ii) Selecção de uma medida de (dis) semelhança entre entidades: existe uma
variedade de medidas apresentadas na bibliografia técnica, no entanto, como é uma
escolha que tem de ser feita a priori da formação dos Clusters, não se conhecem as
suas propriedades resultantes. Dado o conjunto de parâmetros que é necessário definir
numa análise de Clusters, a escolha por uma ou outra medida é pouco relevante. Neste
estudo a medida utilizada foi a Distância Euclidiana.
= (2.7)
onde,
– Vector de valores das variáveis para os indivíduos i
16
iii) Selecção de um método de construção de clusters: existem dois grandes tipos de
métodos de construção de clusters;
Hierárquicos: Aglomerativos ou Divisivos;
Não Hierárquicos.
A diferença fundamental entre eles é que os Não Hierárquicos definem-se por serem
procedimentos iterativos, onde as entidades podem ser reafectadas diversas vezes nos
clusters, até que se minimize a variabilidade interna e se maximize a variabilidade entre
clusters; enquanto os aglomerativos são sequenciais sem retrocessos no processo,
não obstante a degradação de variabilidade, ou seja, dois grupos que sejam agregados
num dado passo (aglomerativo) nunca mais são separados em passos subsequentes,
ou dois grupos que sejam separados (divisivo) nunca mais são agregados.
Os métodos não hierárquicos são preferíveis. No entanto, devido à sua complexidade,
têm dois problemas associados:
- A sua inicialização (escolha de sementes);
- Definição a priori do nº de clusters.
Não se aprofundou a questão das sementes, tomando-se a opção escolhida por defeito
pelo Statsoft Statistica, que consiste no ordenamento das distâncias das observações e
selecção de sementes em intervalos regulares, de forma a maximizar a distância inicial
entre grupos. As várias opções possíveis introduziriam um acréscimo de subjectividade
desnecessário que não justificaria o dispêndio de recursos. A definição do número de
clusters é resolvida com uma solução de compromisso. Um método hierárquico fornece
no seu output uma aproximação para o número de clusters a definir. A determinação
deste número consiste em considerar os clusters formados até se observar um salto no
dendograma (representação gráfica da distância entre clusters), salto esse que
corresponde a um aumento brusco da distância entre pontos médios dos clusters (ou
seja, indicador de forte distinção entre clusters que seriam unidos). Seguidamente, um
método não hierárquico optimiza a composição desse número de clusters. Existem
vários métodos, sendo que para este estudo se escolheu o método Ward, como
hierárquico, pois facilita a leitura visual dos grupos no dendograma, e o método K-
Means, como não hierárquico. [9]. A equação rege o modelo K-Means é:
= ( ) (2.8)
=> (2.9)
17
onde,
- Média do grupo j;
- Média de X para toda a amostra;
iv) Análise e validação de resultados: A ênfase da análise deve ser colocada nas
características que diferem significativamente de cluster para cluster. Deve ser traçado
um perfil de cada cluster com base no centróide respectivo, calculado através das
médias das variáveis integrantes no conjunto de elementos pertencentes a cada
cluster. Posteriormente, os resultados obtidos devem ser criticados com adequação e
razoabilidade. Para tal, é desejável que os clusters resultantes do método de
construção sejam susceptíveis de interpretação e explicação intuitiva, de carácter
holístico; que possam ser comparados com expectativas apriorísticas baseadas em
teorias ou experiência prática (quando existam).
A validação do modelo representa a tentativa de assegurarmos que a solução dos
clusters é representativa da população, logo generalizável e estável no tempo. No
entanto, esta é baseada não só em considerações objectivas mas também subjectivas,
uma vez que este tipo de análise classificatória não prevê testes de significância. Deste
modo, há que considerar esta característica e avaliar o impacto da decisão tomada.
Neste contexto, deve ser dada especial atenção à eliminação de outliers na
constituição dos grupos. Estes são detectáveis nos dendogramas quando
marcadamente existe um cluster com elevada distância de ligação ao próximo cluster,
composto por um número relativamente reduzido de elementos. Os outliers são
elimináveis com uma nova iteração, retirando-os do conjunto de elementos a formar
grupos. Por conseguinte, os dendogramas resultantes são mais equilibrados.
Em [4] p. 501, são listados vários critérios de validação. O critério escolhido foi a
comparação da solução de clusters para amostras independentes, uma vez que
existem disponíveis amostras (séries cronológicas) de distintas vias principais
lisboetas. Este critério é moroso mas é o mais directo. Se a constituição dos clusters for
estável no conjunto de dias da amostra que formam cada grupo, considera-se válida a
solução.
Neste processo inclui-se a solução obtida tanto com as variáveis originais como com as
componentes principais. Na apreciação intermédia é possível que se conclua que a
solução é estável nos dois cenários e que a clarificação adicional que as componentes
principais possam obter não é relevante. Neste caso, não será necessário incluir estes
resultados na validação final dos clusters formados pelo método K-Means.
18
2.3 TESTE DE KOLMOGOROV – SMIRNOV
A utilização de testes não – paramétricos de qualidade de ajuste entre duas amostras
independentes, é fundamental neste estudo para avaliar o ajuste de diagramas de fluxo de vias
que se pretende analisar, ao diagrama padrão obtido anteriormente.
A génese da escolha de um teste de ajustamento não – paramétrico baseia-se em conceitos já
introduzidos que se fundamentam no seguinte: o tráfego rodoviário que passa numa via ao longo
de um período de tempo é entendido como uma série temporal que pode ser modelada com base
em conceitos estocásticos. Deste modo, tomando como intervalo temporal as 24 horas de um dia,
as várias contagens horárias de veículos são consideradas como frequências. No total do dia, a
curva que se obtém é uma função de distribuição amostral. Para aplicação destes testes é
necessário cumprir o pressuposto de que as amostras sejam independentes.
Se houver uma deslocação espacial na recolha das amostras, ou seja, teste da qualidade de
ajustamento entre vias distintas ou secções de via suficientemente afastadas para que a influência
de uma sobre a outra não seja significativa, é evidente que existe independência estatística nas
amostras. Se houver apenas uma deslocação temporal, sendo ambas as amostras recolhidas da
mesma secção, admite-se que as amostras entre dias diferentes são independentes. È válido este
pressuposto pois é característico do tráfego rodoviário existir um período de tempo de “reset do
sistema”, ou seja, as medições do número de veículos numa via durante a madrugada são muito
inferiores à média do dia anterior e do dia seguinte, podendo ser consideradas residuais, o que
significa que qualquer Congestionamento do dia anterior não tem continuidade para o dia
seguinte, eliminando as dependências entre medições de com uma a duas horas de
desfasamento.
A importância neste estudo de um teste de qualidade de ajustamento, não paramétrico, entre uma
amostra recolhida num dia e local que se pretende analisar e uma distribuição padrão ou diagrama
de fluxo padrão, é fundamental, pois poderá ser possível prever fluxos e até o comportamento do
tráfego a partir de uma curva modelo teórica. Os testes mais utilizados são o Teste do Qui –
Quadrado e o Teste de Kolmogorov – Smirnov, não só pela qualidade da sua formulação mas
também pela sua simplicidade, o que os tornou os mais populares. Para este estudo interessa
apenas fazer uma apresentação dos conteúdos do Teste de Kolmogorov – Smirnov, uma vez que
foi o teste escolhido por, após algumas análises exploratórias, se adequar melhor às
características dos dados e dos diagramas de fluxos rodoviários em estudo. [9
O teste de KS para duas amostras é um dos testes não paramétricos mais úteis, pois tem a
característica particular de ser sensível não só às diferenças locais entre as distribuições
cumulativas empíricas, mas também à diferença de forma das duas distribuições.
19
Em termos comparativos com, por exemplo o teste do Qui – Quadrado, o teste de KS é, na
maioria das situações, tanto mais potente e mais adequado quanto menor for a dimensão da
amostra. Verificou-se inicialmente neste estudo que, para testar a qualidade do ajuste dos
diagramas, o teste do Qui – Quadrado não é de facto adequado, porque se baseia nas diferenças
das frequências das funções de distribuição. O inconveniente é que se os dados das contagens de
tráfego estiverem transformados (em percentagem da média semanal para retirar a sazonalidade
semanal como exposto anteriormente) as diferenças são mínimas e o teste perde potência, não
tendo sensibilidade a diferenças relevantes nos diagramas que numa análise simples e directa de
um gráfico mostrariam de forma evidente o não ajustamento.
Existem duas variantes do teste de Kolmogorov – Smirnov [11], mas a adequada para este estudo
é a segunda:
Ajuste entre a função distribuição amostral S (x) e a função distribuição populacional F0 (x)
, que em geral será a distribuição normal ou uniforme;
Ajuste entre duas amostras aleatórias independentes, FA (x) e FB (x).
2.3.1. FORMULAÇÃO
i) As hipóteses nulas e alternativas são formuladas nos seguintes termos [9]:
H0 : FA (x) = FB (x) para todo o x
H1 : FA (x) FB (x)
ii) Uma vez determinadas as funções distribuições amostrais, SA (x) e SB (x), calcula-se a
estatística de teste D´, tal que:
ET = D´= max | SA (x) – SB (x) |
iii) Uma vez especificado o nível de significância do teste, o valor obtido para D´ é
comparado com o respectivo valor crítico e, em função do resultado, H0 é ou não
rejeitada.
D´ < D´( = 0,05 e.g.) => H0 não é rejeitada
Os níveis usuais de significância utilizados são de 20%, 10%, 5%, 2 % e 1%. É importante
salientar que a escolha do nível de significância não é irrelevante e que no caso do teste de KS é
muito importante. Sendo H0 : FA (x) = FB (x) para todo o x, a noção de exigência para este teste é
diferente do que por exemplo para um teste de Fisher para uma Análise de Variabilidade, ANOVA,
numa regressão. De facto, escolhendo um pequeno, o teste é muito significativo, sendo muito
reduzida a probabilidade de cometer erros Tipo I.
20
Para este teste, é mais importante a sua potência do que a significância, ou seja, que a
probabilidade de cometer erro Tipo II não seja elevada. Quando se testa neste estudo o ajuste
entre diagramas de fluxo ou séries temporais de contagens de veículos, que se detectou a priori,
por uma análise simples dos diagramas, serem semelhantes, com pequeno, o teste além de ter
pouca potência, tem pouca sensibilidade, ou seja, não tem o refinamento necessário para detectar
as diferenças que são mais reduzidas.5
Posto isto, sendo certo que o desejável é um equilíbrio entre significância e potência, a noção de
exigência estará em escolher um valor de mais elevado, beneficiando a potência do teste, pois
reduz a probabilidade de se aceitar a hipótese nula quando ela é falsa.
Na Fig. 2.1 expõem-se, a título de
exemplo, para aplicação futura, os
Outputs sequenciais de um caso de
aplicação do teste de KS a duas amostras
independentes. [11]
Os testes de KS às séries temporais
recolhidas para este estudo, foram
aplicados com base em MACROS
desenvolvidas em VBA na aplicação
informática MS EXCEL, sendo que,
apenas se apresentam os valores
relevantes para a análise.
5 Um erro do Tipo I é aquele que se comete quando se rejeita a hipótese nula por ela ser falsa quando defacto é verdadeira. A probabilidade desse erro é o nível de significância e o teste é tanto mais significativoquanto mais reduzida for essa probabilidade. Um erro do Tipo II é aquele que se comete quando se aceita ahipótese nula por ela ser verdadeira quando de facto é falsa. A probabilidade de cometer esse erro é apotência do teste e o teste é tanto mais potente quanto menor for essa probabilidade. Não é possível ter aomesmo tempo um teste muito significativo e muito potente pois quando uma probabilidade aumenta a outradiminui. O desejável é manter um equilíbrio de compromisso das duas probabilidades.
Fig. 2.1 - Exemplo do teste de KS a duasamostras independentes [11]
21
2.4 MODELAÇÃO DE SÉRIES CRONOLÓGICAS
Uma série cronológica é um processo composto de sucessivas observações no tempo
dependentes entre si. Sendo as observações tomadas em intervalos de tempo igualmente
espaçados, a série é designada de discreta e amostrada, mesmo que a variável mensurável seja
contínua. Esta dependência no tempo das sucessivas observações permite que valores passados
sejam bons estimadores de valores futuros. Contudo, esta dependência não é total, pois existe
uma componente aleatória que torna impossíveis previsões exactas. Neste sentido, a maior parte
das séries não são determinísticas mas estocásticas. O objectivo da modelação é representar o
máximo da variância de uma variável através da sua componente determinística, reduzindo o mais
possível a variabilidade contida na componente estocástica, por limitação da magnitude dos
desvios da previsão em relação aos valores reais.
Matematicamente, um processo estocástico é um conjunto de variáveis aleatórias ordenadas no
tempo, { ( ) } onde T é o conjunto de pontos nos quais o processo é definido. Este processo
é caracterizável pelos seus momentos fundamentais:
Função Média: ( ) = { }
Função Variância: ( ) = {[ ( )] }
Como referido anteriormente, o fundamental é determinar se existe ou não dependência no tempo
das várias observações, para se adaptar a modelação da série de acordo com essa informação. A
ferramenta essencial para determinar a independência entre variáveis aleatórias é a covariância.
Aplicando este conceito apenas a uma variável aleatória, mas com desfasamento temporal k,
define-se a função autocovariância:
Função Autocovariância: ( , ) = {[ ( )][ ( )]}
A função autocovariância é a base para um conceito mais geral, que se pretende confirmar, que é
o conceito de estacionariedade. Para se fazerem inferências estatísticas sobre um processo,
tendo por base uma realização desse processo, é necessário fazer pressupostos sobre a sua
estrutura, ou seja, sobre a sua estacionariedade. [5], [10]
2.4.1. ESTACIONARIEDADE
Um processo estacionário é aquele para o qual o mecanismo aleatório que o produz não varia
com o tempo. Se a distribuição de é a mesma que a distribuição de , para todos os
possíveis t e todos os possíveis desfasamentos k, então o processo é estritamente estacionário.
Se apenas forem feitos pressupostos de não variabilidade acerca dos momentos de 1ª e 2ª ordem,
o processo designa-se de fracamente estacionário. Em geral, quando se refere um processo
estacionário, refere-se a fracamente estacionário, que se caracteriza por:
22
A sua média (finita) e a sua variância (finita) não variam no tempo:
( ) = ( ) =
A função (auto) covariância é somente função do desfasamento k entre as variáveis e não
depende do instante de partida, ou seja a função autocovariância deve ter a mesma forma
para diferentes segmentos da série:
= [( )( )]
A partir da função autocovariância define-se a função autocorrelação, , como sendo a
autocovariância dividida pela sua variância,
=
Valores de próximos de 1 significam forte dependência linear e valores próximos de 0
significam fraca dependência entre valores desfasados de k instantes no tempo. A
representação de em função de k designa-se por correlograma.
Um processo que além de ser estacionário em média e variância é estacionário em covariância,
com = 0, é um processo estocástico fundamental ou processo de ruído branco.
Se neste processo de ruído branco, as estimativas de autocorrelação seguem uma distribuição
Normal, com média e desvio padrão 1 , verificando-se que 0 quando , as
estimativas de autocorrelação situam-se no intervalo ± 2 , para um intervalo de confiança definido
a 95%.
Deste modo, após a análise dos correlogramas, o que se pretende identificar é se os valores de
autocorrelação estão contidos no intervalo ± 2 , , e deste modo concluir, ou não, se os valores em
análise são independentes entre si, e portanto o resíduo final é um processo de ruído branco.
[5],[10]
2.4.2. SÉRIES CRONOLOGICAS
A abordagem frequencista da modelação das séries cronológicas aplica-se à exploração de
padrões cíclicos nos dados utilizando, por um lado, técnicas estatísticas e por outro, as técnicas
de análise de Fourier, com as devidas adaptações para que seja possível aplicá-las a funções
estatísticas em vez de determinísticas. Este conjunto de técnicas que permite realizar esta
abordagem designa-se por análise espectral.
Um dos objectivos fundamentais da análise espectral é pesquisar a partir de uma realização do
processo, o número de ciclos significativos e as respectivas frequências. Este objectivo é
23
alcançável através da aplicação do periodograma. O periodograma constitui uma estimativa dos
valores da função de densidade espectral. A função densidade espectral é a função análoga da
função densidade de probabilidade no domínio da frequência. Posto isto, a questão coloca-se em
passar do domínio do tempo para o domínio da frequência, estimando a função densidade
espectral com base na série cronológica definida no tempo.
Para tal, é essencial o teorema da decomposição espectral de Wold, que estipula que qualquer
processo estocástico discreto estacionário pode ser descrito como a soma de dois processos não
correlacionados, um determinístico e outro não determinístico, ou seja, pode-se decompor a
energia ou variância de qualquer série cronológica na contribuição das variáveis de oscilações de
diferentes frequências, oscilações essas estatisticamente independentes. O gráfico da variância
associada a todas as frequências é chamado de função de distribuição espectral ( ) (análoga à
função cumulativa de distribuição) cuja derivação resulta na chamada função densidade espectral
( ) (análoga à função densidade de probabilidade). A passagem necessária do domínio do
tempo para o domínio da frequência, é feita através da aplicação do teorema de Wiener –
Khintchine, que utiliza a Transformada de Fourier. Esta transformação estima a pretendida função
densidade espectral, a partir das estimativas usuais das funções de autocovariância (obtidas a
partir da série cronológica). [5]
2.4.3. GENERALIZAÇÃO
A análise de Fourier refere-se ao estudo de funções contínuas periódicas no domínio da
frequência. Assume que elas se repetem infinitamente fora do conhecido intervalo de análise.
O modelo de Fourier, na sua forma harmónica, de uma série de período T, é o seguinte [8]:
= + cos + , (2.10)
=2
= 0,1, … ,
onde,
- Frequência angular [rad/s];
- Amplitude da harmónica ( + );
- Valor médio da série;
- Ângulo de fase;
As componentes a considerar são as de frequência , que se verificarem ser múltiplas da
componente fundamental da função que se pretende decompor em série de Fourier.
24
Sucessivas generalizações permitem a aplicação da análise de Fourier a séries discretas, finitas,
periódicas ou não. A generalização desta teoria, de modo a permitir a análise no domínio da
frequência de séries estocásticas estacionárias, assenta nos dois pressupostos seguintes:
i) As amplitudes das sinusoidais sejam consideradas variáveis aleatórias não
correlacionadas, portanto estatisticamente independentes, de média nula, e que sejam
consideradas variáveis aleatórias seguindo uma distribuição uniforme no intervalo [0, 2 ],
sendo o seu valor fixo para uma dada realização do processo;
É importante referir neste ponto que o conceito de ciclos determinísticos, utilizado para
definir o modelo teórico de decomposição da série cronológica, deve ser entendido como
a existência de uma tendência para movimentos oscilatórios, e não de ciclos com
periodicidades ou frequências regulares. Se fossem tomadas repetidas séries de N
observações, constituindo cada uma delas uma possível realização do processo
estacionário estocástico, seria possível encontrar diferentes parâmetros de amplitude e
frequência e proceder à estimativa dos seus valores;
ii) Apenas é possível aplicar a teoria a processos estacionários se for generalizada a noção
de ortogonalidade, ou seja, o que em termos estatísticos se designa de correlação nula ou
independência. A generalização consiste em admitir que a série será aproximada através
de harmónicas da componente ou componentes fundamentais, que se conhece a priori
existirem na série. Garante-se deste modo a condição de ortogonalidade/independência
em termos estatísticos, definida no teorema de Wold.
O modelo seguinte está reescrito de outra forma mas as previsões que se obtêm têm o mesmo
valor que as obtidas com a forma harmónica. É o modelo mais comum e utilizado pelo software
Statsoft Statistica para devolver os outputs necessários ao cálculo dos resíduos. Considere-se a
série cronológica discreta constituída por N observações { } = 1, … , . O modelo obtido por
aproximação de Fourier à série com um número impar de observações, = 2 + 1 será:
= 2 + cos + sin , (2.11)
2;
= 2
onde,
=2
;
=2
;
25
em que representa a média da série e os parâmetros são estimados pelo método dos
mínimos quadrados e representam a covariância da série. A definição do intervalo de frequência
angular baseia-se no seguinte:
Neste modelo, a frequência mais baixa que pode existir corresponde ao ciclo que se
completa no período = observações –> = 1 ;
A frequência mais elevada corresponde ao ciclo que se completa em segundas
observações e é dita de frequência Nyquist –> = 12.
Então, as componentes a considerar correspondem às frequências múltiplas da frequência mais
(baixa) que se pode encontrar, até se atingir a frequência mais elevada
= = 1,2, … , 2(2.12)
( 2 )
2.4.4. PERIODOGRAMA
Define-se periodograma como:
( ) = 2[ ( ) + ( )] , (2.13)
onde,
( ) =2
cos( ) ;
( ) =2
sin( t) ;
O cálculo do periodograma, apesar de ser definido no intervalo contínuo de frequências
, na prática o software faz o cálculo para o conjunto finito de frequências definidas
anteriormente. Deste modo, as frequências ensaiadas podem ou não coincidir com uma
frequência efectivamente pertencente à série, de onde resultam duas situações distintas que
permitem analisar o periodograma e retirar conclusões:
i) A frequência ensaiada coincide com uma frequência efectiva da série:
Existe um ciclo determinístico ao qual corresponde uma linha de espectro. A sua
amplitude aumenta com o número de observações. O periodograma representa para essa
26
frequência a porção da energia ou variância da série a ela associada (variância essa
proporcional ao quadrado da amplitude nessa frequência). Pode-se assim relacionar a
amplitude do periodograma com a energia ou variância da série, ou seja, uma amplitude
elevada no periodograma significa que a frequência associada retira uma porção
significativa da variância da série. Um teste confirmatório consiste em obter o
periodograma em duas situações, usando numa por exemplo metade da amostra,
verificando se a sua amplitude se alterou sensivelmente na mesma proporção;
= 2 + + 2 (2.14)
ii) A frequência ensaiada não coincide com uma frequência efectiva da série:
O periodograma mostra amplitudes elevadas em intervalos de frequências, em vez de
linhas de espectro. Para a variância do processo contribui, não a variância associada a
uma ou outra frequência, mas sim toda a variância de uma banda ou intervalo de
frequências. Neste caso, o periodograma falha nas estimativas que faz da função de
densidade espectral.
= 2 (2.15)
2.4.5. TESTE DE SIGNIFICÂNCIA
Dado que se assumiu o resíduo como variável e não correlacionado, e são
estatisticamente independentes e normais. Assim sendo, as ordenadas do periodograma seguem
uma distribuição Chi-Quadrado com dois graus de liberdade,
( )= ( ) + ( ) ( ) = 1,2, … 2
(2.16)
O teste de significância tem como hipótese nula a de que o periodograma foi calculado para uma
série de ruído branco, portanto não contém uma componente determinística. A estatística de teste
é a de Whitlle (generalização de Fisher) e a hipótese nula é rejeitada se a probabilidade de obter
um pico, a partir de qualquer outra realização, for muito pequena (inferior ao nível de significância).
Dito de outra forma, se não é provável que haja picos de ordenada superior no periodograma, a
série não é uma série de ruído branco mas uma série com componente periódica, onde as
frequências correspondentes são as que retiram grande parte da variabilidade presente na série.
O nível de significância preconizado é de 5%.
27
= , = 0 (2.17)
{ > }2
( ) < 5% => => é
Prova-se [5] que, analisando os primeiros momentos da função densidade espectral, estimada
pelo periodograma, este é um estimador centrado mas não consistente, pois a variância das suas
estimativas não tende para zero quando o número de observações aumenta. Ou seja, o número
de frequências diferentes das harmónicas básicas aumenta, reduzindo o significado dos
resultados. Para se evitar este facto, devem-se tomar apenas números de observações da série
múltiplos de periodicidades que são evidentes existirem na série e.g. 24 horas, tornando-se assim
não periódicos os sinais dessas frequências e deixando de aparecer no espectro de frequências.
São considerados como ruído e alisados.
2.5 ESTUDO DO CONGESTIONAMENTO
2.4.6. EFICIÊNCIA
Com o U.S. Highway Capacity Manual de 2000, foi dada continuidade à base standard de análise
das qualidades do tráfego rodoviário, cujo conceito teve a sua origem com o HCM de 1965. Dos
aspectos importantes referidos no HCM, os que são alvo de reflexão e reavaliação são os
seguintes:
A capacidade e qualidade do fluxo de tráfego são analisadas para uma hora de pico
específica, dentro da qual são considerados intervalos de pico (e.g. 15 minutos);
A qualidade do tráfego durante estes períodos de uma hora é classificada em um de seis
Níveis de Serviço6;
A classificação Nível de Serviço baseia-se numa ou mais Medidas de Eficiência , tal como
a velocidade média de viagem. Uma Medida de Eficiência incorpora aspectos decisivos da
qualidade do tráfego, devendo usualmente reflectir uma medida de tempo, tal como a
duração ou atraso de viagem.
A definição dos valores das Medidas de Eficiência que determinam os limites entre Níveis de
Serviço sucessivos depende de um consenso entre os especialistas na área, não existindo uma
medida objectiva para definir esses limites. Isto é particularmente problemático quando se
6 Este conceito é estritamente atribuído a curtos intervalos de tempo (1 hora)
28
pretende discriminar entre Níveis de Serviço inferiores, e.g. entre D (suficiente), E (em
capacidade) e F (saturado). [10]
Incidir o estudo sobre estes conceitos é muito útil, pois as novas abordagens desenvolvidas
podem beneficiar a adaptação às necessidades do desenvolvimento, tais como:
Explorar ao máximo a capacidade das estruturas existentes, pois os graus de liberdade
para expandir as AE ou vias municipais estão limitados por restrições financeiras,
ambientais, ordenamento do território;
A previsível saturação das AE, que à semelhança do que já acontece nas áreas
metropolitanas, é esperado que ocorra em mais secções e por períodos de tempo mais
alargados.
Este último aspecto evidencia a necessidade que existe de detalhar de um modo analítico mais
rigoroso o Nível de Serviço F (saturado). Tem sido debatida a partição deste nível de serviço em
sub-níveis de modo a diferenciar diferentes níveis de saturação. No entanto, é difícil de alcançar
consenso nesta matéria, pois o Nível de Serviço F contínua a ser definido sobre análise temporal
de uma hora em particular, quando o grau de congestionamento não é apenas função do tempo
de medição mas também da procura em períodos seguintes, para além do impacto negativo na
capacidade da via para montante até ao restabelecimento da circulação.
Estas questões urgem uma perspectiva diferente de gerir o congestionamento, que considere
outros aspectos para além da análise baseada numa hora de observação. [12]
Os parâmetros tradicionais para descrever o fluxo de tráfego numa secção de uma AE, para um
curto intervalo de tempo (1 hora) são:
q – volume de tráfego [veic/h], medida da procura de tráfego;
c – capacidade [veic/h], fluxo máximo que é possível atravessar uma secção;
Vt – velocidade média de viagem [km/h];
k – densidade de tráfego [veic/km];
= (2.18)
A classificação de um fluxo de tráfego segundo um Nível de Serviço baseia-se fundamentalmente
na velocidade. Quando este parâmetro não é eficaz para distinguir o espectro de condições
conhecidas do tráfego, desde uma estrada vazia até em capacidade, a densidade é a medida de
eficiência mais adequada para definir o Nível de Serviço. Contudo, como foi referido, existe pouco
29
rigor analítico na definição dos limites entre Nível de Serviço D e E.
A seguir expõe - se uma nova abordagem [12] que permita distinguir objectivamente níveis de
serviço semelhantes no limiar da saturação. As pequenas diferenças que se possam distinguir
nestes níveis de serviço são importantes para aferir a performance de uma secção.
A Tabela 3.2 resume o
conceito de eficiência de
tráfego, medida de
potência, tratando os fluxos
de transporte de modo
análogo ao que acontece
nos sistemas mecânicos.
Aplicando o contexto da análise de mecânica de sistemas ao fluxo de tráfego, a grandeza força é
substituída por veículo ou unidade de transporte e tem-se que:
= . (2.19)
= . (2.20)
=.
(2.21)
= . . (2.22)
onde,
M – nº de veículos [veic];
S – extensão do percurso em análise [km];
q – fluxo de procura [veic/h];
Vt – velocidade média [km/h];
T – período de tempo considerado [h];
E (veic.km / h) representa o número de veículos quilómetro que são produzidos pela secção da AE
por unidade de tempo. Esta formulação faz depender a eficiência do produto entre a capacidade
da secção e a velocidade média do tráfego na secção (Equação 20). Se o interesse estiver em
definir a eficiência em função da procura, é necessário estabelecer Vt = F (q). Existem várias
formulações para esta relação, contudo são aproximações da curva fundamental. Portanto, caso
se pretenda obter valores realistas de E, tem de se basear a relação velocidade – fluxo em
observações recolhidas no terreno.
Fig. 2.2 – Eficiência: definição [12]
30
A Fig. 2.3 (esquerda) representa um exemplo da curva E em função do fluxo de procura,
comparando a sua evolução com a curva da velocidade. As curvas aplicam-se a uma AE de três
pistas/sentido, para uma Velocidade de Escoamento Livre, de 120 km/h, referente a dados
publicados no HCM (2000). A Fig. 2.3 (direita) representa um segmento de AE com três pistas
numa direcção contendo 20% de tráfego de pesados. [12]
Fig. 2.3 - Eficiência: exemplo para AE 3 pistas/sentido [12]
Observa-se para este exemplo que a eficiência máxima da secção é atingida a 90% da
capacidade. A relevância de determinar este máximo está em estabelecer um limite que beneficie
a eficiência de exploração da via, por exemplo, numa AE com portagem. A receita directa das
portagens é proporcional ao número de veic.km produzidos pela AE ou seja não há vantagens
económicas em se ultrapassar o limiar de capacidade da AE correspondente a Emáx.
Deste modo, para efeitos de planeamento e controlo, qE = Max constitui uma fronteira entre Nível de
Serviço D e E.
A Fig. 2.4 (esquerda) ilustra a mesma dependência para uma estrada rural de uma pista/sentido,
baseada na Equação 20-5 do HCM (2000)7, sendo linear a relação entre Vt e q. A Fig. 2.4 (direita)
representa também uma AE rural de duas pistas/sentido, aplicando uma relação Alemã HBS do
tipo Vt = F (q) = a – b q, que representa 10% de tráfego pesado.
Fig. 2.4 - Eficiência: exemplo de estrada rural de uma pista/sentido (esquerda); Exemplo de AE rural de duas pistas/sentido (direita) [12]
7 ATS (Velocidade Média de Viagem) = FFS (Free Flow Speed) – 0,0125 Vp - fnp,
31
Desta comparação surgem alguns aspectos importantes. A eficiência é uma grandeza que varia
conforme a geometria da secção em estudo, localização da via e tipo de tráfego que a atravessa.
Estas figuras evidenciam que a eficiência máxima com fluxo de tráfego abaixo do limite de
capacidade da via c, apenas é atingida se a curva Vt = F(q) é convexa, situação que é corrente
para AE mas não para estradas de uma pista/sentido ou de uma pista única.
2.5.1. EFICIÊNCIA EM INTERSECÇÕES
De forma análoga, define-se eficiência E para uma intersecção do seguinte modo:
= .3600
. (2.23)
onde,
E – eficiência da operação de intersecção [veic/h];
q – fluxo de procura [veic/h];
T – período de tempo considerado, e.g. 1 hora [h];
D – atraso total por veículo = F (q,c) [s];
c – capacidade [veic/h];
Uma vez que para uma intersecção, S = 0 originando a expressão acima, a grandeza E tem
unidades de fluxo mas com significado completamente diferente. O atraso total por veículo é
calculado pela Equação (3.24), uma transcrição da equação 17-38 do HCM (2000).
=3600
,+ 900
,1 +
,1 +
3600. ,
450 + 5 (2.24)
onde, – Atraso [s]
, – Capacidade [veic/h.pista] - Fluxo de procura [veic/h.pista] – Período de análise [1 hora]
A Fig. 2.5 compara intersecções não semaforizadas, correspondendo o gráfico esquerdo a uma
intersecção de c = 400 veic/h e o da direita a c = 600 veic/h.
32
Fig. 2.5 - Eficiência: exemplo de intersecção não sinalizada [12]
Em ambas as situações, qE = Max corresponde a 60 % da capacidade c. Este é um facto comum
quando se relaciona o atraso numa intersecção com a sua eficiência.
Dos factos ressaltam dois princípios desta relação entre E e D para intersecções:
qE = Max não corresponde a um limite adequado para definição de um limite de separação
entre Nível de Serviço D e E;
DE = Max consiste num valor de referência de tempo de atraso por veículo, acima do qual os
custos associados tornam-se significativos.
2.5.2. ANÁLISE DE ANO COMPLETO
A análise do tráfego de um ou vários anos completos, numa determinada secção, é muito
importante para o planeamento e projecto de uma rede viária. Caso se disponha de contadores
fixos em diferentes locais, a Análise de Ano Completo permite comparar custos de construção,
manutenção e de operação das várias alternativas. Esta comparação permite determinar se a
construção de uma nova via se justifica e quais as características geométricas e funcionais que
produzem a melhor relação custo/benefício. Fundamentalmente, esta análise baseia-se no tráfego
médio, e.g. diário e/ou anual, obtido não apenas com base em intervalos de medições de 15
minutos, convertidos para uma hora e corrigidos de um Factor de Ponta Horário (FPH), mas com
base no número real de veículos detectados durante o total de cada hora.
Uma das críticas que se colocava a este método era a que de necessitava de material informático
com grandes capacidades de cálculo. Actualmente, esse problema não é real podendo ser feita a
análise num computador portátil. Outra questão está relacionada com os custos de instalação dos
contadores fixos e o tratamento dos dados. Este é um problema real portanto a implementação de
uma análise deste género deverá ser antecedida pelo processo exposto no fluxograma da página
7, de modo a que haja eficiência no controlo de custos. Assim sendo, a Análise de Ano Completo
consiste numa base sólida da qual pode decorrer por exemplo o cálculo da eficiência, a escolha de
rota dinâmica e porventura a geração de viagens, estudos de impacto ambiental relativos a
consumo de combustível e emissões.
33
Para este estudo, é relevante apenas salientar a relação da desta análise com o conceito de Nível
de Serviço. Os resultados de uma análise de ano completo não são utilizados para comparações
directas com os resultados do Nível de Serviço, mas para suporte dos mesmos. O objectivo não é
eliminar as análises de hora de ponta mas produzir uma medida de aferição da performance do
fluxo de tráfego mais sólida. O cálculo da eficiência é mais rigoroso tendo por base uma escala
temporal micro, que pode ser definida por exemplo ao minuto, 5 minutos ou 15 minutos, do que se
tiver por base medições numa escala mais macro, nomeadamente a hora. Deste modo, o estudo
dos níveis de serviço em saturação é mais extenso e robusto pois assimila um maior número de
ocorrências. Consequentemente é possível caracterizar com mais rigor os diferentes níveis de
saturação no que diz respeito à dimensão das filas de espera, duração de congestionamentos, e
tempos de atraso máximo e acumulado. [12]
2.5.3. ESTUDO DA PROBABILIDADE DE ROTURA
O termo capacidade na área dos transportes tem um papel muito importante, uma vez que é
aplicado no planeamento, projecto e gestão operacional. A versão de 2000 do HCM [13], define a
capacidade como sendo o máximo fluxo, durante um período de 15 minutos, expresso em
veículos/h.pista que pode ser suportado por um segmento de via, segundo condições de tráfego e
de via padrão.
Implícito na definição e compreensão corrente do conceito de capacidade está a noção de que
ocorre uma rotura de escoamento, transição de um estado de Escoamento Livre para um estado
de Congestionamento, quando a procura excede o valor da capacidade. Ou seja, a capacidade é
correntemente definida como um fenómeno determinístico. Contudo, investigação recente
dedicada ao estudo do Congestionamento tem sugerido causas específicas e tem examinado as
suas características. Tem-se tornado evidente que este não ocorre necessariamente no valor
máximo de fluxo, podendo ocorrer para fluxos inferiores ou superiores aos tradicionalmente
aceites para a capacidade. Como tal, estudos recentes têm sugerido que a passagem ao estado
de Congestionamento é um fenómeno estocástico, em que estão associadas probabilidades de
rotura a valores de fluxo específicos, mas as análises de suporte ainda são limitadas. Esta nova
abordagem complementa a actual noção de capacidade, introduzindo uma componente
probabilística na definição corrente do HCM.
Verifica-se [14] que pequenas perturbações ocorrem várias vezes mas nem sempre resultam num
Congestionamento, sendo simplesmente absorvidas pelo fluxo. Sendo que o tráfego, na maior
parte das situações, recupera de pequenas perturbações, apenas as perturbações que causam
uma queda na velocidade média do fluxo para valores inferiores a 80 km/h, para períodos de
contagem de 15 minutos ou mais, são consideradas verdadeiras roturas. O mesmo critério aplica-
se para períodos de recuperação, ou seja os períodos em que efectivamente o fluxo apresenta
velocidades acima dos 80 km/h para períodos superiores a cinco minutos. Na realidade, o critério
34
dos 15 minutos é usado apenas em caso de dúvida pois, segundo [12], na maioria dos casos as
perturbações ou têm durações da ordem de 1 a 2 minutos ou atingem durações superiores a uma
hora. Relativamente à definição do fluxo de rotura, este corresponde ao fluxo observado
imediatamente antes ao Congestionamento, ou seja imediatamente antes à quebra de velocidade
para valores inferiores a 80 km/h.
O objectivo do estudo do Congestionamento é o de determinar como varia a probabilidade de
rotura com o maior ou menor fluxo de tráfego. Deste modo poder-se-á definir de modo diferente o
termo capacidade, incorporando a componente do risco. Por exemplo, para definir a capacidade
de uma via em particular, seria dito que “ a capacidade da 2ª Circular é de 2400 veic/h.pista para
um fluxo constante de 15 minutos que tem uma probabilidade de 26 % de originar um
Congestionamento”.Assim definida a capacidade para uma dada via, esta pode tomar um intervalo
de valores dependendo da política de gestão e objectivos da entidade gestora do sistema viário
em que se insere a via.
Neste sentido, a capacidade de uma via pode ser entendida como uma capacidade prática,
variando segundo o que gestor de rede considera ser um nível de risco tolerável, numa dada
altura.
Na Fig. 2.6 apresenta-se um exemplo retirado da bibliografia correspondente a uma análise da
probabilidade de rotura que origina um Congestionamento. Analisando a curva referente ao
intervalo de 15 minutos, verifica-se que, para a via analisada nesse estudo, atinge-se a
probabilidade de rotura cresce significativamente para uma capacidade de 2100 veic/h.pista. Ou
seja, para definir a capacidade da via seria dito que esta é de 2100 veic/h.pista, para um fluxo
constante de 15 minutos, que tem uma probabilidade de 20 % de originar um Congestionamento.
Fig. 2.6 - Probabilidade de rotura vs fluxo observado [14]
35
2.5.4. ATRASO Vs VALOR DO TEMPO
“Understanding travel demand is nearly like understanding life itself”. [15]
Em geral, as pessoas preferem usar o seu tempo em casa, no trabalho ou em outra actividade do
que em viagens pendulares dentro de um autocarro ou carro. Portanto, os viajantes gostariam de
reduzir o tempo de viagem para uma dada deslocação.
Verifica-se que existe uma vontade de pagar por uma redução no tempo de viagem, que tem um
cariz comportamental que parece mais uma consequência de um problema geral de alocação de
tempo ao invés de uma decisão isolada. Por outro lado, a realocação individual do tempo de
viagem a outra actividade tem também um valor para a sociedade, não só porque a produção
pode subir mas também porque um indivíduo está melhor assim e isso importa socialmente. Isto
implica que alterações no sistema de transportes que levem a reduções no tempo de viagem
geram reacções que são importantes de compreender de um ponto de vista comportamental e de
aumento do bem-estar social, que tem de ser quantificado na apreciação de projectos sociais.
Também deverá ser parte integrante desta apreciação o impacto/retorno que as reduções nos
tempos de viagem têm sobre o mesmo sistema de transportes. Repare-se que se por um lado há
ganhos inicias de bem-estar social e de qualidade de vida por serem possíveis deslocações mais
rápidas, por outro lado há o efeito de tráfego induzido. A redução nos tempos de viagem gera uma
procura adicional que no cenário anterior não tinha utilidade suficiente para se deslocar.
Em geral, realocação do tempo de uma actividade a outra que é mais agradável tem sem dúvida
um valor para o indivíduo. Este tema vem sendo explorado há mais de 30 anos, portanto vários
conceitos sobre o valor do tempo emergiram, dependendo de como um período de tempo é
considerado: como um recurso valioso, se algo que pode ser redistribuído ou como algo a ser
reduzido.
Em síntese, existem vários conceitos de valor do tempo com origem em diferentes teorias sobre a
realocação do tempo, evidenciando que existe uma evolução direccionada para uma melhor
compreensão dos elementos que determinam a equivalência monetária para o tempo designado
ao cumprimento de uma tarefa. Tendo em conta que os modelos se baseiam na maximização da
função utilidade, composta por actividades tais como tempo de trabalho, de consumo, de lazer, de
viagem, e que estão sujeitos a algumas restrições que definem tectos para os seus valores, tem-
se que: do ponto de vista da utilidade há actividades que são uma potencial fonte de
satisfação/insatisfação; do ponto de vista das restrições há actividades às quais seria afectado o
menor tempo possível. Neste último caso, o valor de poupar tempo numa actividade restringida
tem três componentes [15]:
Nível de rendimento [€/hora.];
O valor do trabalho;
O valor, não restringido, da actividade em si.
36
sendo que também se deverá incluir outras componentes tais como o valor marginal de mudança
no padrão de consumo e o valor de reorganizar um horário de actividades.
O mesmo tipo de modelo aplica-se ao transporte como actividade. Modelos de escolha modal
discreta facilitam o cálculo do valor de poupar tempo de viagem, que se obtém pelo rácio marginal
de substituição entre o custo de viagem e o tempo de viagem, obtido da função utilidade modal
estimada. Este rácio é também designado de Subjective Value of Travel Time (SVTT), que reflecte
as três componentes anteriormente referidas.
O modelo mais generalista, que engloba as três componentes e tem em consideração as
mudanças na estrutura de consumo e na reorganização de horários, mostra que deve ser dada
particular atenção à actividade consumo quando esta é restringida por um tempo de lazer limitado,
ou seja um indivíduo não têm tempo de gastar o que ganha. Isto acontece pois neste caso a
utilidade marginal do ordenado recebido diminui e o SVTT aumenta. Esta é uma dimensão
importante de compreender relativamente ao Valor Subjectivo do Tempo de Viagem e ao
comportamento social em geral, em ambientes caracterizados por ordenados elevados
relativamente ao tempo de lazer disponível.
Em condições particulares, em que o tempo de trabalho é decidido individualmente, sem afectar o
tempo total destinado a trabalho e a viagens, o SVTT será igual ao nível de rendimento (w).
Na contabilização social do valor do tempo, o tempo pode ser considerado de duas perspectivas:
I. Um recurso para investir em produção: onde o Social Price of Travel (SPT) - Time
Savings, também é igual ao nível de rendimento, se forem verificadas condições de
mercado competitivas. Portanto:
SVTT = w, SPT = w logo SPT = SVTT = w
II. Uma compensação monetária para aumento do bem-estar social: resultado de ganhos
individuais na função utilidade. Os ganhos individuais permitem uma redução no
tempo de viagem, induzem um tempo de lazer e de trabalho que tem um valor social.
37
38
3 CALCULOS E ANÁLISES______________________________________________________________________________
3.1 ANALISE EXPLORATÓRIA DOS DADOS
Procedeu-se a uma análise exploratória dos dados, entenda-se “olhar” para os dados através de
diagramas de fluxo, correlogramas, tabelas de frequências, e a partir desta nova perspectiva
sumarizada dos dados, detectar a existência de, por exemplo, tendências, ciclos, classes modais.
Algumas destas descobertas podem revelar características dos dados, cuja relevância determine
um estudo mais detalhado em capítulos subsequentes. Como referido na secção 1.4 - Abordagem
Metodológica, a amostra é constituída pelo Mês de Março e última quinzena de Outubro de 2007.
Na Fig. 3.1 apresenta-se o diagrama de fluxo de base horária para o dia 1 de Março de 2007
referente a uma secção da 2ª Circular, nomeadamente junto ao RALIS – Sacavém, no sentido
Norte - Sul. O diagrama de fluxo representa o número de veículos que atravessam essa secção
por hora, durante as 24 horas desse dia e a respectiva velocidade (assume-se que durante essa
hora o número de veículos seja constante, no entanto na realidade estas contagens são feitas na
base temporal do minuto sendo os valores por hora o resultado do somatório de contagens
durante 60 minutos).
Fig. 3.1 – Diagrama de fluxo: 1 de Março de 2007, Quinta-feira, RALIS (base horária) [16] - EP
O diagrama não é necessariamente o exemplo de um dia padrão, mas algumas características
intrínsecas são imediatamente detectáveis. São evidentes três características:
39
Período de vazio (fluxo residual durante a madrugada);
Um patamar do fluxo entre os 2400 e os 2800 veic/h.pista, entre as 10 e as 19 horas;
Ponta da manhã, com fluxo a atingir os 4000 veic/h.pista, com congestionamento
associado.
Confirma-se que, de facto, em condições próximas das ideais, o fluxo correspondente atinge o
valor teórico em torno de 2400 veic/h.pista e que a velocidade de circulação de equilíbrio é de 90
km/h. Ultrapassado esse limiar, ocorre uma rotura de escoamento, estando o tráfego praticamente
parado devido à saturação da secção. Será portanto relevante estudar este fenómeno, uma vez
que lhe estão associados diversos custos com o tempo perdido.
Fig. 3.2 – Diagrama de fluxo: Semana de 5 a 11 de Março 2007, RALIS (base horária) [16] EP
Na Fig. 3.2 representa-se um diagrama de fluxo, na base horária de uma semana completa. É
evidente a existência de um ciclo com período de 24 horas, que se repete durante os dias úteis da
semana, sendo o perfil desse ciclo semelhante ao do gráfico da Fig. 3.1. Neste sentido,
constatam-se as três características fundamentais anteriormente indicadas, nomeadamente a
ocorrência em todos os dias úteis das situações de descontinuidade assinaladas no gráfico
anterior.
Contrastando com esse perfil, detectam-se também dois dias com diagrama de fluxo
completamente diferente. Estes correspondem ao Sábado e Domingo, sendo a principal diferença
(para além da supressão da descontinuidade) a existência de uma Ponta da Tarde ao invés de
uma Ponta da Manhã. Sendo um dos objectivos do estudo a determinação de um diagrama
padrão, a existência destes dias “diferentes” é uma indicação para proceder a uma Análise de
Clusters, em que por etapas sucessivas se formem grupos de dias intra-homogéneos e ao mesmo
tempo inter-heterogéneos.
40
Outra característica essencial que deve ser salientada é a existência do ciclo com período de 24
horas. Isto é importante no sentido de que estamos perante uma série cronológica com uma
distinta componente cíclica determinística. Recordando parte da fundamentação teórica, se
porventura for possível extrair esta componente determinística, o resíduo final será apenas um
resíduo branco. Sendo perceptível esta componente determinística, o que de facto existe é uma
dependência temporal das várias observações, variáveis aleatórias, que compõem o processo
estocástico. Para confirmar esta dependência, apresenta-se na Fig. 3.3 o correlograma dos três
primeiros dias da semana. Verificam-se, de facto, fortes correlações entre dias com desfasamento
temporal de 24 horas.
Fig. 3.3 - Função autocorrelação para os dias 5,6 e 7 de Março de 2007, RALIS
Posto isto, o passo seguinte foi determinar qual a distribuição das variáveis aleatórias, no total do
mês de Março de 2007. O interesse desta análise não está num estudo do perfil dos diagramas
diários de base horária (que por si só são passíveis de serem analisados como uma distribuição),
mas sim num estudo básico do nível de saturação da secção Ralis – Sacavém, sentido Norte_Sul.
Tabela 3.1 - Estatística descritiva, Março de 2007
Extremos da classe Marca Freq Abso Freq Rel Freq RelAcum
Freq RelAcum Inv
]0 200] 100 33 4,4% 4,4% -
]200 600] 400 117 15,7% 20,1% -
]600 1000] 800 44 5,9% 26,0% -
]1000 1400] 1200 71 9,5% 35,5% -
]1400 1800] 1600 66 8,9% 44,4% -
]1800 2200] 2000 82 11,0% 55,4% -
]2200 2600] 2400 202 27,2% 82,6% 17,4%
]2600 3000] 2800 67 9,0% 91,6% 8,4%
]3000 3400] 3200 35 4,8% 96,4% 3,6%
]3400 4200] 3800 27 3,6% 100,0% 0,0%
41
Tabela 3.2 - Resumo da estatística descritiva
N Média Mediana Moda Mínimo Máximo Desvio Padrão
744 1768 2000 2400 128 4108 1004
Tomando para referência a marca das classes, constata-se pela Tabela 3.1 e Tabela 3.2 que o
valor de fluxo mais frequente aproxima-se da capacidade teórica de referência de 2400
veic/h.pista, correspondendo a 27,2% das observações. Quer isto dizer que num mês, durante
27,2% do tempo, esta secção está em escoamento próximo da sua capacidade máxima, sem
atingir um Congestionamento. Contudo, além deste facto, existe a agravante indicada pela
frequência acumulada inversa, de que durante 17,4% do mês a secção está em
Congestionamento. Estes valores não são desprezáveis, se for tido em conta o total de custos de
tempo perdido e custos externos, associados a percentagem de tempo que a secção se encontra
em congestionamento, que será aproximadamente de 5 dias (17,4 % de 744/24).
Fig. 3.4 - Distribuição Normal dos fluxos de Março de 2007, RALIS
Na Fig. 3.4 está representada a distribuição dos fluxos do total do mês de Março de 2007. É visível
que se assemelha a uma distribuição normal, apesar de um conjunto de valores, contidos na
classe dos 200 a 600 veic/h.pista (que correspondem ao período de vazio) que enviesam a
distribuição. Este facto foi comprovado com um teste não significativo de Chi – Quadrado, onde a
hipótese nula de a distribuição da amostra seguir uma distribuição normal, não foi rejeitada).
Estendendo a análise referente à saturação da secção, a Fig. 3.5 representa o fluxo médio e a
velocidade média do mês de Março numa base diária. Aplicando um factor de escala à curva de
fluxo médio, calculou-se o que se designou como curva de fluxo modal. O factor de escala é igual
42
= = . Com esta curva é possível uma análise simplificada da saturação da secção
estendida na dimensão do tempo. É possível averiguar quais são os dias mais sobrecarregados
do mês. Constata-se que são os pares de picos, por exemplo 9 e 11, que apresentam valores
acima de 2400 veic/h.pista. Estes pares representam a Sexta-feira e o Domingo. Quer isto dizer
que, nestes dias, especialmente à Sexta, é mais provável que a saturação se verifique durante
mais horas do dia. Porventura as Sextas-feiras podem formar um cluster característico.
Fig. 3.5 - Fluxo Médio e Modal de Março de 2007, RALIS
3.2 COMPONENTES PRINCIPAIS E ANÁLISE DE CLUSTERS
Procedeu-se a uma análise de Clusters sobre a totalidade da amostra - mês de Março mais a
última quinzena de Outubro. Analisando em conjunto os resultados obtidos, Fig. 3.6 e Fig. 3.7,
através do método Ward com variáveis originais e componentes principais, é evidente um conjunto
de dias que são considerados outliers, pois a distância de ligação entre o cluster a que pertencem
e o cluster remanescente é muito elevada. Assim, tendo como referência o dia 3/3/2007 em ambos
os gráficos, verifica-se que os dias à esquerda deste correspondem a Sábados e Domingos. Neste
sentido, todos os outliers identificados nesta fase, Sábados e Domingos, são retirados da amostra,
procedendo-se a uma nova iteração de formação de clusters pelo método Ward (no caso da Fig.
3.7) também são evidenciadas as Segundas-feiras, no entanto, como o processo de eliminação de
outliers é progressivo, mantiveram-se na análise sendo porventura extraídos depois se for
justificável.
43
Fig. 3.6 - Diagrama de Ward: variáveis originais (48 dias), 1ª iteração
Fig. 3.7 - Diagrama de Ward: Componentes Principais (48 dias), 1ª iteração
Da segunda iteração resultaram os gráficos da Fig. 3.8 e Fig. 3.9. Marcadamente existe um cluster
de dimensão superior aos restantes composto pelos dias semana de 3ª, 4ª e 5ª. Os clusters
remanescentes são relativos às 6ªs e às 2ªs. Nesta distinção salienta-se que o método que produz
melhores resultados é o método Ward, usando variáveis originais. É bastante clara a distinção das
6ªs relativamente ao conjunto dos dados. Este facto reforça a análise anterior, em que se salientou
a possível formação de um cluster só para as 6ªs.
Resulta destas análises, que o número de clusters a definir para uma posterior análise de clusters,
pelo método não hierárquico, será de três. Apesar dos indicadores iniciais de que as 6ªs poderiam
formar um único cluster, não é possível com apenas com esta análise afirmá-lo decisivamente.
Para ser possível validar a conclusão de que, um conjunto de medições de periodicidade semanal
se pode subdividir em 3 + 1 clusters: i) 2ªs; ii) 3ªs+4ªs+5ªs; iii) 6ªs; iv) Sábados + Domingos, é
necessário o mesmo tipo de análise noutros locais, onde as recolhas de amostras sejam
independentes entre si. Esta análise foi levada a cabo para a secção Carcavelos/Lisboa e
EIXO_N_S, sendo expostos subsequentemente apenas os resultados relevantes.
SABs + DOMs
2As SABs + DOMs
44
Fig. 3.8 - Diagrama de Ward: variáveis originais (33 dias), 2ª iteração
Fig. 3.9 - Diagrama de Ward: Componentes Principais (33 dias), 2ª iteração
3.2.1. VALIDAÇÃO DA ANALISE DE COMPONENTES PRINCIPAIS
Esta validação da análise de componentes principais corresponde já à 2ª iteração, após terem
sido eliminados os dias não regulares (Sábados e Domingos). Deste modo da matriz inicial de 48
dias x 24 horas, aplicou-se a análise de componentes principais a uma matriz 33 dias x 24 horas.
Nesta análise aplicou-se uma transposição à matriz de modo a que os factores fossem uma
combinação linear das horas e não dos dias, uma vez que não se pretendia com este filtro
intermédio do processo de formação de clusters retirar o papel efectivo da formação de clusters,
que seria alcançado com o método K-Means. O objectivo com esta análise de componentes
principais é o de apenas servir de filtro de redução intermédia da variabilidade dos dados. Deste
6As 2As
2As 6As
45
modo, consegue-se reduzir essa variabilidade dos dados (como se conseguiria sem a
transposição da matriz) sem que tenham significado os factores resultantes da análise (não é
pretendida a interpretação de agrupamentos de horas do dia mas o agrupamento de dias da
semana). Da figura Fig. 3.10 e Fig. 3.11 conclui-se que com três factores a curva dos valores
próprios inicia a sua estabilização, mas, no entanto, não se cumprem os 70% de variabilidade
explicada. Neste sentido, optou-se por utilizar sete factores, uma vez que após esse limite os
valores próprios deixavam de ter um valor superior a 1. Deste modo, a variância total explicada é
de 81%. Também estaria correcto usar apenas cinco ou três factores, mas este modo é mais
rigoroso pois consegue-se ter um pouco mais de variância total explicada sem que os factores
extraídos sejam piores representações que as variáveis originais (critério da variância unitária)
Antes de validar os factores extraídos salienta-se, como já referido, que o objectivo do uso desta
ferramenta é o de apenas servir de input à Análise de Clusters, não sendo portanto relevante o
significado dos factores extraídos neste passo. Contudo, não deixa de ser interessante uma breve
análise aos resultados desta fase. Constata-se que dois factores concentram as horas de
madrugada e que no conjunto dos outros factores não é possível atribuir um factor a uma hora de
ponta de manhã ou distinguir um factor que represente um patamar de equilíbrio durante a tarde.
No geral, a informação que se retira não apresenta novidades confirmando –se a ideia inicial de
que o importante nestes resultados não seria o seu significado mas o output que estes originam
depois de inseridos na Análise de Cluesters
Finalmente, analisando a Fig. 3.13 verifica-se que a comunalidade acumulada para os sete
factores é em média de 0,82, o que é satisfatório, pois significa que a variância que cada variável
tem em comum com o conjunto das outras é em média de 18%. Caso se tivesse escolhido apenas
3 factores essa variância seria muito superior, cerca de 55%, o que não seria válido8.
Fig. 3.10 - Valores PrópriosFig. 3.11 - Valores Próprios: Variação
gráfica da variância
8 Na Fig. 3.12 o somatório do quadrado dos factor loadings não é igual ao valor próprio associado a cadavector, contrariamente ao definido na fundamentação teórica. Isto deve-se à transformação aplicada aosvectores (a designada rotação ortogonal dos factores varimax normalized).
46
Communal ities (RALIS_N_S_regulares)Extraction: Principal componentsRotation: Varimax normal ized
VariableFrom 1Factor
From 2Factors
From 3Factors
From 4Factors
From 5Factors
From 6Factors
From 7Factors
MultipleR-Square
00h01h02h03h04h05h06h07h08h09h10h11h12h13h14h15h16h17h18h19h20h21h22h23h
0,031131 0,8076710,8117510,8443000,870630 0,910382 0,914298 0,9465870,014461 0,7797560,7828190,8334030,836913 0,880121 0,887193 0,9586850,048313 0,7868650,7906680,7957830,816988 0,855928 0,885026 0,9666300,012023 0,0229320,0409690,0666610,104485 0,137294 0,778903 0,8566290,081344 0,0814740,3708690,4502200,673826 0,736406 0,743684 0,9783000,056647 0,1271880,2797560,2968710,809578 0,840586 0,842682 0,9336790,053495 0,2662810,2849880,7298400,729854 0,748361 0,754221 0,9052050,001623 0,0165150,0576680,7673550,782391 0,782583 0,807897 0,8377650,001252 0,0172120,0278080,0297110,692665 0,696591 0,733624 0,8435340,000811 0,3554890,3564890,6216830,696297 0,735346 0,794824 0,8912130,001131 0,1217060,1227590,1665570,167236 0,205059 0,333381 0,8827030,002831 0,0708810,0739080,0891190,089722 0,814390 0,836141 0,8341320,002187 0,0716570,0722190,0975810,145255 0,824895 0,878338 0,9169210,041684 0,0910990,1233090,3288640,350500 0,484370 0,813909 0,9428830,024993 0,0578530,1080220,6017780,603156 0,676753 0,841078 0,9038300,090287 0,0916970,2706940,2762600,404495 0,427647 0,904962 0,9491310,019836 0,0263050,4730550,4809150,506214 0,514723 0,734525 0,9213640,018498 0,0184980,6438850,6438990,646595 0,647903 0,803810 0,9538670,001175 0,0091830,7699100,7758890,777802 0,790247 0,796004 0,9734530,397945 0,4001090,7559320,7568490,807092 0,848744 0,849552 0,9822370,930624 0,9320460,9332750,9359870,939435 0,941735 0,952399 0,9942670,898120 0,8988290,9004370,9010290,912425 0,912597 0,926436 0,9934160,880361 0,8831940,8903570,8968050,904227 0,911431 0,914456 0,9336780,814011 0,8151710,8334370,8367540,853868 0,854774 0,911386 0,902082
Fig. 3.12 - Factor Loadings Fig. 3.13 - Comunalidades
Relativamente à comparação de resultados produzidos com base em variáveis originais e
componentes principais, não existe diferença significativa. Alguma clarificação nos dados que se
poderia obter não se verificou, até pelo contrário, a constituição de clusters é mais clara usando as
variáveis originais. A diferença não é relevante, dada a natureza dos dados, mas para outros
estudos pode ser muito útil aplicar uma análise factorial prévia a uma análise de clusters. Neste
sentido, apenas se procede na fase seguinte à validação dos clusters formados pelo Método K-
Means relativo às variáveis originais.
3.2.2. CONSTITUIÇÃO E VALIAÇÃO DE CLUSTERS PELO MÉTODO K –MEANS
Como referido na fundamentação teórica, a validade da constituição de um cluster depende da
sua consistência perante diferentes amostras independentes. Neste ponto coloca-se uma questão
se seria necessária a mesma estrutura de análise para os locais adicionais (A. Componentes
Principais e A.C. Ward). A expectativa seria de que o resultado seria semelhante ou seja o número
de clusters indicados seriam de 3. Após os cálculos confirmou-se esta previsão e novamente a
Análise por Componentes Principais não acrescentou nenhuma clareza adicional na constituição
dos clusters. Neste sentido não se considera relevante remeter estes outputs para Anexo uma vez
que é uma lista extensa com pouca utilidade para o desenvolvimento do estudo. Assim na Tabela
Factor Loadings (Varim ax normal ized) Extraction: Principal components(Marked loadings are >,700000)
VariableFactor
1Factor
2Factor
3Factor
4Factor
5Factor
6Factor
700h01h02h03h04h05h06h07h08h09h10h11h12h13h14h15h16h17h18h19h20h21h22h23hExpl .VarPrp.T otl
-0,176440 0,881215 -0,063871 0,180415 -0,162266 0,199379 -0,062574-0,120254 0,874811 -0,055343 0,224909 -0,059243 0,207865 0,0840990,219802 0,859391 0,061670 0,071518 0,145619 0,197332 0,1705800,109650 0,104445 0,134302 0,160288 0,194483 0,181132 0,8010050,285208 -0,011417 0,537955 0,281693 0,472870 -0,250160 0,0853080,238006 0,265596 0,390599 0,130823 0,716036 0,176091 0,045782
-0,231289 0,461287 0,136775 0,666972 0,003750 0,136042 0,076550-0,040281 0,122034 -0,202863 0,842429 0,122620 0,013872 0,159103-0,035381 -0,126332 -0,102941 -0,043623 0,814220 0,062658 0,1924380,028472 0,595549 -0,031614 -0,514970 0,273156 -0,197608 0,243882
-0,033632 0,347239 -0,032451 0,209278 0,026060 0,194482 0,3582210,053203 0,260864 0,055018 0,123333 -0,024555 0,851275 0,147482
-0,046763 0,263571 -0,023715 0,159255 0,218343 0,824403 0,2311780,204166 0,222295 0,179473 0,453382 -0,147091 0,365883 0,5740540,158092 0,181272 0,223984 0,702678 0,037111 0,271289 0,4053700,300479 0,037541 0,423080 0,074609 0,358099 0,152158 0,6908800,140839 0,080430 0,668394 0,088657 0,159058 -0,092242 0,4688300,136008 0,000198 0,790814 -0,003773 -0,051927 -0,036162 0,394851
-0,034281 -0,089487 0,872197 -0,077325 -0,043739 0,111555 -0,0758770,630829 -0,046515 0,596509 -0,030291 0,224148 0,204090 -0,0284090,964689 -0,037700 0,035070 -0,052069 0,058722 0,047959 0,1032670,947692 0,026637 0,040094 -0,024328 0,106752 -0,013108 0,1176420,938276 -0,053230 0,084632 0,080297 0,086151 -0,084880 -0,0549980,902226 -0,034058 0,135151 -0,057592 -0,130824 0,030093 0,2379334,424781 3,324827 3,025375 2,449130 1,897536 2,057218 2,4598610,184366 0,138534 0,126057 0,102047 0,079064 0,085717 0,102494
47
3.3 sumariza-se a informação relevante e a partir da qual se efectua a análise. Os dois locais
adicionais necessários para validar a constituição dos 3 três clusters são os indicados na secção
1.5 – Recolha de dados, nomeadamente a secção no EIXO N_S e na A5 –Carcavelos/Lisboa
A cor cinzenta encontram-se assinalados os dias que são consistentes, por cluster. Em coluna
está indicada, para os três locais, a distância média de cada dia ao centro do cluster a que
pertence e o desvio (%) da distância de cada dia à distância média dos elementos. Por exemplo,
entende-se como dia consistente o dia 8/MAR/07 que pertence ao cluster 1 no local RALIS_N_S e
pertence sempre ao cluster 1 em locais diferentes como é caso de Carcavelos_Lisboa e
Eixo_N_S.
.
Assim, evidenciam-se dois aspectos:
1. As três amostras formam um cluster (Nº1) com dimensão significativamente superior aos
remanescentes e os elementos que os compõem são consistentes. Por outras palavras, o
cluster de maior dimensão contém vários elementos que não mudam de cluster quando
se varia a fonte da amostra (consistentes nos 3 locais ou em dois). Analisando quais são
esses dias, verifica-se que são 3ªs, 4ªs e 5ªs e em geral os três dias de uma semana
aparecem no mesmo cluster. Em média, esses dias constituem 2/3 dos dias do cluster 1
(e.g.: 6, 7 e 8 de Março; 27, 28 e 29 de Março);
2. Os clusters remanescentes (Nº2 e Nº3) não são consistentes e são relativamente de
dimensão menor, ou seja, os elementos que os compõem têm posicionamento irregular
nos mesmos, podendo trocar entre clusters e até mesmo pertencer ao primeiro cluster,
por exemplo, apenas o dia 23 de Março, 6ª feira, aparece nos 3 locais no cluster 2. Em
média, 45% dos dias do cluster Nº2 não se repete nos 3 locais e no cluster Nº3 essa
percentagem é também de 45%
Além disto, não é possível, com alguma fiabilidade, atribuir um cluster a elementos
correspondentes a 2ªs e outro a 6ªs, pois estes até podem conter, por exemplo, uma ou
mais 3ªs. Apenas 55% dos dias do cluster Nº2 são 6as e no cluster Nº3 apenas 24% são
2as, comparativamente com os 2/3 do cluster Nº1.
Tendo isto em consideração, pode-se afirmar que existe pelo menos um cluster consistente, sendo
os restantes menos estáveis. Sendo esse cluster consistente o de maior dimensão, os elementos
que o constituem representam as características gerais da amostra. Quer isto dizer, que os dias
da semana, 3ª, 4ª e 5ª, constituem dias cujo diagrama de fluxo é um potencial dia padrão. Neste
sentido, é possível uma generalização do método utilizado, para vias de geometria semelhante à
2ªCircular, para as quais os melhores dias para recolha de fluxos de tráfego são a 3ª, 4ª e 5ª.
Relativamente, aos dias irregulares, 2ª e 6ª, não é evidente que sejam agrupados em clusters
distintos apesar de intuitivamente isso ser válido. É do senso comum que à segunda-feira existe
tráfego devido a pessoas que passaram o fim-de-semana fora de Lisboa e regressam nesse dia
48
Tabela 3.3 - Validação da Análise de Clusters
RALIS_N_S CARCAVELOS_LISBOA EIXO_N_S
Nº 1 Distance Desvio Nº 1 Distance Desvio Nº 1 Distance Desvio
01-MAR-07, 5A 0,070887 -3% 01-MAR-07, 5A 0,090862 14% 05-MAR-07, 2A 0,045421 1%06 -MAR-07, 3A 0,069778 -4% 02-MAR-07, 6A 0,159132 100% 06 -MAR-07, 3A 0,047952 7%07-MAR-07, 4A 0,046402 -36% 05-MAR-07, 2A 0,079883 0% 07-MAR-07, 4A 0,040825 -9%08-MAR-07, 5A 0,062351 -15% 06 -MAR-07, 3A 0,087416 10% 08-MAR-07, 5A 0,036946 -18%12-MAR-07, 2A 0,075903 4% 07-MAR-07, 4A 0,072868 -8% 15-MAR-07, 5A 0,102717 129%13-MAR-07, 3A 0,041051 -44% 08-MAR-07, 5A 0,046773 -41% 16-MAR-07, 6A 0,031871 -29%14-MAR-07, 4A 0,036657 -50% 09-MAR-07, 6A 0,090058 13% 19-MAR-07, 2A 0,032948 -26%15-MAR-07, 5A 0,11045 51% 12-MAR-07, 2A 0,085097 7% 20-MAR-07, 3A 0,052382 17%19-MAR-07, 2A 0,129673 78% 13-MAR-07, 3A 0,05251 -34% 21-MAR-07, 4A 0,052156 16%20-MAR-07, 3A 0,038025 -48% 14-MAR-07, 4A 0,044126 -45% 22-MAR-07, 5A 0,036704 -18%21-MAR-07, 4A 0,120335 65% 15-MAR-07, 5A 0,07301 -8% 26-MAR-07, 2A 0,032984 -26%26-MAR-07, 2A 0,096138 32% 16-MAR-07, 6A 0,092451 16% 27-MAR-07, 3A 0,033936 -24%28-MAR-07, 4A 0,070818 -3% 19-MAR-07, 2A 0,057004 -28% 28-MAR-07, 4A 0,04189 -6%
16-OUT-07, 3A 0,092241 26% 20-MAR-07, 3A 0,07276 -8% 29-MAR-07, 5A 0,038412 -14%
23-OUT-07, 3A 0,066763 -9% 21-MAR-07, 4A 0,048963 -38% MÈDIA 0,04
30-OUT-07, 3A 0,040284 -45% 26-MAR-07, 2A 0,11352 43% Nº 2 Distance Desvio
MÈDIA 0,073 27-MAR-07, 3A 0,074872 -6% 02-MAR-07, 6A 0,041427 -29%
Nº 2 Distance Desvio 28-MAR-07, 4A 0,083024 4% 09-MAR-07, 6A 0,065985 13%
02-MAR-07, 6A 0,083384 47% 29-MAR-07, 5A 0,086458 9% 12-MAR-07, 2A 0,070307 20%
09-MAR-07, 6A 0,057722 2% MÈDIA 0,08 13-MAR-07, 3A 0,055042 -6%
16-MAR-07, 6A 0,033225 -41% Nº 2 Distance Desvio 14-MAR-07, 4A 0,053044 -9%
23-MAR-07, 2A 0,057069 1% 22-MAR-07, 5A 0,105165 53% 23-MAR-07, 2A 0,06503 11%
29-MAR-07, 5A 0,077499 37% 23-MAR-07, 2A 0,082342 20% 15-OUT-07, 2A 0,088815 52%
26-OUT-07, 6A 0,035847 -37% 19-OUT-07, 6A 0,04231 -38% MÈDIA 0,058
31-OUT-07, 4A 0,051226 -9% 25-OUT-07, 5A 0,053008 -23% Nº 3 Distance Desvio
MÈDIA 0,057 26-OUT-07, 6A 0,068746 0% 01-MAR-07, 5A 0,071485 10%
Nº 3 Distance Desvio 31-OUT-07, 4A 0,059683 -13% 16-OUT-07, 3A 0,037484 -43%
05-MAR-07, 2A 0,092209 44% MÈDIA 0,069 17-OUT-07, 4A 0,064351 -1%
22-MAR-07, 5A 0,047493 -26% Nº 3 Distance Desvio 18-OUT-07, 5A 0,088864 36%
27-MAR-07, 3A 0,072315 13% 15-OUT-07, 2A 0,030111 -21% 19-OUT-07, 6A 0,104874 61%
15-OUT-07, 2A 0,063772 -1% 16-OUT-07, 3A 0,024265 -36% 23-OUT-07, 3A 0,066065 1%
17-OUT-07, 4A 0,05878 -8% 17-OUT-07, 4A 0,036813 -3% 24-OUT-07, 4A 0,044289 -32%
18-OUT-07, 5A 0,056633 -12% 18-OUT-07, 5A 0,060786 60% 25-OUT-07, 5A 0,036962 -43%
19-OUT-07, 6A 0,068797 7% 23-OUT-07, 3A 0,041063 8% 26-OUT-07, 6A 0,078223 20%
24-OUT-07, 4A 0,058384 -9% 24-OUT-07, 4A 0,061596 62% 29-OUT-07, 2A 0,0921587 41%
25-OUT-07, 5A 0,056431 -12% 29-OUT-07, 2A 0,090262 138% 30-OUT-07, 3A 0,0476115 -27%
29-OUT-07, 2A 0,06611 3% 30-OUT-07, 3A 0,044156 16% 31-OUT-07, 4A 0,050136 -23%
MÈDIA 0,064 MÈDIA 0,038 MÈDIA 0,065
49
de manhã, provocando um acréscimo de fluxo. À sexta-feira o motivo do acréscimo de fluxo é
diferente, uma vez que muitas pessoas que habitualmente recorrem ao transporte público durante
a semana, à sexta-feira usam o automóvel particular prevendo uma eventual actividade de lazer
nocturna. Existem de facto motivos diferentes para que existisse um cluster para 2ª e outro para a
6ª, no entanto, neste estudo, esse acontecimento não é evidente. Possivelmente no futuro, com
acesso a uma dimensão maior da amostra será possível tornar mais clara esta questão.
Finalmente, tendo por objectivo seleccionar um dia padrão de entre um cluster consistente, o
método utilizado consistiu em determinar os seis elementos cuja distância ao centro do cluster
fosse uma das seis menores e cruzar essas elementos com aqueles cuja distância ao ponto médio
do cluster não fosse superior a 20%. Com este método pretende-se seleccionar um elemento que
seja equilibrado dentro do cluster. Nem muito afastado da característica genérica do cluster (o que
o distingue para os outros clusters), nem muito afastado da característica média dos elementos do
cluster (paralelismo entre variância inter - clusters e intra - cluster)
O dia encontrado e que servirá de padrão para as análises de capítulos seguintes é o dia 8 de
Março de 2007. O diagrama que lhe corresponde é o apresentado na Fig. 3.14. A secção em
estudo localiza-se na 2ª Circular, mais precisamente no RALIS. A escolha da via teve como
critérios:
Importância no sistema viário da capital Lisboeta;
Ponto de entrada de fluxos significativos de ponta da manhã [7];
Via com características de atravessamento da capital;
Extensão de 10 km, o que permite confrontar amostras (quase) independentes (dois
pontos de acesso em localizações opostas da cidade).
Fig. 3.14 - Diagrama Padrão: RALIS, 8 de Março 2008 [16] - EP
0
0,5
1
1,5
2
2,5
0 4 8 12 16 20 24
RALIS_08_03_2007
50
3.3 KOLMOGOROV – TESTE DE AJUSTAMENTO
O teste de ajustamento não – paramétrico de Kolmogorov é muito útil pois permite comparar perfis
de diagramas de fluxo desfasados no tempo e/ou desfasados no espaço. As vantagens que
podem surgir destes cálculos são enormes pois se a curva padrão encontrada for uma boa
estimativa de fluxos para locais desconhecidos isto significa que estabelecendo pressupostos
sobre a geometria da via e sobre a sua função na rede viária (se é uma via de atravessamento
radial da cidade ou via rádio - concêntrica) e estes pressupostos forem semelhantes aos da via do
dia padrão, é possível prever fluxos e até o comportamento do tráfego a partir de uma curva
modelo teórica e então depois confirmar os valores com medições no terreno.
Tome-se para exemplo os diagramas da Fig. 3.15 e Fig. 3.16. À esquerda testa-se um
deslocamento no espaço, ou seja, testa-se o ajustamento do perfil da curva em locais diferentes. À
direita testa-se um deslocamento no tempo, ou seja, os dados são da mesma secção mas em dias
diferentes.
Fig. 3.15 - Teste KS: transferência no espaço Fig. 3.16 - Teste KS: transferência no tempo
Para uma transferência no espaço a prática mostrou que, analisando apenas os dias regulares, ou
seja as 3ªs, 4ªs e 5ªs (o que corresponde a 156 dias do ano), o máximo número de dias regulares
que têm associados diagramas que podem ser estimados com o diagrama padrão é de 60, ou seja
uma taxa de sucesso de 38%, com apenas uma probabilidade de 2% (nível de significância) de
estar a cometer o erro de não incluir mais dias válidos (falsos negativos). Note-se que o critério
usado é muito pouco exigente pois preconizando um nível de significância elevado, está-se a
aumentar a probabilidade de aceitar dias que de facto não têm uma curva semelhante (ou seja
reduzir a potência do teste). Note-se que para a natureza dos dados, é mais importante a potência
do teste do que a significância. Resumindo, aceita-se uma percentagem de 38% mas com mais
51
rigor (maior potência ou seja teste menos significativo) a percentagem de dias aceites seria
bastante menor. No caso do exemplo de deslocação apenas temporal, a taxa de sucesso é de
100%.
Este facto era expectável pois intuitivamente o teste de deslocação espacial tem pressupostos
difíceis de cumprir dada a natureza e características de todo o sistema de tráfego que envolve as
vias sobre as quais incide este estudo A taxa de sucesso no caso 1 é baixa pois a estatística de
teste está definida de tal modo que é dado muito peso às primeiras diferenças (primeiras horas do
dia) nas curvas de distribuição acumulada, que condiciona o resultado do teste. O perfil da curva
pode ser semelhante mas uma translação em y é suficiente para o teste não ser válido. No caso 1,
poderiam ter sido eliminados os valores iniciais mas o desfasamento continuaria a existir. Este
desfasamento, nestes exemplos, deve-se ao facto de a curva padrão ter sido retirada de um local
com condições ideais, próximas daquelas que permitem fluxos de 2400 veic/h.pista, que no caso
do Eixo N_S não se verificam pois o patamar de equilíbrio corresponde a cerca de 200
veic/h.pista. Além desta particularidade, o EIXO N_S é uma via que atravessa Lisboa radialmente
o que leva a que uma parte significativa do seu fluxo residual seja tráfego com origem e destino
em Lisboa).
3.3.1. FACTORES DE AJUSTAMENTO
Assim sendo, efectuou-se outra análise que permitisse estimar fluxos a partir de dias que tivessem
um diagrama menos semelhante ao do dia padrão. Com esta análise é possível ter maior
liberdade de recolha de dados no terreno, pois o dia e o mês em que se recolhe dados no terreno
pode não coincidir com nenhum dos dias em que se poderia recolher a curva padrão.
Neste sentido, os factores que se apresenta na
Tabela 3.4 representa-se a correcção a efectuar numa curva de dados recolhida num dia mais
conveniente, de modo a obter uma curva semelhante à curva padrão. Os factores estão
agrupados por trimestre, ou seja para cada trimestre calculou-se a média aritmética dos factores
dos dias desse trimestre. Por exemplo, se tivesse sido recolhida uma contagem em Fevereiro,
para que seja considerada como a curva padrão aplica-se, por multiplicação, os 4 factores do
1ºtrimestre, a cada uma das contagens dos vários períodos do dia, ou seja as contagens entre as
6 e as 11 são multiplicadas de 1,06 e assim sucessivamente. 9
A operação é simples, no entanto é necessário ter alguma cautela com o grau de semelhança da
curva obtida. Os factores obtidos resultam do seguinte: por utilização de programação em VBA e
por recurso à ferramenta Solver, estabeleceu-se encontrar o mínimo do EQM que resulta de
ajustar a curva recolhida à curva padrão, sendo que o permite o ajustamento é a variação dos 4
factores até se alcançar o dito mínimo do EQM. Posteriormente efectua-se um teste de
9 A curva padrão é única e em rigor só é determinada se os dados forem recolhidos no dia padrão
52
Kolmogorov para validar a translação no tempo do diagrama padrão. (Estas operações repetiram-
se para os 365 dias de 2007). Ou seja, em rigor, o que estes factores garantem é:
i. Uma correcção macro dos dados recolhidos de modo a obter-se uma curva semelhante à
curva padrão (os desvios, em cada período horário, entre as curvas são ligeiramente
diferentes do factor pois minimizou-se o EQM da curva e não o erro em cada medição);
ii. A curva semelhante que resulta da aplicação dos factores é estatisticamente válida, ou
seja a translação temporal é possível de se concretizar.
Tabela 3.4 - Factores de Ajustamento KS Teste, RALIS
RALIS N_S
.0h-6h .6h-11h .11h-17h .17h-24h
1º Trimestre 07 1,06 1,06 1,00 1,01
2º Trimestre 07 0,98 1,08 0,97 0,94
3º Trimestre 07 0,98 1,02 0,99 0,94
4º Trimestre 07 1,02 1,09 0,99 1,03
Tabela 3.4 resulta a seguinte análise de sensibilidade ao diagrama padrão: em geral, na hora de
ponta da manhã, as curvas recolhidas apresentariam valores por defeito pois têm de ser
majoradas, o que em termos de dimensionamento significa que a curva padrão apresenta valores
mais altos. Excepto no 3ºtrimestre, os restantes meses têm um erro na ordem de grandeza de 6%
a 9%. Para o período das 11 as 17 h o erro não é superior a 5% portanto não é significativo. No
período das 17 às 24 h, o 2º e 3º trimestre apresentam valores superiores à curva padrão em 6%,
sendo que nestes casos a curva padrão tem os valores estimados por defeito. Em termos gerais, o
erro de correcção não ultrapassa os 10 %, sendo que o 2º e 3º trimestres são aqueles que
maiores desvios têm no conjunto dos quatro trimestres. Apresentam valores de fluxo mais altos a
partir das 11 horas até as 24 e mais baixos na hora de ponta, portanto nos meses destes
trimestres, antes de aplicados os factores, o perfil do diagrama de fluxo é mais liso do que o do
diagrama padrão10.
Tabela 3.5 - Factores de Ajustamento KS Teste, EIXO_N_S
EIXO_N_S
.0h-6h .6h-11h .11h-17h .17h-24h
1º Trimestre 07 0,42 1,37 1,23 1,07
2º Trimestre 07 0,41 1,35 1,18 0,98
3º Trimestre 07 0,42 1,40 1,28 1,04
4º Trimestre 07 0,42 1,35 1,10 0,96
10 O período nocturno é desprezável pois representa o período de transição entre dias tendo fluxos residuais
53
Relativamente à transferibilidade da curva padrão para a secção do EIXO_N_S, a análise de
sensibilidade à Tabela 3.5 resulta no seguinte: o factor da hora de ponta da manhã é bastante
afastado da unidade, cerca de 40% por defeito. No entanto, salienta-se que apesar dessa
diferença para a curva padrão, o factor de ponta entre trimestres é praticamente o mesmo. Isto
significa que são bastante regulares entre si os fluxos dos vários trimestres, sendo contudo
significativamente inferiores aos da curva padrão. Relativamente ao período das 11 às 17 h,
novamente é necessário majorar os fluxos mas neste caso a diferença é menor, cerca de 20% em
média. No período das 17 às 24h os erros não são significativos, inferiores a 10%. É relevante
salientar que, em geral, os factores dos trimestres são semelhantes entre si e portanto os
diagramas são em geral semelhantes entre si durante o ano. Verifica-se também para o período
das 0 às 6 horas, em que é evidente haver um fluxo significativamente superior, cerca do dobro do
fluxo estimado pelo diagrama padrão para esse mesmo período. Isto é justificado pelo facto de o
EIXO_N_S ser uma via de atravessamento de Lisboa e de ligação à margem Sul, através da
Ponte 25 de Abril. Portanto é normal, que dada a importância funcional da via na rede viária da
região, que exista um fluxo assinalável, e mais ou menos constante, durante as madrugadas dos
vários dias do ano.
3.4 MODELAÇÃO POR SERIE DE FOURIER
Uma breve análise exploratória, representada pelo correlograma da Fig. 3.17, indica a existência
de uma componente determinística ou seja uma ciclicidade, que se traduz numa correspondência
entre fluxos com desfasamentos de, por exemplo, 24 horas. Portanto o objectivo a alcançar será o
de modelar a série padrão, constituída apenas pelos dias regulares da amostra relativa ao RALIS
(20 dias x 24 horas = 480 observações), por uma série de Fourier, Tabela 3.6 e Tabela 3.7, e
avaliar a qualidade do ajustamento através do EQM, Fig. 3.22. Será depois necessário verificar os
pressupostos da análise, que se encontra na secção 2.4. Na hipótese de serem validados os
pressupostos, o facto de se usar o EQM como medida de avaliação da qualidade do ajuste, serve
de cálculo para a variância do resíduo, pois o EQM = quando a média dos resíduo é igual a
zero.
Salienta-se que:
1. Uma vez que os dados foram padronizados de início, em percentagem da média semanal,
é imediato que a média da série é unitária;
2. Uma vez que a série de Fourier é contínua e a amostra é discreta, existe um problema de
desfasamento/escala na ordem das previsões vs ordem das observações. O factor de
escala foi calibrado recorrendo a ferramenta Solver do Excel. Por iterações a ferramenta
ajusta o factor de desfasamento a aplicar para se atingir o objectivo do menor EQM
possível [16]
54
Fig. 3.17 - Função autocorrelação: desfasamento de 30 horas (Dias Regulares)
Tabela 3.6 - Parâmetros da modelação por Série de Fourier. N=480
jFrequency(j/N = fj)
Period(h)
Cosine Coeffs (aj)(Equação 3.10)
Sine Coeffs (bj)(Equação 2.10)
PeriodogramN/2 (aj
2 + bj2)
20 0,041667 24,0000 -0,606546 -0,147023 93,48340
40 0,083333 12,0000 -0,213195 -0,325950 36,40687
60 0,125000 8,0000 0,218395 -0,024857 11,59547
80 0,166667 6,0000 0,017904 0,147548 5,30180
120 0,250000 4,0000 0,015469 -0,109789 2,95028
100 0,208333 4,8000 -0,086181 -0,046205 2,29488
140 0,291667 3,4286 0,068772 0,048004 1,68816
180 0,375000 2,6667 -0,041112 -0,050773 1,02433
160 0,333333 3,0000 -0,048755 0,028432 0,76451
200 0,416667 2,4000 0,049707 -0,004242 0,59731
220 0,458333 2,1818 0,000910 0,038398 0,35405
240 0,500000 2,0000 -0,036089 0,000000 0,31258
7 0,014583 68,5714 0,027031 0,000917 0,17556
2 0,004167 240,0000 -0,001485 0,021154 0,10793
77 0,160417 6,2338 0,015087 0,000011 0,05463
Tabela 3.7 – Excerto das estimativa da série e cálculo do resíduo
tkj = aj cos (2 fj . t) + bj sin (2 fj . t) (Equação 2.10) ESTIMATIVA REAL RESIDUO EQ
j = 20 j = 40 j = 60 j = 80 j = 120 j = 100 j = 140 EST = kj + a0/2(=1)
R (EST – R) (EST-R) 2
0,10 -0,610 -0,230 0,216 0,033 -0,002 -0,091 0,076 0,388 0,3320 0,0565 0,0031
1,99 -0,599 -0,389 -0,024 0,119 -0,017 0,051 -0,083 0,055 0,1605 -0,1054 0,0111
2,99 -0,534 -0,327 -0,171 -0,016 0,110 0,094 0,013 0,165 0,1084 0,0570 0,0032
3,99 -0,432 -0,178 -0,219 -0,136 0,018 -0,001 0,077 0,125 0,0823 0,0427 0,0018
4,98 -0,301 0,018 -0,139 -0,120 -0,109 -0,095 -0,052 0,198 0,1443 0,0541 0,0029
5,98 -0,150 0,210 0,022 0,015 -0,019 -0,048 -0,050 0,976 0,3297 0,6459 0,4172
6,98 0,011 0,346 0,170 0,135 0,109 0,069 0,078 1,915 0,8095 1,1051 1,2211
--- --- --- --- --- --- --- --- --- --- --- ---
478,48 -0,503 0,083 0,104 -0,148 0,065 0,077 -0,081 0,595 0,7491 -0,1546 0,0239
55
3.4.1. VALIDAÇÃO DAS ESTIMATIVAS E DO RESÍDUO BRANCO
Validando o modelo percorrendo os vários pressupostos tem-se que:
1. A última frequência utilizada é a que corresponde á observação de ordem 140, apesar de
as frequências serem significativas (< 5%) até N = 2, isto porque o cálculo da série de
Fourier foi efectuado juntamente com o cálculo do EQM e verificou-se que o EQM era
menor para este número de frequências significativas (a significância de cada frequência
está listada na Tabela 3.8)
2. As ordenadas do periodograma reduzem – se para metade na proporção da redução de
50% do tamanho da amostra, ou seja as frequências determinadas são as “verdadeiras”
(Fig. 3.18)
3. As ordenadas do correlograma encontram-se dentro do intervalo de confiança a 95% (os
valores pontuais mais elevados que ultrapassam o limite do intervalo são desprezáveis
pois dizem respeito às horas de vazio) (Fig. 3.20)
4. Por verificação do ponto 3, o resíduo é um ruído branco (com distribuição normal)
(Fig. 3.19 e Fig. 3.21)
Ao terem sido verificados todos os pontos anteriores permite afirmar que o modelo teórico
Xt = sazonalidade + série cíclica determinística + ruído branco (erro na previsão) (1.1)
inicialmente proposto na abordagem metodológica é válido.
Tabela 3.8 - Cálculo da variância e significância
N Period (h)
Periodogram(Pi)
Variância(Pi /Ptotal)
% CumVariância
g Whitle(Equação 2.17)
Significância(Equação 2.17)
20 24,0000 93,48340 0,5864634 58,6% 0,5865 0,00%
40 12,0000 36,40687 0,2283966 81,5% 0,5523 0,00%
60 8,0000 11,59547 0,0727436 88,8% 0,3929 0,00%
80 6,0000 5,30180 0,0332606 92,1% 0,2959 0,00%
120 4,0000 2,95028 0,0185084 93,9% 0,2339 0,00%
100 4,8000 2,29488 0,0143968 95,4% 0,2375 0,00%
140 3,4286 1,68816 0,0105906 96,4% 0,2291 0,00%
180 2,6667 1,02433 0,0064261 97,1% 0,1803 0,00%
160 3,0000 0,76451 0,0047961 97,6% 0,1642 0,00%
200 2,4000 0,59731 0,0037472 97,9% 0,1535 0,00%
220 2,1818 0,35405 0,0022211 98,2% 0,1075 0,00%
240 2,0000 0,31258 0,0019609 98,4% 0,1063 0,00%
7 68,5714 0,17556 0,0011014 98,5% 0,0668 0,00%
2 240,0000 0,10793 0,0006771 98,5% 0,0440 0,51%
77 6,2338 0,05463 0,0003427 98,6% 0,0233 85,81%
--- --- --- ---- --- --- ---
Total 159,40195 100%
56
Fig. 3.18 - Periodograma: redução de 50% na dimensão da amostra
Fig. 3.19 – Gráfico: representação do resíduo
Fig. 3.20 - Função Autocorrelação do resíduo
57
Fig. 3.21 - Distribuição do resíduo
3.4.2. AVALIAÇÃO DA QUALIDADE DO AJUSTAMENTO
A Fig. 3.22 ilustra o ajustamento entre a série cronológica dos dados do contador fixo RALIS,
sentido Norte/Sul, e a série cronológica modelada. São evidentes alguns desfasamentos pontuais,
no entanto não são significativos pois, caso contrário, as frequências que lhes correspondem
teriam sido identificadas como estatisticamente significativas na obtenção do periodograma.
Objectivamente, para avaliar a qualidade do ajustamento podem ser usadas medidas
quantificadoras tais como o Erro Médio, o Erro Relativo Médio e o Erro Quadrático Médio. A
medida escolhida é EQM pois, como referido anteriormente, determina-se implicitamente a
variância dos erros de ajustamento [16].
Calculando a média do quadrado das diferenças entre cada medição e o valor calculado, obteve-
se uma qualidade de ajustamento assinalável. Sendo o objectivo obter o menor EQM possível,
para o caso da amostra de dias regulares dos RALIS, o EQM é igual a 3,35%. No final do
processo de ajustamento apenas 3,35% da variabilidade da amostra ficou por explicar, ou seja a
componente estocástica do modelo fica reduzida a um peso de 3,35% no modelo teórico validado.
Fig. 3.22 - Ajustamento da série estimada à série real
58
3.5 EFICIÊNCIA, PROB. DE ROTURA, TEMPO DE ATRASO VSVALOR DO TEMPO
Com base na fundamentação teórica introduzida na secção 2.5, procedeu-se ao cálculo da
grandeza Eficiência para uma secção em plena via, nomeadamente a secção padrão deste
estudo: RALIS_N_S (Fig. 3.23). Esta secção tem uma geometria caracterizada por 3 pistas por
sentido, com 3,5 metros de largura e sem berma de protecção. Os valores de fluxo utilizados
correspondem a medições recolhidas neste projecto, para apenas uma pista, no sentido Norte/Sul.
Necessariamente, os valores das velocidades correspondem aos fluxos da mesma pista.
Fig. 3.23 - Eficiência: cálculo para amostra recolhida, RALIS
Observa-se, para a secção em estudo, que a eficiência máxima é atingida para um fluxo de 3000
veic/h.pista e para uma velocidade de cerca de 80 km/h. Esta constatação coloca em questão o
modo corrente como tem sido dimensionada a capacidade das vias. Este cálculo revela que a
secção continua a escoar fluxos eficientemente até valores da ordem dos 3000 veic/h.pista, ou
seja a capacidade da via é significativamente superior aos 2400 veic/h.pista, valor tido como limite
de separação entre estado de escoamento livre e instável. Relativamente à velocidade de 80 km/h
do escoamento atingida para eficiência máxima, é o valor normal para escoamentos de equilíbrio
que também é preconizado no HCM. (Fig. 1.1).
Na Fig. 3.24 ilustra-se a análise efectuada às situações de rotura que ocorreram na secção em
estudo, RALIS_N_S, nos 31 dias de Março de 2007 e de 15 a 31 de Outubro de 2007. Esta
análise consistiu em identificar o fluxo imediatamente anterior a uma quebra na velocidade de
escoamento que se prelongasse por mais de 15 a 30 minutos. Ou seja, consistiu em identificar
fluxos de rotura. Após esta identificação, procedeu-se à quantificação da probabilidade de
ocorrência das roturas para o fluxo determinado. Após agrupados os dados da amostra em
classes, quantificou-se as frequências relativas. O eixo vertical representa a probabilidade de
rotura, e o eixo horizontal representa o fluxo correspondente.
59
Fig. 3.24 - Probabilidade de rotura por fluxo, RALIS
Da análise do gráfico verifica-se que o fluxo é relativamente estável até atingir os 3000
veic/h.pista, uma vez que o risco de ocorrer uma rotura de escoamento e este entrar em
Congestioanmento mantém.se infeior a10% até atingir os 3000 veic/h.pista. Compatibilizando a
análise anterior da eficiência com esta análise, conclui-se que a capacidade real da via é afinal de
3000 veic/h, uma vez que se atinge a eficiência máxima para esse valor e não aumenta o risco de
rotura do escoamento. Ou seja, apesar de a via ter sido dimensionada com a geometria standard,
e por isso com uma expectativa de capacidade de cerca de 2400 veic/h.pista, os condutores muito
experimentados que a utilizam são capazes de conduzir com densidades mais elevadas que as
representados nas amostras do HCM, “extraindo” da via uma capacidade de 3000 veic/h.pista.
Concluindo esta secção, faz-se uma breve análise ao tempo de atraso perdido quando o ocorre
uma rotura de escoamento e este entra em Congestionamento. A importância desta grandeza
como factor de decisão tem crescido ao longo dos anos e após a constatação da real capacidade
da secção do RALIS_N_S a sua análise encerra maior relevo no sentido de determinar qual a
ordem de grandeza do atraso real e qual o peso económico desse atraso na valorização do tempo
de viagem.
=3600
,+ 900
,1 +
,1 +
3600. ,
450 + 5 (24)
onde, – Atraso [s]
, – Capacidade [veic/h.pista] - Fluxo de procura [veic/h.pista] – Período de análise [1 hora]
A Equação (24) é uma transcrição da equação 17-38 do HCM 2000. Simula o tempo perdido numa
fila de espera perante um cruzamento não sinalizado. Apesar de as circunstâncias que originam a
fila de espera num cruzamento/intersecção (âmbito em que foi aplicada a fórmula na secção 2.1.5
– eficiência em intersecções) serem diferentes das de uma rotura de escoamento numa secção
60
em plena via, de um km de extensão por exemplo, os pressupostos da dinâmica da fila de espera
são semelhantes. A equação simula o tempo perdido durante a desaceleração inicial de passagem
de estado de Escoamento Livre até ao de rotura, durante os movimentos em fila de espera,
durante as paragens e o tempo final de aceleração. No todo, corresponde ao tempo total perdido
desde que um veículo atinge o final de uma fila até que esta termina. Portanto, parte-se do
pressuposto que a aplicação desta equação fornece uma ordem de grandeza razoável do tempo
de atraso durante um Congestionamento. Da aplicação da Equação (22), calculada relativamente
à capacidade real de 3000 veic/h.pista,resulta o seguinte gráfico da Fig. 3.25:
Fig. 3.25 - Tempo de atraso num congestionamento, RALIS
Tendo em conta a Fig. 3.1, que indica que o fluxo máximo em hora de ponta da manhã chega a
atingir os 4000 veic/h.pista, verifica-se que para esse fluxo de rotura de escoamento e a
capacidade máxima é excedida, o tempo de atraso é de cerca de 10 minutos/veic.
Segundo [15], este tempo de viagem perdido é valorizado. Este tempo poderia ser realocado como
tempo de trabalho. Como tal, a valorização do tempo de atraso, ou seja quanto se estaria disposto
a pagar para recuperar esse tempo, é correspondente ao nível de vencimento. Por indicação de
um especialista na área dos Transportes, tem-se como pressuposto que o nível de rendimento
médio líquido para a população motorizada da Grande Lisboa, em ordem de grandeza, será de
1500 €, a valorização do min perdido em fila de espera será de 0,15 € (160 h x 60 min/h 10000
min de tempo de trabalho mensal).
0,15€
× 10 = 1,5€
Se for tido em conta que há fortes probabilidades de em Hora de Ponta da Manhã na 2ªCircular
um veículo estar envolvido em pelo menos mais uma ou duas roturas de escoamento para jusante
dos RALIS_N_S, no total de um mês o custo é de 66 euros por veículo, o que já é um valor
significativo.
1,5 × 2 × 22( ú ) 66 / . ê
0
2
4
6
8
10
12
0 600 1200 1800 2400 3000 3600 4200 4800
Delay (min/veic)
61
3.6 RECOLHA DE DADOS IN SITU – AV. JOÃO CRISÓSTOMO
Tal como foi referido na introdução deste estudo, este é composto por uma componente de análise
de dados recolhidos por entidades que exploram os equipamentos montados no terreno e por uma
componente de recolha de dados in situ pelo autor, com um aparelho portátil de contagem de
fluxos de veículos. Os objectivos da recolha de dados in situ são: sistematizar e emitir
recomendações relativas ao processo de recolha de dados, obter o diagrama de fluxo para
posterior análise e efectuar uma comparação entre os resultados recolhidos pela placa móvel e os
obtidos pelos sensores fixos da CML.
Antes da recolha de dados no terreno, foi necessário proceder a uma reflexão inicial sobre a
abordagem a seguir. Como em todos os estudos, para executar esta recolha de dados havia que
ter presente a sua duração, restrição de início e fim, o local, quais as restrições dos recursos
materiais e humanos, tais como disponibilidade, consumo e custo. Nas próximas secções expõem-
se os passos seguidos.
3.6.1. APARELHO E ESCOLHA DO MATERIAL DE FIXAÇÃO
Quanto ao recurso material a utilizar, o equipamento usado foi o único disponível no NIPST, do
Departamento de Engenharia Civil do IST, nomeadamente o modelo Hi-Star NC-97 da linha Nu
Metrics, comercializado pela Quixote Transportation Technologies, Inc. , através do seu site
http://www.qttinc.com/pages/histar.html,
As características gerais do sensor são (Fig. 3.26 e Fig. 3.27):
Dimensões: 16,5 cm x 14 cm x 1,59 cm;
Material: Alumínio;
Grau de precisão: Escoamento Livre > 99,0%, +- 1 count; Slow/Stop Vehicles > 95,0%, +-
1 count;
Orientação: No sentido do fluxo.
o sensor é protegido por uma membrana (polímero) de dimensões: 41 cm x 39 cm.
Ambos são apresentados nas fotografias 3.26 e 3.27.
Havendo incertezas relativamente ao modo de utilização, software necessário e modo de fixação
do aparelho ao pavimento, uma vez que o equipamento nunca fora utilizado anteriormente, foi
necessário reunir com o representante da marca em Portugal. Da reunião surgiu uma nova ideia
relativamente ao modo e material de fixação ao pavimento.
62
Fig. 3.26 - Aparelho de contagem, Foto de AutorFig. 3.27 – Conjunto:membrana
e aparelho, Foto de Autor
Esta questão era fulcral para uma recolha de dados segura, eficaz e eficiente. Uma das restrições
colocadas pela entidade responsável que autorizou a recolha de dados no terreno, nomeadamente
a Direcção Municipal de Protecção Civil, Segurança e Tráfego da Câmara Municipal de Lisboa, era
não danificar o pavimento. Esta restrição operacional não estava em concordância com as
recomendações contidas no manual do equipamento, as quais indicavam uma fixação ao
pavimento através do uso de parafusos, o que implicaria o uso de um berbequim, ou através do
uso de pistola de agrafos.
A não danificação do pavimento era uma restrição fundamental à qual estava associada
intrinsecamente outra, de igual importância: não perturbar a fluidez do fluxo viário, tanto na
operação de fixação do aparelho ao pavimento, como também na sua posterior recolha.
Segundo o manual, uma fixação através de parafusos não se afigurava uma operação célere mas
era sem dúvida a que dava mais garantias de segurança, ou seja, não deslizamento do
equipamento. Tornou-se evidente que seria necessário alcançar um compromisso entre a
segurança na operação e a rapidez de montagem/desmontagem, para minimização da interrupção
do tráfego. Estas restrições operacionais foram alvo de reflexão conjunta entre o autor e o
representante da marca, havendo forte relutância por parte do autor em aplicar o método de
fixação por parafusos devido à oposição da CML e à morosidade do processo. A solução
encontrada foi usar uma fita de dupla face, aplicada ao pavimento previamente limpo de
impurezas.
No entanto, foi necessário distinguir o tipo de fita a usar, se uma fita de dupla face simples ou
esponjosa. Levantou-se esta dúvida uma vez que o pavimento das ruas municipais apresenta uma
rugosidade excessiva, devido à degradação, em vez da rugosidade ideal (superfície lisa, sem
levantamento do agregado do betuminoso)
Poder-se-ia colocar a questão de escolher um local de recolha de dados com pavimento
adequado, mas isso seria algo limitativo dos locais a considerar, uma vez que diminuiria a
intersecção que se pretendia alcançar entre contadores já colocados no pavimento, e dos quais
fora recolhida a contagem automática de veículos, e o local onde se recolhessem os dados. Foi
63
tido em conta este aspecto mas de forma moderada, considerando-se apenas uma distinção entre
pavimento revestido a paralelepípedos ou tapete betuminoso e se a via tinha declive significativo
ou não. Como foi referido, considerou-se de menor importância a qualidade do tapete betuminoso,
pois poderia ser ultrapassada essa dificuldade utilizando uma fita esponjosa.
3.6.2. ESCOLHA DA DATA, DO LOCAL E OBTENÇÃO DE AUTORIZAÇÃO
Fazia parte de um dos objectivos da recolha de dados no terreno, escolher um local que já
estivesse instrumentado com, no caso das vias lisboetas, laços electromagnéticos embutidos sob
o pavimento, para permitir avaliar a evolução da variabilidade do tráfego num dia homólogo, para o
ano de 2007 e de 2008.
A escolha do local foi restringida por questões de natureza de pavimento e declive da via, por
questões temporais e de existência de contadores já instalados.
Relativamente à questão temporal, o período de contagem propício seria um dos meses
representativos da amostra. Como foi referido em capítulos anteriores, os meses representativos
da amostra do ano são os meses de Março e Outubro, para o período corrente do ano, e o mês de
Agosto, para período representativo de férias. Por intersecção do período de elaboração deste
documento com o do mês representativo, o período escolhido foi Março.
É também um período fora da época de pluviosidade significativa, o que evitou introduzir mais
uma variável no problema, relativamente a óleos que se formam no pavimento aquando das
primeiras chuvas e que poderiam dificultar a fixação do aparelho ao pavimento e até mesmo
danificar o mesmo por infiltração na sua caixa de protecção.
Relativamente à escolha do local, além da restrição já referida do tipo de pavimento, à qual se deu
preferência a pavimento betuminoso e de baixo declive, acresce que teria de ser uma via de
terceiro nível, pois seria necessário interromper o fluxo viário, causando o mínimo de perturbação
e efectuar a operação em segurança, mesmo tendo a presença, obrigatória, de um agente da
Brigada de Transito da PSP. Deste modo, o número de locais possíveis reduziu-se drasticamente,
ou por alguns contadores estarem fora de serviço, ou por as vias serem caracterizadas por fluxos
significativos, mesmo fora das horas de ponta da manhã e da tarde.
Assim sendo, o local escolhido foi a Av. João Crisóstomo.
A escolha do local exacto na dita avenida ocorreu após uma visita exploratória, algumas semanas
antes do dia da recolha dos dados. Esta visita exploratória serviu principalmente para analisar qual
o melhor local onde colocar o aparelho. Inicialmente, houve um período de observação do
64
comportamento dos condutores, particularmente sobre a disciplina de passagem nas pistas de
circulação, uma vez que a sinalização horizontal na dita Avenida se encontra já em avançado
estado de desgaste, ou seja, é necessária uma intervenção de manutenção para restituir o
preenchimento das marcações com tinta nova. Foi também observado quais os usos do solo que
originavam mais estacionamento ilegal, de “segunda fila”, e que poderiam de certa forma contribuir
para desvios e concentrações de fluxo numa pista preferencial.
Foi também tida em conta a localização dos semáforos e a localização da estação do autocarro.
Pretende-se com isto evitar uma zona de travagem tanto dos veículos como do autocarro, o que
contribuiria para o deslizamento do aparelho por atrito aos rodados, mas também garantir que as
variáveis de velocidade e número de viaturas fossem recolhidas durante um estado de
escoamento livre do sistema e deste modo ter as condições mais próximas das condições ideais,
ou seja, velocidade próxima da velocidade de capacidade e fluxo sem descontinuidades. Note-se
que é importante que o sistema se encontre em escoamento livre, uma vez que o grau de precisão
de medição do aparelho decresce com o aparecimento de descontinuidades. Nesta situação, há
uma perturbação constante do campo magnético, perdendo-se precisão na contagem dos
veículos.
Finalmente, a escolha da pista de circulação deveu-se também a uma particularidade do
pavimento no local indicado. Em frente à Direcção Geral de Florestas, houve em ocasião anterior
a esta recolha de dados, uma intervenção no pavimento, porventura para executar alguma obra de
manutenção da cablagem de serviço ou nas condutas de saneamento. Ora, por esse motivo,
existe um “remendo” no pavimento, apresentando-se este com uma superfície mais lisa e regular.
Além desta vantagem para a fixação do aparelho, a configuração do “remendo” disciplinava de
certo modo o tráfego, levando os automobilistas a conduzir os veículos alinhados por essa
singularidade no pavimento, o que potenciava uma contagem mais eficaz dos veículos. Foi
também tida em conta, qualitativamente, a diferença de fluxos entre o que circulava pela pista
mais à esquerda, que dá acesso a Av. da República, e o que seguia pela pista central em direcção
ao IST. Concluiu-se que a pista central concentrava mais fluxo e portanto esta indicação constituía
mais uma razão para colocar o equipamento na pista central.
Posto isto, o local exacto escolhido foi entre a Av. 5 de Outubro e a Av. da República, em frente ao
nº 28, Direcção Geral das Florestas, imediatamente antes da paragem de transporte colectivo, na
pista central de rodagem. (Fig. 3.28)
65
Fig. 3.28 - Av. João Crisóstomo, Foto de Autor
Estando definido o local ideal para realizar a recolha de dados, a fase seguinte passou pela
obtenção de uma autorização por parte das autoridades competentes. O pedido iniciou-se junto da
Câmara Municipal de Lisboa que, posteriormente a autorizar a recolha de dados na via pública,
colocou como condição a presença de um agente da Brigada de Trânsito da PSP, durante o
período de interrupção do trânsito, para colocação do equipamento no pavimento.
O processo de requisição de um agente da Brigada de Trânsito foi algo sui generis.
Fundamentalmente, o processo baseou-se em requisitar uma gratificação por um determinado
período de tempo, no local e hora pretendidos. Neste particular, a condução do processo esteve
inteiramente a cargo do autor, não havendo participação ou colaboração por parte das entidades
camarárias. Note-se que, é importante ter alguma informação sobre os escalões de gratificações,
pois a tendência dos responsáveis da Brigada de Trânsito, é de avançar um valor de gratificação
superior ao necessário, ou seja, uma duração da gratificação muito superior ao tempo adequado
para a operação de colocação do aparelho na via pública. Existem vários escalões de
gratificações e, caso não haja cuidado em avaliar o valor indicado, de custo e tempo, o agente
convocado realizará a sua função em apenas 10% do tempo. No caso do autor, a gratificação
requisitada teve um custo de 37€ para um tempo debitado de 4 horas e um tempo efectivo de 30
minutos.
3.6.3. CONFIGURAÇÃO, TESTE DO EQUIPAMENTO E DO SOFTWARE
Antes da recolha real de dados na Av. João Crisóstomo, foi experimentado o aparelho numa via
residencial e posteriormente foram tratados os dados recolhidos através do software associado.
Esta experiência permitiu pôr à prova o equipamento em situações próximas das reais e trabalhar
com o software, pois era necessário programar o aparelho para executar a contagem dos veículos
66
no dia e hora pretendidos. O objectivo primordial era testar a adesão do equipamento ao
pavimento, factor muito importante para a recolha de dados real, pois era imperativo que o
equipamento não fosse arrastado pelos veículos, ficando danificado e podendo além disso causar
algum acidente. Na Fig. 3.29 apresenta-se o menu de configuração do software de utilização do
aparelho.
Fig. 3.29 - Configuração do programa HDM
O manual do equipamento indica que para uma correcta contagem de veículos e medição das
respectivas velocidades, o aparelho deve ser colocado no centro da faixa de rodagem, de modo a
que o rodado dos veículos passe lateralmente, ou seja, teoricamente não haveria passagem do
rodado por cima do equipamento. Naturalmente que esta é uma situação ideal, e como tal, nesta
experiência foram testadas as várias possibilidades de passagens verosímeis de acontecer:
i) Como indicava o manual;
ii) Com o rodado sobre o equipamento;
iii) Com o rodado sobre o equipamento e em travagem acentuada;
iv) Com o rodado sobre o equipamento e com mudança de direcção;
v) Com o rodado sobre o equipamento em aceleração.
No conjunto das várias passagens a velocidade de circulação foi na ordem do imposto pelo
Código da Estrada para o interior de uma cidade, na generalidade das vias, concretamente 50
km/h. No entanto, como medida cautelar, foram efectuadas passagens a velocidades superiores,
cerca de 60 km/h, uma vez que é fisicamente possível atingir essa velocidade na Av. João
Crisóstomo, desde que os veículos percorram a avenida na onda verde dos semáforos.
O modo de fixação ao pavimento foi o mais simples possível, o que no caso da experiência se
materializou em apenas uma limpeza de impurezas do pavimento, sem nenhum tipo de fixação do
67
equipamento. A lógica desta decisão era testar o equipamento, numa situação controlada, nas
piores condições possíveis. Se o resultado fosse positivo, então em condições de aderência mais
favoráveis os resultados seriam igualmente positivos.
Nesta experiência prévia ocorreu que, nas várias passagens efectuadas não houve alteração da
posição do equipamento.
Porventura, a presença de um objecto estranho na faixa de rodagem, pode provocar
comportamentos desviantes nos condutores, levando a que o fluxo se centrasse mais na pista de
rodagem mais à esquerda. Essa hipótese foi tida em conta, mas durante este teste experimental o
autor não teve essa percepção. Aliás, a reduzida espessura e dimensão da membrana protectora,
aos olhos do condutor, assemelham-se a um “remendo” no pavimento.
3.6.4. RECOLHA DE DADOS
Conforme as condições impostas pelos serviços camarários, a hora a que poderia ser efectuada a
operação de fixação do aparelho ao pavimento teria de ser antes das 08:00 AM, e a operação de
recolha do aparelho no final da contagem teria de ser após as 08:00 PM, ou seja, ambas as
operações teriam de ocorrer fora das horas de ponta, para minimizar a perturbação da fluidez do
trânsito e a possível ocorrência de algum acidente.
Desta forma, o autor deslocou-se à Avenida João Crisóstomo pelas 06:30 AM, solicitando para a
referida hora a presença de um agente da Brigada de Trânsito. Por essa hora, deu início o autor
às operações de fixação do aparelho ao pavimento.
Note-se que a contagem efectiva dos veículos em circulação estava programada para as 07:00
AM, portanto, como referido anteriormente, era necessário um período de 30 minutos de
calibração do aparelho, adaptação às variações ambientais do campo magnético do local, de
modo a optimizar a contabilização das referidas variações apenas provocadas pela passagem de
veículos.
Os passos foram os seguintes:
i) Limpeza do pavimento - A superfície do
pavimento apresentava boas qualidades
de aderência, devido às circunstâncias
referidas anteriormente. Por conseguinte,
era espectável que não existissem
dificuldades de maior na recolha de
dados; (Fig. 3.30)
Fig. 3.30 - Limpeza do pavimento, Foto de Autor
68
ii) Colocação de fita dupla - face na membrana protectora. Para este efeito, utilizou-se dois
tipos de fita: esponjosa, no perímetro, e não esponjosa, no interior. O objectivo foi
precaver eventuais irregularidades mais acentuadas no pavimento. Posteriormente, esta
particularidade revelou-se ser pouco significativa; (Fig. 3.31)
iii) Fixação do conjunto membrana protectora e contador no pavimento. (Fig. 3.32)
Fig. 3.31 - Colocação de fita, Foto de AutorFig. 3.32 – Fixação do conjunto, Foto de Autor
O passo seguinte não envolve qualquer operação específica de manuseamento do equipamento
mas é de importância fulcral. O período compreendido entre as 07:00 AM e as 08:00 PM foi
dedicado à vigia do equipamento, para garantir que a operação decorresse normalmente, sem
qualquer tipo de acidente por arrastamento do equipamento, e sem furto do equipamento. O
aspecto da via, bem como a inserção do equipamento na mesma, pode ser comprovado pelas
seguintes figuras. (
Fig. 3.33 e Fig. 3.34)
Fig. 3.33 - Equip. na via, Foto de Autor Fig. 3.34 – Circulação do trânsito, Foto de Autor
Finalmente, pelas 08:00 PM recolheu-se o equipamento, tirando partido de uma breve interrupção
do trânsito, com recurso ao triângulo de sinalização de perigo colocado anteriormente ao veículo
do autor, imobilizado junto do equipamento.
Em resumo, a operação de recolha de dados na Av. João Crisóstomo decorreu com sucesso.
69
3.6.5. ANÁLISE DO DIAGRAMA DE FLUXO OBTIDO
Fig. 3.35 – Diagrama: dados in situ, 2008 Fig. 3.36 – Diagrama: dados CML, 2007
Por comparação dos diagramas de fluxo obtidos em dias homólogos de 2007 (Fig. 3.36) e 2008
(Fig. 3.35), nomeadamente no dia 13 de Março, verifica-se que:
Existe uma diferença de escala entre os diagramas, sendo que isto se deve ao número de
pistas que contribuem para a recolha de dados. Na recolha in situ com o contador móvel,
os valores correspondem a uma pista, enquanto os dados do contador fixo da CML
correspondem a duas pistas, uma vez que a ordem de grandeza é cerca do dobro;
Não se verifica uma ponta da manhã significativa em nenhum dos diagramas. No entanto,
há um patamar relativamente uniforme das 10 h até as 15/17 h, com fluxos na ordem dos
400 veic/h.pista. Verifica-se que de 2007 para 2008, o acréscimo de fluxo no final do dia
se inicia mais cedo, ou seja inicia-se às 15 h em 2008 em vez de ser as 17 h. Nesse
acréscimo de fluxo a meio da tarde, o contador regista fluxos da ordem dos 450
veic/h.pista, com uma redução de velocidades para valores inferiores aos 40 km/h;
As velocidades medidas não evidenciam qualquer tipo de Breakdown ou de ocorrência
fora do normal, tais como condutores em excesso de velocidade;
Dos pontos anteriores decorre que esta via tem mais procura durante a ponta da tarde,
sendo portanto mais relevante o seu rácio fluxo/capacidade durante esse período.
70
71
4 CONCLUSÕES__
4.1 INTERPRETAÇÃO DE RESULTADOS
Inicia-se a secção por uma interpretação de cada uma das análises anteriores. Posteriormente,
extrair-se-à uma avaliação global do estudo, confrontado os objectivos propostos para serem
alcançados com a plenitude dos resultados obtidos. Nas duas secções seguintes, emitem-se
recomendações sobre a recolha de dados e cobertura da rede com contadores fixos, com base
nos conhecimentos e experiência adquiridos com a produção deste estudo. A última secção é
direccionada para a continuidade do estudo, propondo perspectivas e tópicos que possam ser
úteis de prosseguir.
Relativamente à Análise de Clusters, esta foi eficaz na identificação de clusters com dias mais
propícios à recolha de dados (clusters consistentes). Através de um processo iterativo, foram
eliminados os outliers resultando no final um conjunto de 3 clusters + 1 ( a semana fica dividida em
i) 2ªs; ii) 3ªs,4ªs e 5ªs; iii) 6ªs; iv) Sab e Dom). O método de validação revelou-se adequado e
rigoroso uma vez que é feito um cruzamento de dados entre 3 locais independentes
estatísticamente. Com base nesta validação, afirma-se que os dias mais propícios à recolha de
dados são a 3ª, 4ª e 5ª. Relativamente às 2ªs e 6ªs, podem ou não formar um cluster apenas mas
o mais provável é que formem clusters separados, carecendo esta conclusão de análises com
base em amostras mais extensas.
Como resultado desta análise, identificou-se um dia padrão como sendo a Quinta-Feira, dia 8 de
Março de 2007. É necessária alguma prudência na aplicação deste conceito de dia padrão. O dia
identificado reflecte as características de tráfego da generalidade dos dias do ano mas representa
apenas uma “baliza” para os valores dos fluxos. Deverão os valores indicados ser tidos como uma
ordem de grandeza e não como uma verdade absoluta.
A aferição da transferibilidade do diagrama no tempo e no espaço teve, respectivamente, uma
taxa de sucesso de 100% e de 38%. Ou seja, no caso da transferibilidade no espaço, que se
efectou entre os RALIS e o EIXO_N_S, esta foi válida em apenas 38% dos dias propícios. Não é
um resultado inesperado uma vez que uma transferibilidade no espaço depende fortemente de
pressupostos de inserção topológica na rede, semelhança geométrica e funcionalidade. No
entanto, diga-se que o EIXO_N_S consiste num dos poucos locais adequados para estabelecer
paralelismos e que portanto a ordem de grandeza da taxa não estará muito desviada da realidade.
72
Quanto à modelação do diagrama padrão, para efeitos de previsão, o modelo teórico de
sobreposição de 3 componentes (sazonalidade, comp. determinística cíclica, ruído branco)
demonstrou-se ser correcto e adequado à natureza dos dados. Sobretudo ficou claro que a
qualidade do ajustamento da série modelada à serie orginal é práticamente isenta de erro, uma
vez que apenas 3,35% da variabilidade da série não é explicada pelo modelo.
O cálculo da grandeza Eficiência revelou um resultado inesperado/inovador. A Figura 2.29 mostra
que o escoamento é eficiente até ao limite de 3000 veic/h.pista. Ou seja, o valor máximo de 2400
veic/h.pista que actualmente é expectável para uma via de geometria standard, não corresponde à
capacidade máxima aqui encontrada. Além disto, este estudo provou que a rotura do escoamento,
com passagem ao regime de Conagestionamento, não é um fenómeno determinístico mas sim
estocástico, existindo uma probabilidade de rotura, algo que não é contemplado no HCM de 2000.
Demonstrou-se que para a secção de estudo, o fluxo é bastante estável, já que até à sua
capacidade real de 3000 veic/h.pista funciona com probabilidades de rotura praticamente
constantes na ordem dos 10%. A contabilização do tempo perdido quando ocorre uma rotura,
indica um valor na ordem dos 10 minutos por veic. É importante ter presentes esta ordem de
grandeza quando se revelar mais importante a valorização do tempo perdido em viagem. Esse
tempo corresponde, para uma parte significativa dos viajantes que passam na secção en estudo
(RALIS), a um período de tempo de trabalho não realizado. Futuramente a valorização desse
tempo será superior aos 15 cêntimos por minuto e nessa altura será útil reavaliar o custo/benefício
de um dimensionamento de largura de vias superior, para permitir maiores capacidades sem
ocorrências de roturas.
4.2 PROCEDIMENTOS DE RECOLHA DE DADOS
As recomendações incidem sobre os procedimentos de recolha de dados de tráfego em locais não
equipados, tendo em vista a estimação do seu diagrama de fluxo padrão. Estas são expressão de
um resultado optimizado de uma recolha in situ realizada no âmbito da abordagem metodológica
expressa na secção 1.4 deste estudo. Partindo do pressuposto que foi escolhido o local, dia e
equipamento, o procedimento que se aconselha que seja conduzido segundo princípios objectivos
e científicos, fundamentalmente é o seguinte:
Reconhecimento do local: observar e analisar a diciplina de condução no local, qual a
pista favorável à montagem do equipamento, quais os usos do solo que possam
distorcer um estado de escoamento livre, condições de pavimento, alguma linha de
água artificial que possa danificar o aparelho com águas ou óleos, heterogeneidade de
veículos em circulaçao (BUS), produzir elementos de suporte para posterior análise
(fotografia e filme);
73
Teste do equipamento e do software: em condições controláveis e não restringidas,
num local seguro, testar o equipamento e programar o software. Nesta fase, os erros
cometidos não têm gravidade mas são importantes para antecipar qualquer situação
na futura recolha de dados efectiva;
Adaptar o método e material de fixação às restrições temporais: a (des)montagem do
equipamento requer interrupção do tráfego durante um determinado período e que não
coincida com as Horas de Ponta da Manhã ou da Tarde. Quanto mais importante for o
nível da vía, mais problemático é o “corte” da pista de montagem do equipamento.
Neste sentido, pretende-se que a fixação do equipamento seja célere;
Ajustar o método e material de fixação às condições do pavimento: reconhecer a
rugosidade do pavimento e estado de degradação de modo a que a fixação do
equipamento seja eficaz, estável e garanta fiabilidade durante o período de recolha
dos dados;
Reduzir o risco de acidentes e de roubo do equipamento: requisitar um Agente da
Autoridade, para estar presente durante a operação de (des)montagem. Em vias de
nível superior e/ ou de tráfego significativo é essencial que a responsabilidade da
recolha de dados esteja assegurada pelas entidades competentes. Durante a recolha
de dados, é importante a presença próxima do equipamento para prevenir alguma
tentativa de furto (sugere-se uma vigia por turnos);
Analisar criticamente os dados recolhidos: detectar alguma incongruência grosseira,
porventura devido a alguma falha de leitura do equipamento, por ocorrência de uma
rotura ou de um acidente.
4.3 ESTUDO DESENVOLVIDO E SUGESTÕES DE CONTINUIDADEDos objectivos tácticos enunciados na introdução do trabalho, foram todos alcançados. Neste
sentido, atingiram-se também os objectivos estratégicos propostos, que consistiam em aumentar a
eficiência nas operações de recolha de dados de tráfego e avaliar objectivamente a capacidade de
uma via, associando um risco de rotura e estimando um tempo de atraso em Congestionamento.
Identificou-se quais os dias propícios a uma recolha de um diagrama padrão com contadores
móveis e quais os procedimentos optimizados para essa recolha. Estabeleceu-se um modelo
matemático para o diagrama padrão e um modelo estatístico que permita a transferibilidade do
diagrama padrão no espaço e no tempo. Paralelamente, identificou-se qual a real capacidade da
secção em estudo, RALIS_N_S e qual a probabilidade de rotura do escoamento nessas
condições. Uma breve análise efectuada do valor do tempo perdido permite ter uma noção do
peso económico que esse tempo tem em condições de Breakdown.
74
Sugere-se para continuidade do estudo aprofundar as questões relacionadas com a componente
variável dos resíduos de modelação da curva padrão. O objectivo será relacionar essa
componente com variáveis do clima e indicadores de acidentes rodoviários de modo a reduzir a
dimensão da variabilidade contida nos dados. Paralelamente, rever os procedimentos de
dimensionamento de vias urbanas, de modo a que se avalie qual a largura de pista necessária
para sustentar fluxos acima de 2400 veic/h.pista. Complementar esta análise com a contabilização
dos custos de alargamento versus valor do tempo perdido em Breakdown que seria recuperado
com o alargamento das pistas de rodagem.
75
5 BIBLIOGRAFIA__________________________________________________________________________
[1] WIKIPEDIA - Traffic Flow. [Online] - Disponível: http://en.wikipedia.org/wiki/Traffic_flow,[Consultado em 2008].
[2] VIEGAS, JOSÉ MANUEL C. B. – Apontamentos da disciplina de Transportes, Lisboa, DEC –Instituto Superior Técnico, 2006.
[3] MARTINHO, LUÍS FILIPE VILAR. - A Variabilidade temporal dos volumes de tráfego:metodologia de base para o desenho e implementação de planos de monitorização detráfego – Tese de Mestrado, Coimbra, 2007.
[4] HAIR, J.F. Jr.; ANDERSON, R. E.; TATHAM, R. L. e BLACK, W.C., Multivariate Data Analysis,Wiley, 1998.
[5] FERREIRA, MARIA LUISA C. P. – Modelação e tipificação dos diagramas de potência decarga semanais por subestação REN – Tese de Mestrado, Lisboa, Instituto SuperiorTécnico, 1997.
[6] TAVARES, L.V.; OLIVEIRA, R.; THEMIDO, I. e CORREIA, F .N. - Investigação Operacional,Mc-Graw Hill, 1996.
[7] Estudo de Mobilidade de Lisboa - Lisboa, Câmara Municipal de Lisboa, 2005.
[8] GOOGLE - Google Maps [Online] – Disponível: http://maps.google.com/[Consultado em 2008]
[9] OLIVEIRA, RUI CARVALHO – Apontamentos da disciplina de Análise de Dados e Avaliação,Lisboa, DEC – Instituto Superior Técnico, 2007.
[10] WIKIPEDIA – Fourier Serie [Online] - Disponível:http://en.wikipedia.org/wiki/Fourier_series , [Consultado em 2008]
[11] GUIMARÃES, R. C. e CABRAL, J. A. S. - Estatística, McGraw Hill, 1997.
[12] BRILON, WERNER - Traffic Flow Analysis Beyond Traditional Methods, TransportationResearch Circular E-C018: 4th International Symposium on Highway Capacity, Germany,Ruhr – University Bochum, 2000.
76
[13] Highway Capacity Manual - TRB, 2000.
[14] LORENZ, MATT e ELEFTERIADOU, LILY - A Probabilistic Approach to Defining FreewayCapacity and Breakdown. Pennsylvania USA, Pennsylvania State University, 2000.
[15] DIAZ, SERGIO R. JARA - Allocation and Valuation of Travel-Time Savings, Handbook of
Transport Modelling, Elsevier Science Ltd., 2000
[16] BASE DE DADOS - recolhida com a colaboração de: Câmara Municipal de Lisboa (CML)
Departamento de Segurança Rodoviária e Tráfego; BRISA S.A.; Estradas de Portugal, S.A.
(EP).
[17] Traffic flow theory 2006, Washington, D. C., Transportation Research Board, 2006.
[18] ASHTON, WINIFRED D. – The theory of road traffic flow, London: Methuen; New York:
John Wiley, 1996
[19] DAGANZO, CARLOS – Fundamentals of transportation and traffic operations, Oxford,
1997.
[20] HOBEIKA, A. G. and KIM, CHANG KYUN – Traffic flow prediction systems based on
upstream traffic, Blacksburg USA, Center for Transportation Research.
[INTERNET – PAPER, 2008]
[21] LEE, H. Y.; LEE, H. W. and KIM, D. – Phase diagram of congested traffic flow: an empirical
study, Massachusetts, Massachusetts Institute of Technology, 2000.
[INTERNET – PAPER, 2008]
[22] MAY, ADOLF D. – Traffic flow fundamentals, Englewood Cliffs, N.J. : Prentice Hall, 1990.
[23] SCHEFFER, M. F.; BENEKE, J. J. P. e KUNICKI, J. S. – Network traffic fluctuations,
South Africa, Rand Afrikaans University, 1994. [INTERNET – PAPER, 2008]
[24] SUN, CARLOS and RITCHIE, STEPHEN G. – Individual Vehicle Speed Estimation using Single
Loop inductive waveforms, Berkeley, Institute of Transportation Studies University of
California, 1999. [INTERNET – PAPER, 2008]
[25] TAMPÉRE, CHRIS e AREM, BART VAN – Traffic flow theory and its applications in
automated vehicle control: a review, IEEE Intelligent Systems Conference Proceedings –
Oakland USA, 2001. [INTERNET – PAPER, 2008]
77
6 ANEXOS___________________________________________________________________________________
5.1 OUTPUTS DA ANÁLISE DE CLUSTERS – K MEANS
Fig. 6.1 - ANOVA: RALIS Fig. 6.2 – Cluster Means: RALIS
FIG. 6.3 – ESTATÍSTICA DESCRITIVA: CLUSTERS 1,2 3 - RALIS
Analysis of Variance (RALIS_N_S)
VariableBetween
SSdf Within
SSdf F signi f.
p00h01h02h03h04h05h06h07h08h09h10h11h12h13h14h15h16h17h18h19h20h21h22h23h
0,011917 2 0,31066830 0,57537 0,5685830,006155 2 0,04551030 2,02852 0,1491810,003218 2 0,01009030 4,78319 0,0157370,001769 2 0,00689530 3,84881 0,0325170,000947 2 0,00665130 2,13483 0,1358850,002815 2 0,00784530 5,38263 0,0100570,009134 2 0,08729930 1,56951 0,2247620,028920 2 0,34169930 1,26953 0,2956280,428322 2 0,88752130 7,23907 0,0027200,164079 2 0,56869330 4,32778 0,0223170,018178 2 0,42671030 0,63900 0,5348520,011970 2 0,14104530 1,27299 0,2946850,019126 2 0,09533730 3,00916 0,0644120,015634 2 0,05329330 4,40045 0,0210960,007240 2 0,06314330 1,71988 0,1962790,042893 2 0,05753930 11,18177 0,0002350,017057 2 0,10583430 2,41747 0,1063150,018791 2 0,15393830 1,83104 0,1777070,000063 2 0,14881730 0,00631 0,9937140,099954 2 0,14574830 10,28701 0,0003960,415486 2 0,10738330 58,03802 0,0000000,389845 2 0,10523130 55,57022 0,0000000,149501 2 0,04272130 52,49248 0,0000000,140530 2 0,05205130 40,49799 0,000000
Descriptive Statistics for Cluster 1Cluster contains 16 cases
VariableMean Standard
DeviationVariance
00h01h02h03h04h05h06h07h08h09h10h11h12h13h14h15h16h17h18h19h20h21h22h23h
0,399257 0,117814 0,0138800,186296 0,043626 0,0019030,098268 0,018337 0,0003360,087329 0,008577 0,0000740,138741 0,014908 0,0002220,300038 0,016742 0,0002800,800565 0,053708 0,0028852,145549 0,117476 0,0138011,754044 0,189844 0,0360411,496044 0,166969 0,0278791,471563 0,148624 0,0220891,296852 0,046961 0,0022051,242076 0,047384 0,0022451,213838 0,037980 0,0014421,348081 0,030895 0,0009551,336910 0,027054 0,0007321,272365 0,052331 0,0027391,366710 0,071033 0,0050461,395071 0,086994 0,0075681,237571 0,078080 0,0060971,017648 0,052489 0,0027550,750929 0,063981 0,0040940,661157 0,031682 0,0010040,552626 0,036731 0,001349
Descriptive Statistics for Cluster 2Cluster contains 7 cases
VariableMean Standard
DeviationVariance
00h01h02h03h04h05h06h07h08h09h10h11h12h13h14h15h16h17h18h19h20h21h22h23h
0,378745 0,020719 0,0004290,187891 0,017029 0,0002900,118437 0,013152 0,0001730,100821 0,009923 0,0000980,152357 0,011789 0,0001390,320747 0,017083 0,0002920,789294 0,037211 0,0013852,142134 0,105635 0,0111591,859311 0,210512 0,0443151,609809 0,105372 0,0111031,485816 0,035620 0,0012691,314715 0,040548 0,0016441,260113 0,032388 0,0010491,263457 0,024004 0,0005761,379201 0,048664 0,0023681,419111 0,034908 0,0012191,330506 0,040579 0,0016471,424750 0,049241 0,0024251,398554 0,037171 0,0013821,376584 0,083704 0,0070061,298283 0,060470 0,0036571,029991 0,042810 0,0018330,823246 0,036948 0,0013650,717741 0,037690 0,001421
Descriptive Statistics for Cluster 3Cluster contains 10 cases
VariableMean Standard
DeviationVariance
00h01h02h03h04h05h06h07h08h09h10h11h12h13h14h15h16h17h18h19h20h21h22h23h
0,430642 0,105351 0,0110990,216468 0,041125 0,0016910,117726 0,021105 0,0004450,102689 0,024038 0,0005780,140376 0,016612 0,0002760,316551 0,014489 0,0002100,832089 0,063002 0,0039692,208862 0,086754 0,0075262,017842 0,094880 0,0090021,651080 0,096549 0,0093221,525562 0,098749 0,0097511,340948 0,104403 0,0109001,297733 0,078433 0,0061521,251808 0,055975 0,0031331,376581 0,062018 0,0038461,399787 0,066038 0,0043611,299305 0,078086 0,0060971,402882 0,084132 0,0070781,396842 0,054780 0,0030011,250904 0,036911 0,0013621,035322 0,070013 0,0049020,796820 0,060398 0,0036480,654865 0,046516 0,0021640,569489 0,050870 0,002588
Cluster Means (RALIS_N_S_)
VariableClusterNo. 1
ClusterNo. 2
ClusterNo. 3
00h01h02h03h04h05h06h07h08h09h10h11h12h13h14h15h16h17h18h19h20h21h22h23h
0,399257 0,3787450,4306420,186296 0,1878910,2164680,098268 0,1184370,1177260,087329 0,1008210,1026890,138741 0,1523570,1403760,300038 0,3207470,3165510,800565 0,7892940,8320892,145549 2,1421342,2088621,754044 1,8593112,0178421,496044 1,6098091,6510801,471563 1,4858161,5255621,296852 1,3147151,3409481,242076 1,2601131,2977331,213838 1,2634571,2518081,348081 1,3792011,3765811,336910 1,4191111,3997871,272365 1,3305061,2993051,366710 1,4247501,4028821,395071 1,3985541,3968421,237571 1,3765841,2509041,017648 1,2982831,0353220,750929 1,0299910,7968200,661157 0,8232460,6548650,552626 0,7177410,569489
78
Fig. 6.4 - ANOVA: EIXO N_S Fig. 6.5 – Cluster Means: EIXO N_S
FIG. 6.6 – ESTATÍSTICA DESCRITIVA: CLUSTERS 1,2 3 - EIXO N_S
Analysis of Variance (EIXO_N_S)
VariableBetween
SSdf Within
SSdf F signi f.
p00h01h02h03h04h05h06h07h08h09h10h11h12h13h14h15h16h17h18h19h20h21h22h23h
0,002961 2 0,22934430 0,20656 0,8144500,023951 2 0,10903930 3,51442 0,0417090,010576 2 0,11058530 1,53018 0,2319200,011138 2 0,13013330 1,36940 0,2687590,035888 2 0,12294030 4,67061 0,0166060,005407 2 0,14675230 0,58948 0,5605250,004567 2 0,13548230 0,53937 0,5883210,127217 2 0,32206430 6,32007 0,0048620,934806 2 0,46002030 32,513540,0000000,440419 2 0,19468830 36,194760,0000000,015981 2 0,13148330 1,94468 0,1595690,008368 2 0,06613530 2,02449 0,1486320,013581 2 0,05347130 4,06376 0,0267500,019852 2 0,05102830 6,22470 0,0052060,012854 2 0,03424930 6,00500 0,0061030,011175 2 0,08072330 2,21490 0,1256290,035882 2 0,05829930 9,84785 0,0004650,028368 2 0,05856130 7,75069 0,0017990,032378 2 0,09979930 5,19086 0,0111570,029103 2 0,10732230 4,33877 0,0215140,060372 2 0,11004130 8,77815 0,0009140,045490 2 0,18806830 3,87008 0,0312410,092145 2 0,16615730 8,87303 0,0008600,101652 2 0,21290430 7,63928 0,001940
Descriptive Statistics for Cluster 1Cluster contains 12 cases
VariableMean Standard
DeviationVariance
00h01h02h03h04h05h06h07h08h09h10h11h12h13h14h15h16h17h18h19h20h21h22h23h
0,728155 0,069598 0,0048440,658598 0,061522 0,0037850,652942 0,058579 0,0034310,652349 0,065120 0,0042410,652617 0,069753 0,0048650,683313 0,062652 0,0039250,780760 0,057957 0,0033591,383648 0,068659 0,0047141,262726 0,112337 0,0126201,231319 0,107472 0,0115501,212257 0,055995 0,0031351,085933 0,046733 0,0021841,078638 0,037672 0,0014191,102362 0,046793 0,0021901,193451 0,022760 0,0005181,144698 0,060251 0,0036301,136450 0,059257 0,0035111,209893 0,039311 0,0015451,195981 0,045917 0,0021081,114452 0,060337 0,0036411,070621 0,081790 0,0066900,975457 0,109882 0,0120740,923155 0,105660 0,0111640,837817 0,111471 0,012426
Descriptive Statistics for Cluster 2Cluster contains 14 cases
VariableMean Standard
DeviationVariance
00h01h02h03h04h05h06h07h08h09h10h11h12h13h14h15h16h17h18h19h20h21h22h23h
0,731989 0,077427 0,0059950,700657 0,056689 0,0032140,687252 0,061414 0,0037720,691874 0,053239 0,0028340,695146 0,046204 0,0021350,711670 0,049674 0,0024680,806179 0,057885 0,0033511,268133 0,068624 0,0047091,621921 0,098825 0,0097661,461054 0,035107 0,0012331,184547 0,033977 0,0011541,067095 0,032302 0,0010431,049504 0,024944 0,0006221,076652 0,031237 0,0009761,176284 0,028363 0,0008041,126384 0,031819 0,0010121,098754 0,030087 0,0009051,152299 0,034536 0,0011931,143663 0,062314 0,0038831,082566 0,056409 0,0031821,016384 0,039261 0,0015410,934408 0,060753 0,0036910,875453 0,049345 0,0024350,810850 0,060618 0,003675
Descriptive Statistics for Cluster 3Cluster contains 7 cases
VariableMean Standard
DeviationVariance
00h01h02h03h04h05h06h07h08h09h10h11h12h13h14h15h16h17h18h19h20h21h22h23h
0,751823 0,114724 0,0131620,726348 0,056585 0,0032020,693027 0,053499 0,0028620,685132 0,079107 0,0062580,738384 0,075150 0,0056480,696344 0,099303 0,0098610,788397 0,085876 0,0073751,240737 0,170830 0,0291831,572271 0,162338 0,0263541,478743 0,084836 0,0071971,238815 0,107458 0,0115471,106654 0,062682 0,0039291,098280 0,064531 0,0041641,138106 0,043558 0,0018971,225920 0,049696 0,0024701,172581 0,061665 0,0038031,180924 0,031624 0,0010001,209730 0,059599 0,0035521,214765 0,056371 0,0031781,156883 0,056982 0,0032471,121759 0,046099 0,0021251,027156 0,022614 0,0005111,008336 0,036378 0,0013230,948079 0,059494 0,003540
Cluster Means (E IXO_N_S)
VariableClusterNo. 1
ClusterNo. 2
ClusterNo. 3
00h01h02h03h04h05h06h07h08h09h10h11h12h13h14h15h16h17h18h19h20h21h22h23h
0,7281550,7319890,7518230,6585980,7006570,7263480,6529420,6872520,6930270,6523490,6918740,6851320,6526170,6951460,7383840,6833130,7116700,6963440,7807600,8061790,7883971,3836481,2681331,2407371,2627261,6219211,5722711,2313191,4610541,4787431,2122571,1845471,2388151,0859331,0670951,1066541,0786381,0495041,0982801,1023621,0766521,1381061,1934511,1762841,2259201,1446981,1263841,1725811,1364501,0987541,1809241,2098931,1522991,2097301,1959811,1436631,2147651,1144521,0825661,1568831,0706211,0163841,1217590,9754570,9344081,0271560,9231550,8754531,0083360,8378170,8108500,948079
79
Fig. 6.7 - ANOVA: A5 - Lx/Carcavelos Fig. 6.8 – Cluster Means: A5 – Lx/Carcavelos
FIG. 6.9 – ESTATÍSTICA DESCRITIVA: CLUSTERS 1,2 3 - A5 LX/CARCAVELOS
Analysis of Variance (A5 - Lisboa_Carcave los)
VariableBetween
SSdf Within
SSdf F signi f.
p00h01h02h03h04h05h06h07h08h09h10h11h12h13h14h15h16h17h18h19h20h21h22h23h
0,011842 2 0,06638230 2,85418 0,0723430,003008 2 0,04368630 1,10156 0,3446270,001622 2 0,01384930 1,87449 0,1698960,000810 2 0,01633430 0,79310 0,4611330,000120 2 0,00582430 0,32871 0,7222560,001152 2 0,00470430 3,91899 0,0300360,074032 2 0,03833830 30,896740,0000000,564957 2 0,68910730 13,117420,0000691,999310 2 0,42227030 75,754780,0000000,662233 2 0,29307330 36,153920,0000000,051695 2 0,19005430 4,35204 0,0212910,025961 2 0,09413830 4,41249 0,0203040,023052 2 0,12149330 3,03587 0,0620520,019773 2 0,07840230 4,03516 0,0273680,015815 2 0,04800430 5,27135 0,0105000,055760 2 0,12310830 7,24703 0,0025350,081182 2 0,23569930 5,51087 0,0087780,129637 2 0,32897830 6,30497 0,0049150,065374 2 0,28954430 3,61254 0,0384930,084491 2 0,40197730 3,36301 0,0472450,256333 2 0,63741530 6,43433 0,0044800,103938 2 0,32370330 5,13743 0,0116170,037763 2 0,11916430 5,07045 0,0122220,074051 2 0,17958130 6,59767 0,003989
Descriptive Statistics for Cluster 1Cluster contains 19 cases
VariableMean Standard
DeviationVariance
00h01h02h03h04h05h06h07h08h09h10h11h12h13h14h15h16h17h18h19h20h21h22h23h
0,282851 0,049800 0,0024800,156317 0,040823 0,0016670,097240 0,021402 0,0004580,102678 0,023658 0,0005600,068412 0,015147 0,0002290,126542 0,009905 0,0000980,547084 0,038006 0,0014442,357299 0,173756 0,0301911,914642 0,098939 0,0097891,551762 0,085952 0,0073881,713262 0,082183 0,0067541,482648 0,057840 0,0033461,424230 0,065649 0,0043101,334981 0,057912 0,0033541,427861 0,045465 0,0020671,389552 0,070732 0,0050031,454575 0,101998 0,0104041,736875 0,123219 0,0151831,777532 0,103750 0,0107641,464581 0,112128 0,0125731,052582 0,163810 0,0268340,685341 0,121292 0,0147120,553589 0,074416 0,0055380,498573 0,083399 0,006955
Descriptive Statistics for Cluster 2Cluster contains 6 cases
VariableMean Standard
DeviationVariance
00h01h02h03h04h05h06h07h08h09h10h11h12h13h14h15h16h17h18h19h20h21h22h23h
0,319803 0,045918 0,0021080,173653 0,027729 0,0007690,115219 0,023895 0,0005710,111248 0,016558 0,0002740,073489 0,005556 0,0000310,139402 0,009423 0,0000890,614444 0,017699 0,0003132,560962 0,099291 0,0098591,413302 0,200183 0,0400731,371027 0,170320 0,0290091,700860 0,072387 0,0052401,554701 0,042717 0,0018251,488793 0,055655 0,0030971,379562 0,027401 0,0007511,477822 0,020650 0,0004261,477854 0,058326 0,0034021,569481 0,052382 0,0027441,902003 0,061252 0,0037521,896269 0,066202 0,0043831,552960 0,101774 0,0103581,198733 0,117578 0,0138250,815313 0,084676 0,0071700,616281 0,035658 0,0012720,596913 0,078446 0,006154
Descriptive Statistics for Cluster 3Cluster contains 8 cases
VariableMean Standard
DeviationVariance
00h01h02h03h04h05h06h07h08h09h10h11h12h13h14h15h16h17h18h19h20h21h22h23h
0,262594 0,033012 0,0010900,144749 0,031972 0,0010220,096968 0,016924 0,0002860,096265 0,023262 0,0005410,069261 0,012798 0,0001640,137137 0,017306 0,0002990,651740 0,034144 0,0011662,640662 0,090953 0,0082721,444643 0,067003 0,0044891,233464 0,030946 0,0009581,623073 0,066639 0,0044411,481981 0,051780 0,0026811,415246 0,054907 0,0030151,305451 0,036957 0,0013661,414045 0,028716 0,0008251,355547 0,037150 0,0013801,426067 0,055128 0,0030391,751177 0,052132 0,0027181,798184 0,088823 0,0078891,399856 0,117954 0,0139130,932703 0,085480 0,0073070,653008 0,032268 0,0010410,513880 0,030802 0,0009490,454935 0,045633 0,002082
Cluster Means (A5 - Lx_Carcavelos
VariableClusterNo. 1
ClusterNo. 2
ClusterNo. 3
00h01h02h03h04h05h06h07h08h09h10h11h12h13h14h15h16h17h18h19h20h21h22h23h
0,282851 0,319803 0,2625940,156317 0,173653 0,1447490,097240 0,115219 0,0969680,102678 0,111248 0,0962650,068412 0,073489 0,0692610,126542 0,139402 0,1371370,547084 0,614444 0,6517402,357299 2,560962 2,6406621,914642 1,413302 1,4446431,551762 1,371027 1,2334641,713262 1,700860 1,6230731,482648 1,554701 1,4819811,424230 1,488793 1,4152461,334981 1,379562 1,3054511,427861 1,477822 1,4140451,389552 1,477854 1,3555471,454575 1,569481 1,4260671,736875 1,902003 1,7511771,777532 1,896269 1,7981841,464581 1,552960 1,3998561,052582 1,198733 0,9327030,685341 0,815313 0,6530080,553589 0,616281 0,5138800,498573 0,596913 0,454935