análise de dalitz plot do decaimento e projeto de emulador de … · logo após o big bang haveria...
TRANSCRIPT
Departamento de Física
Análise de Dalitz Plot do decaimento 𝑫! → 𝑲!𝑲!𝑲! e Projeto de emulador de padrão de dados no VErtex LOcator no Experimento LHCb
Aluno: Rafael Tourinho Aoude Orientador: Carla Göbel Burlamaqui
Departamento de Física - PUC-Rio
1. Introdução Se pudéssemos construir o universo, começaríamos com pequenos “tijolinhos” e um a
um montaríamos sistemas complexos e ricos. Mas se à medida que fossemos construindo percebêssemos que esses tijolinhos não são os menores possíveis, que há coisas menores ainda? Qual seria a menor parte possível? Como essas partes pequenas estariam ligadas? E se encontrássemos uma nova “parte” que aniquilasse a parte que já conhecemos?
A matéria ordinária do Universo, como hoje sabemos, é composta em sua quase totalidade de tijolinhos fundamentais que são os quarks e léptons, ligados através de interações – também mediadas por outras partículas, os bósons fundamentais. O entedimento dos constituintes da matéria (veja figura abaixo) e suas interações é um grande êxito do chamado Modelo Padrão Há também, para cada partícula, sua anti-partícula e supõe-se que logo após o Big Bang haveria iguais quantidades das duas – o que não é a realidade do Universo atual.
Em 1967, o físico Sakharov propôs 3 condições para a Bariogênesis (dominância da matéria frente à anti-matéria), dentre elas está há violação de carga-paridade (CP), onde um decaimento de uma partícula num estado final se dá a uma taxa diferente do decaimento da anti-partícula correspondente em seu “anti” estado final.
O LHC (Large Hadron Collider), no CERN (Suíça) é um colisor de prótons a altíssimas
energias cujo objetivo é estudar a matéria em seu estado mais fundamental e suas interações. O LHC está composto de um sistema complexo de vários aceleradores intermediários que finalmente injetam as partículas no maior túnel, de 27 km de perímetro, como pode ser visto na figura acima. Nesse túnel há 4 grandes experimentos onde se localizam os pontos de colisão entre os feixes. São eles: CMS (Compact Muon Sollenoid), ATLAS (A Toroidal LHC AparatuS), LHCb (LHC beauty experiment) e ALICE (A Large Ion Collider Experiment).
Departamento de Física
O experimento LHCb se dedica ao estudo de processos envolvendo os chamados
hádrons de “sabores pesados”, aqueles que contém os quarks charm (c) ou beauty (b), com o obejtivo de estudar, entre outros tópicos, o fenômeno de violação de CP e busca de processos raros ou proibidos no Modelo Padrão.
Neste relatório, apresento os projetos desenvolvidos no último ano. Por um lado, o estudo do canal de decaimento do méson charmoso D+→ K-K+K+ com o objetivo da análise, ainda inédita, das estruturas ressonantes deste processo. Por outro lado, esse projeto também teve uma parte de hardware cujo objetivo era projetar um emulador de padrão de dados para o detetor de vértices VErtor LOcator (VELO).
2. Objetivo Mesmo tendo duas partes nesse projeto, Análise de Dalitz Plot e Emulador de padrão de dados, foi dedicado mais tempo à análise, logo, descreverei nas seções a seguir a parte da análise e, no fim, um seção para o emulador. Dalitz Plot é uma representação em 2 dimensões do espaço de fase de um decaimento em três corpos, onde é possível ver estruturas ressonantes que ocorreram entre o estado inicial e o estado final do decaimento. O objetivo desse projeto foi estabelecer um modelo fenomenológico para os dados obtidos em 2012 no LHCb e fazer um ajuste pelo método de Máxima Verossimilhança (Maximum LogLikelihood) para estudar as estruturas ressonantes presentes entre o estado inicial (𝑫!) e o estado final (𝑲!𝑲!𝑲!) do decaimento em questão. A maior motivação dessa análise é fazer a espectroscopia hadrônica para ver as contribuições das ressonâncias do decaimento em questão, medida nunca feita antes.
O LHCb visa um upgrade de seus detectores para o ano de 2018, para isso, o VELO será trocado de um detector de strip para um baseado em pixels, e com isso a forma como os dados são enviados do detector mudará. É importante a criação de um emulador de padrão de dados para simular como esse detector enviará os dados. Os detectores têm uma alta frequência de envio de dados, logo, esse emulador não pode ser criado num sistema comum e sim numa placa de alta velocidade como uma FPGA. Com isso, esse projeto teve como objetivo projetar um emulador de padrão de dados do VELO.
3. Metodologia Porque usar um Dalitz Plot? Se temos um decaimento de um méson (𝐷!) em três
mésons (𝐾!𝐾!𝐾!), a taxa de decaimento é descrita por [1]:
𝑑Γ = 1
2𝜋 !32 𝑠!ℳ !𝑑𝑠!"𝑑𝑠!"
onde s é a energia total no centro de massa, 𝑠!"𝑒 𝑠!" são as variáveis de Dalitz – massas invariantes quadradas das combinações de duas partículas do estado final, 𝐾!(1)𝐾!(2)𝐾!(3). ℳ é a amplitude quântica do decaimento. Toda a informação da dinâmica do decaimento está contida em ℳ. O Dalitz plot é o gráfico s12×s13 que, como vemos da expressão acima, terá sua distribuição de eventos pautada por ℳ !. A dinâmica do decaimento – com isto duas estruturas ressonantes – é portanto estudada através de uma análise de amplitudes no Dalitz plot.
Departamento de Física
A construção do Dalitz Plot de um decaimento se dá através dos momenta finais das partículas. Usando todas as informações das três partículas (energia e o vetor momento) podemos construir as variáveis de Dalitz da seguinte forma.
𝑠!" = 𝑝!! + 𝑝!
! ! , 𝑠!" = 𝑝!
! + 𝑝!! ! e 𝑠!" = 𝑝!
! + 𝑝!! !
Na equação acima, os números são referentes às três partículas do nosso decaimento e 𝜇 referente à componentes do quadri-momento. O decaimento não ressonante (sem dinâmica) apresenta um gráfico como mostrado abaixo. Ou seja, ele é constante dentro dos limites cinemáticos impostos pelas conservações de quadrimomento e fora desses limites é zero pois é fisicamente impossível ter eventos fora da região de limite cinemático.
Como temos duas partículas iguais nesse decaimento em particular é muito comum usar o 𝑠!"#e 𝑠!!"! que é formado pela partícula de carga oposta (𝑲!) e o 𝑲! com menor e maior momento, respectivamente. Como para nosso decaimento duas partículas iguais no estado final, é de praxe fazer a análise usando 𝑠!"#e 𝑠!!"!.
Numa análise de Dalitz Plot há alguns pontos essenciais que devem ser bem entendidos:
• Eficiência: Os detectores do LHCb têm diferentes eficiências para diferentes momentos das partículas finais, ou seja, as vezes para momentos com momento transverso muito alto o detector não é tão eficiente e isso afeta como os eventos são reconstruídos e assim podem aparecer estruturas no Dalitz Plot que são devido à eficiência do detector e não ao decaimento em si.
• Background: Um ruído nesse análise tem a sua maior contribuição de eventos mal
reconstruídos. As vezes esse ruído apresenta estrutura no Dalitz Plot. Nosso objetivo através de Redes Neurais é diminuir o máximo possível desse ruído, sem comprometer o sinal e o que não conseguirmos tirar, modelar e adicionar ao ajuste de dados.
• Fitter: É o código que faz o ajuste de dados, ele deve ser bem entendido além de bem testado para não obtermos resultados falsos.
• Modelo de Sinal: Nessa análise, usamos o modelo isobárico onde a amplitude total do decaimento é descrita por a soma de vários termos relativos a cada ressonância r e um termo não-ressonante :
ℳ!"# 𝑠!"# , 𝑠!!"! = 𝑎!"𝑒!!!" + 𝑎!𝑒!!!!
𝐴! 𝑠!"# , 𝑠!!"!
1 1.2 1.4 1.6 1.81
1.2
1.4
1.6
1.8
0
50
100
150200
250
histEntries 100000Mean x 1.409Mean y 1.408RMS x 0.2292RMS y 0.2299
histEntries 100000Mean x 1.409Mean y 1.408RMS x 0.2292RMS y 0.2299
s12:s13
0.9 1 1.1 1.2 1.3 1.4 1.5 1.6 1.7
1.11.2
1.31.4
1.51.6
1.71.8
1.90
50100150200250300
histEntries 100000Mean x 1.24Mean y 1.577RMS x 0.148RMS y 0.1634
histEntries 100000Mean x 1.24Mean y 1.577RMS x 0.148RMS y 0.1634
s_high:s_low
Departamento de Física
Com isso, a função densidade de probabilidade do sinal é :
𝒫𝑑𝑓!"# 𝑠!"# , 𝑠!!"! = | ℳ !"# |!
| ℳ !"# |!
Onde percebemos que os as fases 𝛿!" e 𝛿! serão de extrema importância pois farão com que exista a interferência entre as amplitudes de cada ressonância, que é essencial para modelar nossa amplitude total. Já a amplitude de cada ressonância pode ser encontrada na referência [3].
4. Resultados
Background Primeiramente vamos analisar o background, nosso objetivo aqui é diminui-lo ao máximo, para isso realizamos na amostra de dados alguns cortes preliminares que selecionam alguns bons candidatos e depois aplicamos essa amostra à rede neural onde retiraremos grande parte do background. Uma Rede Neural tem duas etapas: Treinamento e Aplicação. Na etapa de treinamento são usadas duas amostras, uma de parecida com sinal e uma parecida com background com as variáveis que se deseja colocar na rede neural. A amostra parecida com sinal usada foi uma amostra de Monte Carlo, ou seja, pura simulação de como seriam os dados, a simulação é bem completa onde se inclui efeitos do experimento como um todo. Já para nossa amostra de background podemos descrevê-la olhando para o espectro de massa KKK do nosso decaimento.
O histograma da esquerda é para Monte Carlo e percebemos que ela é uma gaussiana
pura. Já a amostra da direita é uma amostra de dados reais e percebemos que há um background em todo seu espectro. Para dar uma amostra parecida com background para a rede neural pegamos os dados que estão contidos apenas nas regiões de massa de 1820 à 1840 MeV e de 1900 à 1920 MeV. Depois de escolher as amostras é feito um estudo de quais variáveis vão ser usadas para formar a rede neural, as escolhidas são as que podem discriminar mais entre sinal e background e que não insiram deformidades no Dalitz Plot
Formada a rede neural, pode-se aplicar a amostra de dados coletados do LHCb à rede, com isso é gerada uma nova amostra com uma nova variável (valBDT) que ao fazer cortes nela vamos obtendo uma amostra cada vez mais limpa, ou seja, sem background. Mas deve haver um comprometimento nesse ponto, pois essa variável obedece à um probabilidade, logo
htempEntries 1079010Mean 1877RMS 35.78
D_MM1820 1840 1860 1880 1900 1920 1940
10000
15000
20000
25000
30000
htempEntries 1079010Mean 1877RMS 35.78
D_MMhtempEntries 182803Mean 1870RMS 5.302
D_MM1820 1840 1860 1880 1900 1920 19400
10000
20000
30000
40000
50000htemp
Entries 182803Mean 1870RMS 5.302
D_MM
Departamento de Física
à medida que fazemos cortes nela podemos estar tirando sinal da nossa amostra também. Por isso, é necessário fazer um estudo da eficiência e a pureza da amostra após cortes dessa variável. Abaixo mostramos como fica o espectro de massa após cortes mais apertados.
Percebemos por esses histogramas que apertando o corte de valBDT perdemos cada vez mais background mas também perdemos sinal. Para decidir qual é um bom corte devemos analisar a pureza e a eficiência de cada corte, definidas como:
𝑃𝑢𝑟𝑒𝑧𝑎 = !˚ !" !"!#$%& !" !"#$%!˚ !" !"!#$%& !"!#$
, 𝐸𝑓𝑖𝑐𝑖ê𝑛𝑐𝑖𝑎 = !˚ !" !"!#$%& !" !"#$% !"ó! ! !"#$%!˚ !" !"!#$%& !" !"#$% !"# !"#$%
Prob 0.2039
Nsig 8.980e+02± 1.821e+05 p 0.0282± 0.8134
Mean 0.0± 1870
Sigma D1 0.053± 3.793
Sigma D2 0.650± 7.854 Nbkg 1.095e+03± 5.692e+05
slope 0.000046± 0.003311
)2(MeV/cKKKM1820 1830 1840 1850 1860 1870 1880 1890 1900 1910 1920
)2C
andi
date
s/1(
MeV
/c
0
2000
4000
6000
8000
10000
12000
14000
16000
18000
20000
22000
24000Prob 0.2039
Nsig 8.980e+02± 1.821e+05 p 0.0282± 0.8134
Mean 0.0± 1870
Sigma D1 0.053± 3.793
Sigma D2 0.650± 7.854 Nbkg 1.095e+03± 5.692e+05
slope 0.000046± 0.003311
Histogram After NN with valBDT>-0.20
Prob 0.4731
Nsig 7.447e+02± 1.698e+05 p 0.0274± 0.8184
Mean 0.0± 1870
Sigma D1 0.048± 3.782
Sigma D2 0.580± 7.592 Nbkg 8.554e+02± 3.526e+05
slope 0.000059± 0.003519
)2(MeV/cKKKM1820 1830 1840 1850 1860 1870 1880 1890 1900 1910 1920
)2C
andi
date
s/1(
MeV
/c
0
2000
4000
6000
8000
10000
12000
14000
16000
18000
20000
22000
24000Prob 0.4731
Nsig 7.447e+02± 1.698e+05 p 0.0274± 0.8184
Mean 0.0± 1870
Sigma D1 0.048± 3.782
Sigma D2 0.580± 7.592 Nbkg 8.554e+02± 3.526e+05
slope 0.000059± 0.003519
Histogram After NN with valBDT>-0.05
Prob 0.9564
Nsig 5.369e+02± 1.431e+05 p 0.0370± 0.7695
Mean 0.0± 1870
Sigma D1 0.055± 3.689
Sigma D2 0.384± 6.556 Nbkg 5.760e+02± 1.888e+05
slope 0.000081± 0.003779
)2(MeV/cKKKM1820 1830 1840 1850 1860 1870 1880 1890 1900 1910 1920
)2C
andi
date
s/1(
MeV
/c
0
2000
4000
6000
8000
10000
12000
14000
16000
18000
20000
22000
24000Prob 0.9564
Nsig 5.369e+02± 1.431e+05 p 0.0370± 0.7695
Mean 0.0± 1870
Sigma D1 0.055± 3.689
Sigma D2 0.384± 6.556 Nbkg 5.760e+02± 1.888e+05
slope 0.000081± 0.003779
Histogram After NN with valBDT>0.05
Prob 0.5706
Nsig 3.884e+02± 9.731e+04 p 0.0314± 0.8421
Mean 0.0± 1870
Sigma D1 0.05± 3.78
Sigma D2 0.556± 7.105 Nbkg 3.54e+02± 6.77e+04
slope 0.000132± 0.004049
)2(MeV/cKKKM1820 1830 1840 1850 1860 1870 1880 1890 1900 1910 1920
)2C
andi
date
s/1(
MeV
/c
0
2000
4000
6000
8000
10000
12000
14000
16000
18000
20000
22000
24000Prob 0.5706
Nsig 3.884e+02± 9.731e+04 p 0.0314± 0.8421
Mean 0.0± 1870
Sigma D1 0.05± 3.78
Sigma D2 0.556± 7.105 Nbkg 3.54e+02± 6.77e+04
slope 0.000132± 0.004049
Histogram After NN with valBDT>0.15
BDT-0.4 -0.2 0 0.2 0.4
Effic
ienc
y/Pu
rity
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
Purity
Efficiency
BDT-0.4 -0.2 0 0.2 0.4
Nev
Sig
0
20
40
60
80
100
120
140
160
180
310×
Number of Signal events x BDT Number of Signal events x BDT
Departamento de Física
Daqui, percebe-se que um corte bom para essa amostra é o de valBDT > 0.15 pois obtenho 90% de pureza na amostra e 50% de eficiência. Levando em consideração o fato de termos muitos eventos, não há grande problema em perder metade dos eventos de sinal em prol de deixar a amostra bem limpa. De posse disso, os 10% eventos de background restantes devem ser modelados já que para retirá-los perderíamos grande parte da amostra.
Eficiência Descreve como os detectores do LHCb se comportam ao medir diferentes momentos, se o detector fosse perfeito a eficiência seria constante e não teríamos problemas ao longo do Dalitz Plot. Além disso, a rede neural pode inserir alguma não uniformidade e o modelo da eficiência deve agregar todos esses efeitos. Como não sabemos nada da eficiência, usamos algo bem geral como um polinômio em 2 dimensões (simétrico pois temos duas partículas iguais no estado final). Se definir 𝑥 = 𝑠!!"! 𝑒 𝑦 = 𝑠!"# , a função de eficiência é:
𝑓! = 𝑎! 𝑓! = 𝑎! (𝑥 + 𝑦)
𝑓! = 𝑎! 𝑥! + 𝑦! + 𝑎! 𝑥 𝑦 𝑓! = 𝑎! 𝑥! + 𝑦! + 𝑎!(𝑥!𝑦 + 𝑥𝑦!)
𝑓! = 𝑎! 𝑥! + 𝑦! + 𝑎! 𝑥!𝑦! + 𝑎!( 𝑥!𝑦 + 𝑥𝑦!) 𝑓! = 𝑎! 𝑥! + 𝑦! + 𝑎!" 𝑥!𝑦 + 𝑥𝑦! + 𝑎!! 𝑥!𝑦! + 𝑥!𝑦!
𝑓! = 𝑎!" 𝑥! + 𝑦! + 𝑎!" 𝑥!𝑦 + 𝑥𝑦! + 𝑎!" 𝑥!𝑦! + 𝑥!𝑦! + 𝑎!"(𝑥!𝑦!)
𝜀 𝑠!"# , 𝑠!!"! =𝑓! + 𝑓! + 𝑓! + 𝑓! + 𝑓! + 𝑓! + 𝑓!(𝑓! + 𝑓! + 𝑓! + 𝑓! + 𝑓! + 𝑓! + 𝑓!)
!"
onde,
!" significa a integral dentro dos limites cinemáticos do Dalitz Plot. De posse do modelo, pega-se a amostra de Monte Carlo que descreve o
comportamento dos detectores do LHCb e aplica-se à rede. Do output da rede, aplicamos o mesmo corte que devemos aplicar aos dados para simular também alguma estrutura que a rede possa ter inserido e tentamos ajustar essa amostra final com o modelo acima através da Máxima Verossimilhança.
Depois do ajuste, obtemos os parâmetros que devem descrever a nossa eficiência. Para efeito de comparação, usamos o modelo de novo com os novos parâmetros ajustados para gerar uma amostra e comparar a gerada (direita) com a que foi ajustada (esquerda).
Departamento de Física
Para comparar os dois histogramas usamos a formula:
𝜒! =[ℎ 𝑖 − ℎ!"#(𝑖) 𝑘]!
ℎ 𝑖 + ℎ!"#(𝑖) 𝑘!! ! !"" !"#$
Onde, obtemos:
N˚ Total Bins Ocupados = 136
N˚ de eventos ajustados h(i) = 182839
N˚ de eventos gerados hger(i) = 1E+07
k = 54.6929, divisão entre os dois.
O 𝜒!/𝑛𝑑𝑜𝑓 de 1.54 nos mostra que tivemos um bom ajuste e uma boa
compatibilidade entre a amostra ajustada e a amostra gerada com os parâmetros ajustados. Junto com isso, temos um Kolmogov de 0.189 que nos diz a probabilidade de as duas amostras serem compatíveis e 18.9% é um número bastante razoável.
0.8 0.9 1 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.81
1.1
1.2
1.3
1.4
1.5
1.6
1.7
1.8
1.9
2 hhEntries 182839Mean x 1.249Mean y 1.574RMS x 0.1489RMS y 0.1543
0
200
400
600
800
1000
1200
1400
1600
1800hhEntries 182839Mean x 1.249Mean y 1.574RMS x 0.1489RMS y 0.1543
Histogram to Fit
0.8 0.9 1 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.81
1.1
1.2
1.3
1.4
1.5
1.6
1.7
1.8
1.9
2 hh_fastMCEntries 1e+07Mean x 1.25Mean y 1.574RMS x 0.149RMS y 0.1541
0
20
40
60
80
100310×
hh_fastMCEntries 1e+07Mean x 1.25Mean y 1.574RMS x 0.149RMS y 0.1541
Fast MC generated by the fitted function
0.8 0.9 1 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8
11.11.21.31.4
1.51.61.71.81.92
0200400600800
100012001400160018002000
hhEntries 182839Mean x 1.249Mean y 1.574RMS x 0.1489RMS y 0.1543
hhEntries 182839Mean x 1.249Mean y 1.574RMS x 0.1489RMS y 0.1543
Histogram to Fit
0.8 0.9 1 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8
11.11.21.31.4
1.51.61.71.81.92
0
20
40
60
80
100
310×
hh_fastMCEntries 1e+07Mean x 1.25Mean y 1.574RMS x 0.149RMS y 0.1541
hh_fastMCEntries 1e+07Mean x 1.25Mean y 1.574RMS x 0.149RMS y 0.1541
Fast MC generated by the fitted function
Com isso,
𝜒! = 209.497
𝜒!/𝑛𝑑𝑜𝑓 =1.54042
KOLMOGOROV = 0.189153
Departamento de Física
Modelo Total Para finalmente fazer o ajuste de todos os dados, devemos incluir em nosso modelo todas as contribuições : Modelo do Sinal, Modelo do Background e Eficiência. Com isso, o modelo total seria.
𝒫𝑑𝑓(𝑠!"# , 𝑠!!"!) = 𝜀 𝑠!"# , 𝑠!!"! ∙ { 𝒫𝑑𝑓!"# (𝑠!"# , 𝑠!!"!)+ 𝒫𝑑𝑓!"# (𝑠!"# , 𝑠!!"!)}∫ 𝜀 𝑠!"# , 𝑠!!"! ∙ { 𝒫𝑑𝑓!"#(𝑠!"# , 𝑠!!"!)+ 𝒫𝑑𝑓!"# 𝑠!"# , 𝑠!!!! }
Lembrando que nosso modelo deve ser normalizado pois faremos o ajuste de dados
usando o método de máxima verossimilhança (Maximum Likelihood), que assume que o modelo à ser ajustado é normalizado, maximizando a função 𝑙𝑛 ℒ , onde:
ℒ = 𝒫𝑑𝑓(𝑠!"#(!) , 𝑠!!"!
! ,𝜃!)!˚ !" !"!#$%&
!!!
𝑙𝑛 ℒ = 𝑙𝑛 𝒫𝑑𝑓(𝑠!"#(!) , 𝑠!!"!
! ,𝜃!)!˚ !" !"!#$%&
!!!
Os parâmetros a serem ajustados são representados aqui por 𝜃! e a minimização é feita
pelo pacote Minuit contido no programa ROOT [2], utilizado em toda essa análise.
5. Emulador de Padrão de dados O detector de vértices do LHCb, o VELO ( VErtex LOcator), passará por um upgrade
onde seus sensores de strip passarão a ser baseados em pixels, os Timepix3. Os chips desses sensores se comunicam com os computadores de armazenamento numa alta frequência de transmissão de dados. Desse forma, a melhor maneira de desenvolver algoritmos de configuração, leitura e armazenamento é através de FPGA ( Field Programmable Gate Array), onde a programação é em hardware.
O objetivo do projeto foi a emulação do padrão de dados do Velopix (o novo detector de vértices do VELO) comunicando com placa FPGA pelo computador host através da porta PCIe. Para isso, foi necessário o aprendizado do software ISE [3] que faz a programação da FPGA e o aprendizado da linguagem de programação de hardware VHDL. A placa usada foi da fabricante Xilinx [4], em específico a placa AC701 ( Evaluation Board) contendo a FPGA da família Artix-7.
O projeto consistiu primeiramente em aprender tudo sobre a placa, seu funcionamento e suas características. De posse disso, a FPGA foi programada de forma à ter em sua memória um padrão de dados já obtido dos detectores e enviar esse padrão para o computador host à um frequência muito alta (alto clock) seguindo um protocolo específico pela porta PCIe, porta de alta velocidade de transmissão, e no host comparar os dados já obtidos com os enviados pela placa. Os próximos passos são, através de um protocolo SERDES ( Serializer /Desirializer), fazer um loopback (os dados enviados voltam pra placa) na própria FGPA para testar a compatibilidade dos dados enviados com os dados recebidos.
Departamento de Física
6. Conclusão O estudo do decaimento D+ → K- K+K+ se encontra nesse exato momento no processo de
ajuste de dados com o modelo total e tentativas de modelar o background, logo não serão apresentados nesse relatório resultados do ajuste de dados com o modelo total. Mas os resultados até esse momento foram promissores, conseguimos eliminar com grande êxito 90% do background, modelar a eficiência de forma controlada e precisa, a análise continuará já que temos grande parte do trabalho concluído e pretende-se fazer essa medida nunca feita antes.
Com relação ao projeto do emulador de padrões de dados da FPGA para o upgrade do VELO, conseguimos terminar uma primeira etapa em que foi adequadamente colocando em funcionamento este emulador.
7. Bibliografia
[1] J. Beringer el al. (Particle Data Group), PR D86, 010001 (2012) (url:http://pdg.lbl.gov) [2] http://root.cern.ch/ [3] ISE Design Suite, http://www.xilinx.com/products/design-tools/ise-design-suite/ [4] http://www.xilinx.com/