análise de dalitz plot do decaimento e projeto de emulador de … · logo após o big bang haveria...

9
Departamento de Física Análise de Dalitz Plot do decaimento ! ! ! ! e Projeto de emulador de padrão de dados no VErtex LOcator no Experimento LHCb Aluno: Rafael Tourinho Aoude Orientador: Carla Göbel Burlamaqui Departamento de Física - PUC-Rio 1. Introdução Se pudéssemos construir o universo, começaríamos com pequenos “tijolinhos” e um a um montaríamos sistemas complexos e ricos. Mas se à medida que fossemos construindo percebêssemos que esses tijolinhos não são os menores possíveis, que há coisas menores ainda? Qual seria a menor parte possível? Como essas partes pequenas estariam ligadas? E se encontrássemos uma nova “parte” que aniquilasse a parte que já conhecemos? A matéria ordinária do Universo, como hoje sabemos, é composta em sua quase totalidade de tijolinhos fundamentais que são os quarks e léptons, ligados através de interações – também mediadas por outras partículas, os bósons fundamentais. O entedimento dos constituintes da matéria (veja figura abaixo) e suas interações é um grande êxito do chamado Modelo Padrão Há também, para cada partícula, sua anti-partícula e supõe-se que logo após o Big Bang haveria iguais quantidades das duas – o que não é a realidade do Universo atual. Em 1967, o físico Sakharov propôs 3 condições para a Bariogênesis (dominância da matéria frente à anti-matéria), dentre elas está há violação de carga-paridade (CP), onde um decaimento de uma partícula num estado final se dá a uma taxa diferente do decaimento da anti-partícula correspondente em seu “anti” estado final. O LHC (Large Hadron Collider), no CERN (Suíça) é um colisor de prótons a altíssimas energias cujo objetivo é estudar a matéria em seu estado mais fundamental e suas interações. O LHC está composto de um sistema complexo de vários aceleradores intermediários que finalmente injetam as partículas no maior túnel, de 27 km de perímetro, como pode ser visto na figura acima. Nesse túnel há 4 grandes experimentos onde se localizam os pontos de colisão entre os feixes. São eles: CMS (Compact Muon Sollenoid), ATLAS (A Toroidal LHC AparatuS), LHCb (LHC beauty experiment) e ALICE (A Large Ion Collider Experiment).

Upload: vutu

Post on 20-Jan-2019

214 views

Category:

Documents


0 download

TRANSCRIPT

Departamento de Física

Análise de Dalitz Plot do decaimento 𝑫! → 𝑲!𝑲!𝑲! e Projeto de emulador de padrão de dados no VErtex LOcator no Experimento LHCb

Aluno: Rafael Tourinho Aoude Orientador: Carla Göbel Burlamaqui

Departamento de Física - PUC-Rio

1. Introdução Se pudéssemos construir o universo, começaríamos com pequenos “tijolinhos” e um a

um montaríamos sistemas complexos e ricos. Mas se à medida que fossemos construindo percebêssemos que esses tijolinhos não são os menores possíveis, que há coisas menores ainda? Qual seria a menor parte possível? Como essas partes pequenas estariam ligadas? E se encontrássemos uma nova “parte” que aniquilasse a parte que já conhecemos?

A matéria ordinária do Universo, como hoje sabemos, é composta em sua quase totalidade de tijolinhos fundamentais que são os quarks e léptons, ligados através de interações – também mediadas por outras partículas, os bósons fundamentais. O entedimento dos constituintes da matéria (veja figura abaixo) e suas interações é um grande êxito do chamado Modelo Padrão Há também, para cada partícula, sua anti-partícula e supõe-se que logo após o Big Bang haveria iguais quantidades das duas – o que não é a realidade do Universo atual.

Em 1967, o físico Sakharov propôs 3 condições para a Bariogênesis (dominância da matéria frente à anti-matéria), dentre elas está há violação de carga-paridade (CP), onde um decaimento de uma partícula num estado final se dá a uma taxa diferente do decaimento da anti-partícula correspondente em seu “anti” estado final.

O LHC (Large Hadron Collider), no CERN (Suíça) é um colisor de prótons a altíssimas

energias cujo objetivo é estudar a matéria em seu estado mais fundamental e suas interações. O LHC está composto de um sistema complexo de vários aceleradores intermediários que finalmente injetam as partículas no maior túnel, de 27 km de perímetro, como pode ser visto na figura acima. Nesse túnel há 4 grandes experimentos onde se localizam os pontos de colisão entre os feixes. São eles: CMS (Compact Muon Sollenoid), ATLAS (A Toroidal LHC AparatuS), LHCb (LHC beauty experiment) e ALICE (A Large Ion Collider Experiment).

Departamento de Física

O experimento LHCb se dedica ao estudo de processos envolvendo os chamados

hádrons de “sabores pesados”, aqueles que contém os quarks charm (c) ou beauty (b), com o obejtivo de estudar, entre outros tópicos, o fenômeno de violação de CP e busca de processos raros ou proibidos no Modelo Padrão.

Neste relatório, apresento os projetos desenvolvidos no último ano. Por um lado, o estudo do canal de decaimento do méson charmoso D+→ K-K+K+ com o objetivo da análise, ainda inédita, das estruturas ressonantes deste processo. Por outro lado, esse projeto também teve uma parte de hardware cujo objetivo era projetar um emulador de padrão de dados para o detetor de vértices VErtor LOcator (VELO).

2. Objetivo Mesmo tendo duas partes nesse projeto, Análise de Dalitz Plot e Emulador de padrão de dados, foi dedicado mais tempo à análise, logo, descreverei nas seções a seguir a parte da análise e, no fim, um seção para o emulador. Dalitz Plot é uma representação em 2 dimensões do espaço de fase de um decaimento em três corpos, onde é possível ver estruturas ressonantes que ocorreram entre o estado inicial e o estado final do decaimento. O objetivo desse projeto foi estabelecer um modelo fenomenológico para os dados obtidos em 2012 no LHCb e fazer um ajuste pelo método de Máxima Verossimilhança (Maximum LogLikelihood) para estudar as estruturas ressonantes presentes entre o estado inicial (𝑫!) e o estado final (𝑲!𝑲!𝑲!) do decaimento em questão. A maior motivação dessa análise é fazer a espectroscopia hadrônica para ver as contribuições das ressonâncias do decaimento em questão, medida nunca feita antes.

O LHCb visa um upgrade de seus detectores para o ano de 2018, para isso, o VELO será trocado de um detector de strip para um baseado em pixels, e com isso a forma como os dados são enviados do detector mudará. É importante a criação de um emulador de padrão de dados para simular como esse detector enviará os dados. Os detectores têm uma alta frequência de envio de dados, logo, esse emulador não pode ser criado num sistema comum e sim numa placa de alta velocidade como uma FPGA. Com isso, esse projeto teve como objetivo projetar um emulador de padrão de dados do VELO.

3. Metodologia Porque usar um Dalitz Plot? Se temos um decaimento de um méson (𝐷!) em três

mésons (𝐾!𝐾!𝐾!), a taxa de decaimento é descrita por [1]:

𝑑Γ =  1

2𝜋 !32 𝑠!ℳ !𝑑𝑠!"𝑑𝑠!"

onde s é a energia total no centro de massa, 𝑠!"𝑒  𝑠!" são as variáveis de Dalitz – massas invariantes quadradas das combinações de duas partículas do estado final, 𝐾!(1)𝐾!(2)𝐾!(3). ℳ  é a amplitude quântica do decaimento. Toda a informação da dinâmica do decaimento está contida em ℳ. O Dalitz plot é o gráfico s12×s13 que, como vemos da expressão acima, terá sua distribuição de eventos pautada por ℳ !. A dinâmica do decaimento – com isto duas estruturas ressonantes – é portanto estudada através de uma análise de amplitudes no Dalitz plot.

Departamento de Física

A construção do Dalitz Plot de um decaimento se dá através dos momenta finais das partículas. Usando todas as informações das três partículas (energia e o vetor momento) podemos construir as variáveis de Dalitz da seguinte forma.

𝑠!" =  𝑝!! +  𝑝!

! ! , 𝑠!" =  𝑝!

! +  𝑝!! !   e 𝑠!" =  𝑝!

! +  𝑝!! !

Na equação acima, os números são referentes às três partículas do nosso decaimento e 𝜇 referente à componentes do quadri-momento. O decaimento não ressonante (sem dinâmica) apresenta um gráfico como mostrado abaixo. Ou seja, ele é constante dentro dos limites cinemáticos impostos pelas conservações de quadrimomento e fora desses limites é zero pois é fisicamente impossível ter eventos fora da região de limite cinemático.

Como temos duas partículas iguais nesse decaimento em particular é muito comum usar o 𝑠!"#e 𝑠!!"! que é formado pela partícula de carga oposta (𝑲!)   e o 𝑲!  com menor e maior momento, respectivamente. Como para nosso decaimento duas partículas iguais no estado final, é de praxe fazer a análise usando 𝑠!"#e 𝑠!!"!.

Numa análise de Dalitz Plot há alguns pontos essenciais que devem ser bem entendidos:

• Eficiência: Os detectores do LHCb têm diferentes eficiências para diferentes momentos das partículas finais, ou seja, as vezes para momentos com momento transverso muito alto o detector não é tão eficiente e isso afeta como os eventos são reconstruídos e assim podem aparecer estruturas no Dalitz Plot que são devido à eficiência do detector e não ao decaimento em si.

• Background: Um ruído nesse análise tem a sua maior contribuição de eventos mal

reconstruídos. As vezes esse ruído apresenta estrutura no Dalitz Plot. Nosso objetivo através de Redes Neurais é diminuir o máximo possível desse ruído, sem comprometer o sinal e o que não conseguirmos tirar, modelar e adicionar ao ajuste de dados.

• Fitter: É o código que faz o ajuste de dados, ele deve ser bem entendido além de bem testado para não obtermos resultados falsos.

• Modelo de Sinal: Nessa análise, usamos o modelo isobárico onde a amplitude total do decaimento é descrita por a soma de vários termos relativos a cada ressonância r e um termo não-ressonante :

ℳ!"# 𝑠!"# , 𝑠!!"! =  𝑎!"𝑒!!!" +   𝑎!𝑒!!!!

𝐴! 𝑠!"# , 𝑠!!"!

1 1.2 1.4 1.6 1.81

1.2

1.4

1.6

1.8

0

50

100

150200

250

histEntries 100000Mean x 1.409Mean y 1.408RMS x 0.2292RMS y 0.2299

histEntries 100000Mean x 1.409Mean y 1.408RMS x 0.2292RMS y 0.2299

s12:s13

0.9 1 1.1 1.2 1.3 1.4 1.5 1.6 1.7

1.11.2

1.31.4

1.51.6

1.71.8

1.90

50100150200250300

histEntries 100000Mean x 1.24Mean y 1.577RMS x 0.148RMS y 0.1634

histEntries 100000Mean x 1.24Mean y 1.577RMS x 0.148RMS y 0.1634

s_high:s_low

Departamento de Física

Com isso, a função densidade de probabilidade do sinal é :

𝒫𝑑𝑓!"#   𝑠!"# , 𝑠!!"! =      |  ℳ  !"#  |!

 |  ℳ  !"#  |!

Onde percebemos que os as fases 𝛿!" e 𝛿!  serão de extrema importância pois farão com que exista a interferência entre as amplitudes de cada ressonância, que é essencial para modelar nossa amplitude total. Já a amplitude de cada ressonância pode ser encontrada na referência [3].

4. Resultados

Background Primeiramente vamos analisar o background, nosso objetivo aqui é diminui-lo ao máximo, para isso realizamos na amostra de dados alguns cortes preliminares que selecionam alguns bons candidatos e depois aplicamos essa amostra à rede neural onde retiraremos grande parte do background. Uma Rede Neural tem duas etapas: Treinamento e Aplicação. Na etapa de treinamento são usadas duas amostras, uma de parecida com sinal e uma parecida com background com as variáveis que se deseja colocar na rede neural. A amostra parecida com sinal usada foi uma amostra de Monte Carlo, ou seja, pura simulação de como seriam os dados, a simulação é bem completa onde se inclui efeitos do experimento como um todo. Já para nossa amostra de background podemos descrevê-la olhando para o espectro de massa KKK do nosso decaimento.

O histograma da esquerda é para Monte Carlo e percebemos que ela é uma gaussiana

pura. Já a amostra da direita é uma amostra de dados reais e percebemos que há um background em todo seu espectro. Para dar uma amostra parecida com background para a rede neural pegamos os dados que estão contidos apenas nas regiões de massa de 1820 à 1840 MeV e de 1900 à 1920 MeV. Depois de escolher as amostras é feito um estudo de quais variáveis vão ser usadas para formar a rede neural, as escolhidas são as que podem discriminar mais entre sinal e background e que não insiram deformidades no Dalitz Plot

Formada a rede neural, pode-se aplicar a amostra de dados coletados do LHCb à rede, com isso é gerada uma nova amostra com uma nova variável (valBDT) que ao fazer cortes nela vamos obtendo uma amostra cada vez mais limpa, ou seja, sem background. Mas deve haver um comprometimento nesse ponto, pois essa variável obedece à um probabilidade, logo

htempEntries 1079010Mean 1877RMS 35.78

D_MM1820 1840 1860 1880 1900 1920 1940

10000

15000

20000

25000

30000

htempEntries 1079010Mean 1877RMS 35.78

D_MMhtempEntries 182803Mean 1870RMS 5.302

D_MM1820 1840 1860 1880 1900 1920 19400

10000

20000

30000

40000

50000htemp

Entries 182803Mean 1870RMS 5.302

D_MM

Departamento de Física

à medida que fazemos cortes nela podemos estar tirando sinal da nossa amostra também. Por isso, é necessário fazer um estudo da eficiência e a pureza da amostra após cortes dessa variável. Abaixo mostramos como fica o espectro de massa após cortes mais apertados.

Percebemos por esses histogramas que apertando o corte de valBDT perdemos cada vez mais background mas também perdemos sinal. Para decidir qual é um bom corte devemos analisar a pureza e a eficiência de cada corte, definidas como:

𝑃𝑢𝑟𝑒𝑧𝑎 = !˚  !"  !"!#$%&  !"  !"#$%!˚  !"  !"!#$%&  !"!#$

, 𝐸𝑓𝑖𝑐𝑖ê𝑛𝑐𝑖𝑎 = !˚  !"  !"!#$%&  !"  !"#$%  !"ó!  !  !"#$%!˚  !"  !"!#$%&  !"  !"#$%  !"#  !"#$%

Prob 0.2039

Nsig 8.980e+02± 1.821e+05 p 0.0282± 0.8134

Mean 0.0± 1870

Sigma D1 0.053± 3.793

Sigma D2 0.650± 7.854 Nbkg 1.095e+03± 5.692e+05

slope 0.000046± 0.003311

)2(MeV/cKKKM1820 1830 1840 1850 1860 1870 1880 1890 1900 1910 1920

)2C

andi

date

s/1(

MeV

/c

0

2000

4000

6000

8000

10000

12000

14000

16000

18000

20000

22000

24000Prob 0.2039

Nsig 8.980e+02± 1.821e+05 p 0.0282± 0.8134

Mean 0.0± 1870

Sigma D1 0.053± 3.793

Sigma D2 0.650± 7.854 Nbkg 1.095e+03± 5.692e+05

slope 0.000046± 0.003311

Histogram After NN with valBDT>-0.20

Prob 0.4731

Nsig 7.447e+02± 1.698e+05 p 0.0274± 0.8184

Mean 0.0± 1870

Sigma D1 0.048± 3.782

Sigma D2 0.580± 7.592 Nbkg 8.554e+02± 3.526e+05

slope 0.000059± 0.003519

)2(MeV/cKKKM1820 1830 1840 1850 1860 1870 1880 1890 1900 1910 1920

)2C

andi

date

s/1(

MeV

/c

0

2000

4000

6000

8000

10000

12000

14000

16000

18000

20000

22000

24000Prob 0.4731

Nsig 7.447e+02± 1.698e+05 p 0.0274± 0.8184

Mean 0.0± 1870

Sigma D1 0.048± 3.782

Sigma D2 0.580± 7.592 Nbkg 8.554e+02± 3.526e+05

slope 0.000059± 0.003519

Histogram After NN with valBDT>-0.05

Prob 0.9564

Nsig 5.369e+02± 1.431e+05 p 0.0370± 0.7695

Mean 0.0± 1870

Sigma D1 0.055± 3.689

Sigma D2 0.384± 6.556 Nbkg 5.760e+02± 1.888e+05

slope 0.000081± 0.003779

)2(MeV/cKKKM1820 1830 1840 1850 1860 1870 1880 1890 1900 1910 1920

)2C

andi

date

s/1(

MeV

/c

0

2000

4000

6000

8000

10000

12000

14000

16000

18000

20000

22000

24000Prob 0.9564

Nsig 5.369e+02± 1.431e+05 p 0.0370± 0.7695

Mean 0.0± 1870

Sigma D1 0.055± 3.689

Sigma D2 0.384± 6.556 Nbkg 5.760e+02± 1.888e+05

slope 0.000081± 0.003779

Histogram After NN with valBDT>0.05

Prob 0.5706

Nsig 3.884e+02± 9.731e+04 p 0.0314± 0.8421

Mean 0.0± 1870

Sigma D1 0.05± 3.78

Sigma D2 0.556± 7.105 Nbkg 3.54e+02± 6.77e+04

slope 0.000132± 0.004049

)2(MeV/cKKKM1820 1830 1840 1850 1860 1870 1880 1890 1900 1910 1920

)2C

andi

date

s/1(

MeV

/c

0

2000

4000

6000

8000

10000

12000

14000

16000

18000

20000

22000

24000Prob 0.5706

Nsig 3.884e+02± 9.731e+04 p 0.0314± 0.8421

Mean 0.0± 1870

Sigma D1 0.05± 3.78

Sigma D2 0.556± 7.105 Nbkg 3.54e+02± 6.77e+04

slope 0.000132± 0.004049

Histogram After NN with valBDT>0.15

BDT-0.4 -0.2 0 0.2 0.4

Effic

ienc

y/Pu

rity

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

Purity

Efficiency

BDT-0.4 -0.2 0 0.2 0.4

Nev

Sig

0

20

40

60

80

100

120

140

160

180

310×

Number of Signal events x BDT Number of Signal events x BDT

Departamento de Física

Daqui, percebe-se que um corte bom para essa amostra é o de valBDT > 0.15 pois obtenho 90% de pureza na amostra e 50% de eficiência. Levando em consideração o fato de termos muitos eventos, não há grande problema em perder metade dos eventos de sinal em prol de deixar a amostra bem limpa. De posse disso, os 10% eventos de background restantes devem ser modelados já que para retirá-los perderíamos grande parte da amostra.

Eficiência Descreve como os detectores do LHCb se comportam ao medir diferentes momentos, se o detector fosse perfeito a eficiência seria constante e não teríamos problemas ao longo do Dalitz Plot. Além disso, a rede neural pode inserir alguma não uniformidade e o modelo da eficiência deve agregar todos esses efeitos. Como não sabemos nada da eficiência, usamos algo bem geral como um polinômio em 2 dimensões (simétrico pois temos duas partículas iguais no estado final). Se definir 𝑥 =  𝑠!!"!    𝑒    𝑦 = 𝑠!"# ,   a função de eficiência é:

𝑓! = 𝑎! 𝑓! = 𝑎!  (𝑥 + 𝑦)

𝑓! = 𝑎!   𝑥! + 𝑦! +  𝑎!  𝑥  𝑦 𝑓! = 𝑎! 𝑥! + 𝑦! +  𝑎!(𝑥!𝑦 + 𝑥𝑦!)

𝑓! = 𝑎! 𝑥! + 𝑦! +  𝑎! 𝑥!𝑦! +  𝑎!(  𝑥!𝑦 + 𝑥𝑦!)   𝑓! = 𝑎! 𝑥! + 𝑦! +  𝑎!" 𝑥!𝑦 + 𝑥𝑦! +  𝑎!! 𝑥!𝑦! + 𝑥!𝑦!

𝑓! = 𝑎!"  𝑥! + 𝑦! +  𝑎!"  𝑥!𝑦 + 𝑥𝑦! +  𝑎!" 𝑥!𝑦! + 𝑥!𝑦! + 𝑎!"(𝑥!𝑦!)  

𝜀 𝑠!"# , 𝑠!!"! =𝑓! + 𝑓! + 𝑓! + 𝑓! + 𝑓! + 𝑓! + 𝑓!(𝑓! + 𝑓! + 𝑓! + 𝑓! + 𝑓! + 𝑓! + 𝑓!)

 !"

onde,    

!" significa a integral dentro dos limites cinemáticos do Dalitz Plot. De posse do modelo, pega-se a amostra de Monte Carlo que descreve o

comportamento dos detectores do LHCb e aplica-se à rede. Do output da rede, aplicamos o mesmo corte que devemos aplicar aos dados para simular também alguma estrutura que a rede possa ter inserido e tentamos ajustar essa amostra final com o modelo acima através da Máxima Verossimilhança.

Depois do ajuste, obtemos os parâmetros que devem descrever a nossa eficiência. Para efeito de comparação, usamos o modelo de novo com os novos parâmetros ajustados para gerar uma amostra e comparar a gerada (direita) com a que foi ajustada (esquerda).

Departamento de Física

Para comparar os dois histogramas usamos a formula:

𝜒! =[ℎ 𝑖 − ℎ!"#(𝑖) 𝑘]!

ℎ 𝑖 + ℎ!"#(𝑖) 𝑘!!  !  !""  !"#$

Onde, obtemos:

N˚ Total Bins Ocupados = 136

N˚ de eventos ajustados h(i) = 182839

N˚ de eventos gerados hger(i) = 1E+07

k = 54.6929, divisão entre os dois.

O 𝜒!/𝑛𝑑𝑜𝑓 de 1.54 nos mostra que tivemos um bom ajuste e uma boa

compatibilidade entre a amostra ajustada e a amostra gerada com os parâmetros ajustados. Junto com isso, temos um Kolmogov de 0.189 que nos diz a probabilidade de as duas amostras serem compatíveis e 18.9% é um número bastante razoável.

0.8 0.9 1 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.81

1.1

1.2

1.3

1.4

1.5

1.6

1.7

1.8

1.9

2 hhEntries 182839Mean x 1.249Mean y 1.574RMS x 0.1489RMS y 0.1543

0

200

400

600

800

1000

1200

1400

1600

1800hhEntries 182839Mean x 1.249Mean y 1.574RMS x 0.1489RMS y 0.1543

Histogram to Fit

0.8 0.9 1 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.81

1.1

1.2

1.3

1.4

1.5

1.6

1.7

1.8

1.9

2 hh_fastMCEntries 1e+07Mean x 1.25Mean y 1.574RMS x 0.149RMS y 0.1541

0

20

40

60

80

100310×

hh_fastMCEntries 1e+07Mean x 1.25Mean y 1.574RMS x 0.149RMS y 0.1541

Fast MC generated by the fitted function

0.8 0.9 1 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8

11.11.21.31.4

1.51.61.71.81.92

0200400600800

100012001400160018002000

hhEntries 182839Mean x 1.249Mean y 1.574RMS x 0.1489RMS y 0.1543

hhEntries 182839Mean x 1.249Mean y 1.574RMS x 0.1489RMS y 0.1543

Histogram to Fit

0.8 0.9 1 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8

11.11.21.31.4

1.51.61.71.81.92

0

20

40

60

80

100

310×

hh_fastMCEntries 1e+07Mean x 1.25Mean y 1.574RMS x 0.149RMS y 0.1541

hh_fastMCEntries 1e+07Mean x 1.25Mean y 1.574RMS x 0.149RMS y 0.1541

Fast MC generated by the fitted function

Com isso,

𝜒! = 209.497

𝜒!/𝑛𝑑𝑜𝑓 =1.54042

KOLMOGOROV = 0.189153

Departamento de Física

Modelo Total Para finalmente fazer o ajuste de todos os dados, devemos incluir em nosso modelo todas as contribuições : Modelo do Sinal, Modelo do Background e Eficiência. Com isso, o modelo total seria.

𝒫𝑑𝑓(𝑠!"# , 𝑠!!"!)  =  𝜀 𝑠!"# , 𝑠!!"! ∙ {  𝒫𝑑𝑓!"#  (𝑠!"# , 𝑠!!"!)+ 𝒫𝑑𝑓!"#  (𝑠!"# , 𝑠!!"!)}∫ 𝜀 𝑠!"# , 𝑠!!"! ∙ {  𝒫𝑑𝑓!"#(𝑠!"# , 𝑠!!"!)+ 𝒫𝑑𝑓!"# 𝑠!"# , 𝑠!!!!  }

Lembrando que nosso modelo deve ser normalizado pois faremos o ajuste de dados

usando o método de máxima verossimilhança (Maximum Likelihood), que assume que o modelo à ser ajustado é normalizado, maximizando a função 𝑙𝑛  ℒ , onde:

ℒ =   𝒫𝑑𝑓(𝑠!"#(!) , 𝑠!!"!

!  ,𝜃!)!˚  !"  !"!#$%&

!!!

𝑙𝑛  ℒ =   𝑙𝑛  𝒫𝑑𝑓(𝑠!"#(!) , 𝑠!!"!

!  ,𝜃!)!˚  !"  !"!#$%&  

!!!

Os parâmetros a serem ajustados são representados aqui por  𝜃! e a minimização é feita

pelo pacote Minuit contido no programa ROOT [2], utilizado em toda essa análise.

5. Emulador de Padrão de dados O detector de vértices do LHCb, o VELO ( VErtex LOcator), passará por um upgrade

onde seus sensores de strip passarão a ser baseados em pixels, os Timepix3. Os chips desses sensores se comunicam com os computadores de armazenamento numa alta frequência de transmissão de dados. Desse forma, a melhor maneira de desenvolver algoritmos de configuração, leitura e armazenamento é através de FPGA ( Field Programmable Gate Array), onde a programação é em hardware.

O objetivo do projeto foi a emulação do padrão de dados do Velopix (o novo detector de vértices do VELO) comunicando com placa FPGA pelo computador host através da porta PCIe. Para isso, foi necessário o aprendizado do software ISE [3] que faz a programação da FPGA e o aprendizado da linguagem de programação de hardware VHDL. A placa usada foi da fabricante Xilinx [4], em específico a placa AC701 ( Evaluation Board) contendo a FPGA da família Artix-7.

O projeto consistiu primeiramente em aprender tudo sobre a placa, seu funcionamento e suas características. De posse disso, a FPGA foi programada de forma à ter em sua memória um padrão de dados já obtido dos detectores e enviar esse padrão para o computador host à um frequência muito alta (alto clock) seguindo um protocolo específico pela porta PCIe, porta de alta velocidade de transmissão, e no host comparar os dados já obtidos com os enviados pela placa. Os próximos passos são, através de um protocolo SERDES ( Serializer /Desirializer), fazer um loopback (os dados enviados voltam pra placa) na própria FGPA para testar a compatibilidade dos dados enviados com os dados recebidos.

Departamento de Física

6. Conclusão O estudo do decaimento D+ → K- K+K+ se encontra nesse exato momento no processo de

ajuste de dados com o modelo total e tentativas de modelar o background, logo não serão apresentados nesse relatório resultados do ajuste de dados com o modelo total. Mas os resultados até esse momento foram promissores, conseguimos eliminar com grande êxito 90% do background, modelar a eficiência de forma controlada e precisa, a análise continuará já que temos grande parte do trabalho concluído e pretende-se fazer essa medida nunca feita antes.

Com relação ao projeto do emulador de padrões de dados da FPGA para o upgrade do VELO, conseguimos terminar uma primeira etapa em que foi adequadamente colocando em funcionamento este emulador.

7. Bibliografia

[1] J. Beringer el al. (Particle Data Group), PR D86, 010001 (2012) (url:http://pdg.lbl.gov) [2] http://root.cern.ch/ [3] ISE Design Suite, http://www.xilinx.com/products/design-tools/ise-design-suite/ [4] http://www.xilinx.com/