probabilisztikus modellek ii - david...
TRANSCRIPT
előző előadás
• az agy modellt épít a világról • tudás formális reprezentációja: logika • kiterjesztés bizonytalanságra: valószínűségszámítás
előző előadás
• az agy modellt épít a világról • tudás formális reprezentációja: logika • kiterjesztés bizonytalanságra: valószínűségszámítás • mai előadás: hogyan lehet ezt a tudást használni?
mi az amit megfigyelünk?• fotonok becsapódása • levegő gyors rezgései • hőmérséklet ingadozása • bizonyos molekulák
mi az amit megfigyelünk?• fotonok becsapódása • levegő gyors rezgései • hőmérséklet ingadozása • bizonyos molekulák
mi az amit megfigyelünk?• fotonok becsapódása • levegő gyors rezgései • hőmérséklet ingadozása • bizonyos molekulák
mi az amit megfigyelünk?• fotonok becsapódása • levegő gyors rezgései • hőmérséklet ingadozása • bizonyos molekulák
mi az amit megfigyelünk?• fotonok becsapódása • levegő gyors rezgései • hőmérséklet ingadozása • bizonyos molekulák
mire vagyunk kíváncsiak?
mi az amit megfigyelünk?• fotonok becsapódása • levegő gyors rezgései • hőmérséklet ingadozása • bizonyos molekulák
mire vagyunk kíváncsiak?• milyen tárgyak vannak körülöttem • milyen messze • kik vannak körülöttem • mire gondolnak • miért köhögök • mik a fizika törvényei
mi az amit megfigyelünk?• fotonok becsapódása • levegő gyors rezgései • hőmérséklet ingadozása • bizonyos molekulák
mire vagyunk kíváncsiak?• milyen tárgyak vannak körülöttem • milyen messze • kik vannak körülöttem • mire gondolnak • miért köhögök • mik a fizika törvényei
mi az amit megfigyelünk?• fotonok becsapódása • levegő gyors rezgései • hőmérséklet ingadozása • bizonyos molekulák
mire vagyunk kíváncsiak?• milyen tárgyak vannak körülöttem • milyen messze • kik vannak körülöttem • mire gondolnak • miért köhögök • mik a fizika törvényei
mi az amit megfigyelünk?• fotonok becsapódása • levegő gyors rezgései • hőmérséklet ingadozása • bizonyos molekulák
mire vagyunk kíváncsiak?• milyen tárgyak vannak körülöttem • milyen messze • kik vannak körülöttem • mire gondolnak • miért köhögök • mik a fizika törvényei
mi az amit megfigyelünk?• fotonok becsapódása • levegő gyors rezgései • hőmérséklet ingadozása • bizonyos molekulák
mire vagyunk kíváncsiak?• milyen tárgyak vannak körülöttem • milyen messze • kik vannak körülöttem • mire gondolnak • miért köhögök • mik a fizika törvényei
mi az amit megfigyelünk?• fotonok becsapódása • levegő gyors rezgései • hőmérséklet ingadozása • bizonyos molekulák
mire vagyunk kíváncsiak?• milyen tárgyak vannak körülöttem • milyen messze • kik vannak körülöttem • mire gondolnak • miért köhögök • mik a fizika törvényei
mi az amit megfigyelünk?• fotonok becsapódása • levegő gyors rezgései • hőmérséklet ingadozása • bizonyos molekulák
mire vagyunk kíváncsiak?• milyen tárgyak vannak körülöttem • milyen messze • kik vannak körülöttem • mire gondolnak • miért köhögök • mik a fizika törvényei
inferencia
mi az amit megfigyelünk?• fotonok becsapódása • levegő gyors rezgései • hőmérséklet ingadozása • bizonyos molekulák
mire vagyunk kíváncsiak?• milyen tárgyak vannak körülöttem • milyen messze • kik vannak körülöttem • mire gondolnak • miért köhögök • mik a fizika törvényei
inferencia (következtetés)
P (o|h)
P (h|o)
ha ilyen lenne a világ akkor mit figyelnénk meg?
ha ezt figyeljük meg akkor milyen a világ?
P (o|h)
P (h|o)
• forward probability • generatív irány • prediktív irány • “szimulátor”
ha ilyen lenne a világ akkor mit figyelnénk meg?
ha ezt figyeljük meg akkor milyen a világ?
P (o|h)
P (h|o)
• forward probability • generatív irány • prediktív irány • “szimulátor”
• inverse probability • Bayes-i inferencia • modell inverzió
ha ilyen lenne a világ akkor mit figyelnénk meg?
ha ezt figyeljük meg akkor milyen a világ?
likelihood} }prior}posterior
P (h|o) / P (o|h)P (h)
megfordítottuk a generatív modellt
miért kell a prior?
image data
hipotézisek amelyekre magas a prior
hipotézisek amelyekre nem 0 a likelihood
hipotézis tér: minden lehetséges 3D drótváz
image data
hipotézisek amelyekre magas a prior
hipotézisek amelyekre nem 0 a likelihood
posterior
hipotézis tér: minden lehetséges 3D drótváz
történet 1Egy férfi bement egy étterembe és rendelt egy hamburgert. Mikor a hamburgert kihozták, látta hogy szénné van égve. A férfi dühösen kirohant anélkül, hogy fizetett vagy borravalót hagyott volna.
Egy férfi bement egy étterembe és rendelt egy hamburgert. Mikor a hamburgert kihozták, látta hogy szénné van égve. A férfi dühösen kirohant anélkül, hogy fizetett vagy borravalót hagyott volna.
Egy férfi bement egy étterembe és rendelt egy hamburgert. Mikor a hamburgert kihozták, nagyon elégedett volt vele és mielőtt elhagyta az éttermet nagy borravalót hagyott a pincérnek.
történet 2
történet 1
Megette a férfi a hamburgert?
Egy férfi bement egy étterembe és rendelt egy hamburgert. Mikor a hamburgert kihozták, nagyon elégedett volt vele és mielőtt elhagyta az éttermet nagy borravalót hagyott a pincérnek.
történet 2
történet 1Egy férfi bement egy étterembe és rendelt egy hamburgert. Mikor a hamburgert kihozták, látta hogy szénné van égve. A férfi dühösen kirohant anélkül, hogy fizetett vagy borravalót hagyott volna.
-“Elnézést, kártyával lehet fizetni?” -“Persze” -“Egy ászból és királyból tud visszaadni?”
humor = téves inferencia felfedezése?
meg
fázá
s
tüdő
rák
kézt
örés
milyen gyakori a ?
megfázás
tüdőrák
kéztörés
P (illness|symptom) / P (symptom|illness)P (illness)
meg
fázá
s
tüdő
rák
kézt
örés
ha lenne a betegség attól köhögnék?
megfázás
tüdőrák
kéztörés
P (illness|symptom) / P (symptom|illness)P (illness)
meg
fázá
s
tüdő
rák
kézt
örés
meg
fázá
s
tüdő
rák
kézt
örés
meg
fázá
s
tüdő
rák
kézt
örés
mi a MAP becslés?
P (illness|symptom) / P (symptom|illness)P (illness)
meg
fázá
s
tüdő
rák
kézt
örés
meg
fázá
s
tüdő
rák
kézt
örés
meg
fázá
s
tüdő
rák
kézt
örés
valószínűleg megfáztam
P (illness|symptom) / P (symptom|illness)P (illness)
meg
fázá
s
tüdő
rák
kézt
örés
láttuk, hogy
• ami érdekel az közvetlenül nem megfigyelhető
• a rejtett állapotok kikövetkeztetésében segít a generatív folyamat ismerete
láttuk, hogy
• ami érdekel az közvetlenül nem megfigyelhető
• a rejtett állapotok kikövetkeztetésében segít a generatív folyamat ismerete
• ennek megfordítása: melyek azok a rejtett állapotok amelyek összeegyeztethetőek a megfigyelésekkel?
láttuk, hogy
• ami érdekel az közvetlenül nem megfigyelhető
• a rejtett állapotok kikövetkeztetésében segít a generatív folyamat ismerete
• ennek megfordítása: melyek azok a rejtett állapotok amelyek összeegyeztethetőek a megfigyelésekkel?
• de ez még nem elég, kell prior is
láttuk, hogy
• ami érdekel az közvetlenül nem megfigyelhető
• a rejtett állapotok kikövetkeztetésében segít a generatív folyamat ismerete
• ennek megfordítása: melyek azok a rejtett állapotok amelyek összeegyeztethetőek a megfigyelésekkel?
• de ez még nem elég, kell prior is
• (az idegrendszerben a percepció eredménye gyakran csak pontbecslés)
de honnan vesszük a modellt (prior)?• az objektumok léteznek akkor is mikor nem látjuk őket • a hét napjai és az évszakok ciklikusak • a puli lehet kutya is és állat is, de nem lehet kutya is és
macska is • anyanyelv nyelvtana • a baráti körök klikkek
de honnan vesszük a modellt (prior)?• az objektumok léteznek akkor is mikor nem látjuk őket • a hét napjai és az évszakok ciklikusak • a puli lehet kutya is és állat is, de nem lehet kutya is és
macska is • anyanyelv nyelvtana • a baráti körök klikkek
de honnan vesszük a modellt (prior)?• az objektumok léteznek akkor is mikor nem látjuk őket • a hét napjai és az évszakok ciklikusak • a puli lehet kutya is és állat is, de nem lehet kutya is és
macska is • anyanyelv nyelvtana • a baráti körök klikkek
de honnan vesszük a modellt (prior)?• az objektumok léteznek akkor is mikor nem látjuk őket • a hét napjai és az évszakok ciklikusak • a puli lehet kutya is és állat is, de nem lehet kutya is és
macska is • anyanyelv nyelvtana • a baráti körök klikkek
de honnan vesszük a modellt (prior)?• az objektumok léteznek akkor is mikor nem látjuk őket • a hét napjai és az évszakok ciklikusak • a puli lehet kutya is és állat is, de nem lehet kutya is és
macska is • anyanyelv nyelvtana • a baráti körök klikkek
de honnan vesszük a modellt (prior)?• az objektumok léteznek akkor is mikor nem látjuk őket • a hét napjai és az évszakok ciklikusak • a puli lehet kutya is és állat is, de nem lehet kutya is és
macska is • anyanyelv nyelvtana • a baráti körök klikkek
• Linnaeus: a fajokat fa-gráffal lehet leírni • Mengyelejev: az elemek periódusos rendszerbe
helyezhetőek
de honnan vesszük a modellt (prior)?• innátizmus/nativizmus vs tabula rasa • úgy tűnik, hogy nagyrészt fel lehet építeni
tapasztalatok alapján
de honnan vesszük a modellt (prior)?• innátizmus/nativizmus vs tabula rasa • úgy tűnik, hogy nagyrészt fel lehet építeni
tapasztalatok alapján
de honnan vesszük a modellt (prior)?
mi a környezet állapota?
• innátizmus/nativizmus vs tabula rasa • úgy tűnik, hogy nagyrészt fel lehet építeni
tapasztalatok alapján
de honnan vesszük a modellt (prior)?
mi a környezet állapota? percepció• inferencia
• innátizmus/nativizmus vs tabula rasa • úgy tűnik, hogy nagyrészt fel lehet építeni
tapasztalatok alapján
hogyan működik a környezet?
de honnan vesszük a modellt (prior)?
mi a környezet állapota? percepció• inferencia
• innátizmus/nativizmus vs tabula rasa • úgy tűnik, hogy nagyrészt fel lehet építeni
tapasztalatok alapján
hogyan működik a környezet?
de honnan vesszük a modellt (prior)?
mi a környezet állapota? percepció
tanulás
• inferencia
• paraméterbecslés • struktúra tanulás • modell szelekció
• innátizmus/nativizmus vs tabula rasa • úgy tűnik, hogy nagyrészt fel lehet építeni
tapasztalatok alapján
• innátizmus/nativizmus vs tabula rasa • úgy tűnik, hogy nagyrészt fel lehet építeni
tapasztalatok alapján
• innátizmus/nativizmus vs tabula rasa • úgy tűnik, hogy nagyrészt fel lehet építeni
tapasztalatok alapján• hogyan?
a kutyának négy lába van
a macskának négy lába van
minden emlősnek négy lába van?minden állatnak négy lába van?
a lovaknak négy lába van?
a kutyának négy lába van
a macskának négy lába van
minden emlősnek négy lába van?minden állatnak négy lába van?
x
P (µ|D)
µ
P (µ)
P (x|truth)
P (x1|µ)likelihood(1)
posterior
prior
true
posterior(1)P (µ|x1)
predictive(0)P (x)
x
P (x|D)
P (µ|D)
µ
P (µ)
P (x|truth)
P (x1|µ)likelihood(1)
posterior
prior
predictive
true
posterior(1)P (µ|x1)
predictive(0)P (x)
P (µ|x) = P (x|µ)P (µ)R1�1 P (x|µ)P (µ)dµ
P (x|µ) = N (x|µ,�) = e
� (x�µ)2
2�2
p2⇡� P (µ) = N (µ|µ0,�0)
P (µ|x) = P (x|µ)P (µ)R1�1 P (x|µ)P (µ)dµ
P (x|µ) = N (x|µ,�) = e
� (x�µ)2
2�2
p2⇡� P (µ) = N (µ|µ0,�0)
P (µ|x) = N (x|µ,�)N (µ|µ0,�0)R1�1 N (x|µ,�)N (µ|µ0,�0)dµ
P (µ|x) = P (x|µ)P (µ)R1�1 P (x|µ)P (µ)dµ
P (x|µ) = N (x|µ,�) = e
� (x�µ)2
2�2
p2⇡� P (µ) = N (µ|µ0,�0)
P (µ|x) = N (x|µ,�)N (µ|µ0,�0)R1�1 N (x|µ,�)N (µ|µ0,�0)dµ
P (µ|x) = N (µ|x,�)N (µ|µ0,�0)R1�1 N (µ|x,�)N (µ|µ0,�0)dµ
μ <-> x
P (µ|x) = P (x|µ)P (µ)R1�1 P (x|µ)P (µ)dµ
P (µ|x) = N (x|µ,�)N (µ|µ0,�0)R1�1 N (x|µ,�)N (µ|µ0,�0)dµ
P (µ|x) = N (µ|x,�)N (µ|µ0,�0)R1�1 N (µ|x,�)N (µ|µ0,�0)dµ
μ <-> x
N (x|µ,�)N (µ|u0,�0) = c · N (µ|µ0,�
0)
c = N (x|µ0,
q�
2 + �
20); µ
0 =µ0�
2 + x�
20
�
2 + �
20
; �0 =��0p�
2 + �
20
konjugált prior!
P (µ|x) = N (x|µ,�)N (µ|µ0,�0)R1�1 N (x|µ,�)N (µ|µ0,�0)dµ
P (µ|x) = N (µ|x,�)N (µ|µ0,�0)R1�1 N (µ|x,�)N (µ|µ0,�0)dµ
μ <-> x
P (µ|x) = c · N (µ|µ0,�
0)R1�1 c · N (µ|µ0
,�
0)dµ
N (x|µ,�)N (µ|u0,�0) = c · N (µ|µ0,�
0)
c = N (x|µ0,
q�
2 + �
20); µ
0 =µ0�
2 + x�
20
�
2 + �
20
; �0 =��0p�
2 + �
20
konjugált prior!
N (x|µ,�)N (µ|u0,�0) = c · N (µ|µ0,�
0)
c = N (x|µ0,
q�
2 + �
20); µ
0 =µ0�
2 + x�
20
�
2 + �
20
; �0 =��0p�
2 + �
20
P (µ|x) = N (µ|x,�)N (µ|µ0,�0)R1�1 N (µ|x,�)N (µ|µ0,�0)dµ
μ <-> x
P (µ|x) = c · N (µ|µ0,�
0)R1�1 c · N (µ|µ0
,�
0)dµ
P (µ|x) = N (µ|µ0,�
0)
konjugált prior!
P (µ|x) = N (µ|µ0,�
0)
eredmény 1 pontraP (µ|x) = P (x|µ)P (µ)R1
�1 P (x|µ)P (µ)dµ
terjesszük ki T pontra
P (µ|x) = N (µ|µ0,�
0)
eredmény 1 pontraP (µ|x) = P (x|µ)P (µ)R1
�1 P (x|µ)P (µ)dµ
P (µ|x) = P (x1, x2, ...xT |µ,�)N (µ|µ0,�0)R1�1 P (x1, x2, ...xT |µ,�)N (µ|µ0,�0)dµ
terjesszük ki T pontra
Dx
P (µ|x) = N (µ|µ0,�
0)
eredmény 1 pontraP (µ|x) = P (x|µ)P (µ)R1
�1 P (x|µ)P (µ)dµ
P (µ|x) = P (x1, x2, ...xT |µ,�)N (µ|µ0,�0)R1�1 P (x1, x2, ...xT |µ,�)N (µ|µ0,�0)dµ
terjesszük ki T pontra
P (A,B) = P (A)P (B)
P (µ|x) = N (µ|µ0,�
0)
eredmény 1 pontraP (µ|x) = P (x|µ)P (µ)R1
�1 P (x|µ)P (µ)dµ
P (µ|x) =QT
t=1 N (xt|µ,�)N (µ|µ0,�0)R1�1
QTt=1 N (xt|µ,�)N (µ|µ0,�0)dµ
P (µ|x) = P (x1, x2, ...xT |µ,�)N (µ|µ0,�0)R1�1 P (x1, x2, ...xT |µ,�)N (µ|µ0,�0)dµ
terjesszük ki T pontra
P (A,B) = P (A)P (B)
P (µ|x) = N (µ|µ0,�
0)
eredmény 1 pontraP (µ|x) = P (x|µ)P (µ)R1
�1 P (x|µ)P (µ)dµ
P (µ|x) =QT
t=1 N (xt|µ,�)N (µ|µ0,�0)R1�1
QTt=1 N (xt|µ,�)N (µ|µ0,�0)dµ
P (µ|x) = P (x1, x2, ...xT |µ,�)N (µ|µ0,�0)R1�1 P (x1, x2, ...xT |µ,�)N (µ|µ0,�0)dµ
terjesszük ki T pontra
P (A,B) = P (A)P (B)
µ
(T ) =µ0�
2 + �
20
PTt=0 xt
�
2 + T�
20
�(T ) =
s1
T�2 + 1
�20
P (µ|x) = N (µ|µ0,�
0)
eredmény 1 pontraP (µ|x) = P (x|µ)P (µ)R1
�1 P (x|µ)P (µ)dµ
P (µ|x) =QT
t=1 N (xt|µ,�)N (µ|µ0,�0)R1�1
QTt=1 N (xt|µ,�)N (µ|µ0,�0)dµ
P (µ|x) = P (x1, x2, ...xT |µ,�)N (µ|µ0,�0)R1�1 P (x1, x2, ...xT |µ,�)N (µ|µ0,�0)dµ
terjesszük ki T pontra
P (A,B) = P (A)P (B)
P (µ|x) = N (µ|µ(T ),�
(T ))
µ
(T ) =µ0�
2 + �
20
PTt=0 xt
�
2 + T�
20
�(T ) =
s1
T�2 + 1
�20
eredmény T pontra
P (µ|x) = N (µ|µ(T ),�
(T ))
µ
(T ) =µ0�
2 + �
20
PTt=0 xt
�
2 + T�
20
�(T ) =
s1
T�2 + 1
�20
eredmény T pontra
P (µ|x) = N (µ|µ(T ),�
(T ))
limT!1 végtelen adat limit
µ
(T ) =µ0�
2 + �
20
PTt=0 xt
�
2 + T�
20
�(T ) =
s1
T�2 + 1
�20
eredmény T pontra
P (µ|x) = N (µ|µ(T ),�
(T ))
limT!1 végtelen adat limit
µ
(T ) =µ0�
2 + �
20
PTt=0 xt
�
2 + T�
20
�(T ) =
s1
T�2 + 1
�20
PTt=0 xt
T
eredmény T pontra
P (µ|x) = N (µ|µ(T ),�
(T ))
limT!1 végtelen adat limit
0
µ
(T ) =µ0�
2 + �
20
PTt=0 xt
�
2 + T�
20
�(T ) =
s1
T�2 + 1
�20
PTt=0 xt
T
eredmény T pontra
P (µ|x) = N (µ|µ(T ),�
(T ))
limT!1 végtelen adat limit
0
µ
(T ) =µ0�
2 + �
20
PTt=0 xt
�
2 + T�
20
�(T ) =
s1
T�2 + 1
�20
PTt=0 xt
T
P (µ|x) = N (µ|µ(T ),�
(T )) �(µ� µ(T ))
eredmény T pontra
P (µ|x) = N (µ|µ(T ),�
(T ))
limT!1 végtelen adat limit
0
µ
(T ) =µ0�
2 + �
20
PTt=0 xt
�
2 + T�
20
�(T ) =
s1
T�2 + 1
�20
PTt=0 xt
T
P (µ|x) = N (µ|µ(T ),�
(T )) �(µ� µ(T ))
P (x|D)P (x|true)
-4 -2 2 4 6 8 10
0.05
0.10
0.15
0.20
-4 -2 2 4 6 8 10
0.05
0.10
0.15
0.20
-4 -2 2 4 6 8 10
0.05
0.10
0.15
0.20
-5 5 10
0.05
0.10
0.15
0.20
-4 -2 2 4 6 8 10
0.05
0.10
0.15
0.20
T=1 T=2 T=3
T=10 T=100
prior(μ)predictive(x)true(x)
közelítő inferencia• sztochasztikus közelítő módszerek
• pl: Markov chain Monte Carlo (MCMC) • aszimptotikusan (végtelen sok ideig futtatva) egzaktak
• determinisztikus közelítő módszerek • pl: variational Bayes / variational inference • pl: pontbecslések • nem kell végtelen sok idő, de sosem egzakt eredmény
közelítő inferencia• sztochasztikus közelítő módszerek
• pl: Markov chain Monte Carlo (MCMC) • aszimptotikusan (végtelen sok ideig futtatva) egzaktak
• determinisztikus közelítő módszerek • pl: variational Bayes / variational inference • pl: pontbecslések • nem kell végtelen sok idő, de sosem egzakt eredmény
közelítő inferencia• sztochasztikus közelítő módszerek
• pl: Markov chain Monte Carlo (MCMC) • aszimptotikusan (végtelen sok ideig futtatva) egzaktak
• determinisztikus közelítő módszerek • pl: variational Bayes / variational inference • pl: pontbecslések • nem kell végtelen sok idő, de sosem egzakt eredmény
közelítő inferencia• sztochasztikus közelítő módszerek
• pl: Markov chain Monte Carlo (MCMC) • aszimptotikusan (végtelen sok ideig futtatva) egzaktak
• determinisztikus közelítő módszerek • pl: variational Bayes / variational inference • pl: pontbecslések • nem kell végtelen sok idő, de sosem egzakt eredmény
közelítő inferencia• sztochasztikus közelítő módszerek
• pl: Markov chain Monte Carlo (MCMC) • aszimptotikusan (végtelen sok ideig futtatva) egzaktak
• determinisztikus közelítő módszerek • pl: variational Bayes / variational inference • pl: pontbecslések • nem kell végtelen sok idő, de sosem egzakt eredmény
közelítő inferencia• sztochasztikus közelítő módszerek
• pl: Markov chain Monte Carlo (MCMC) • aszimptotikusan (végtelen sok ideig futtatva) egzaktak
• determinisztikus közelítő módszerek • pl: variational Bayes / variational inference • pl: pontbecslések • nem kell végtelen sok idő, de sosem egzakt eredmény
stimulus(t-1)
prior(t)
prior(t-1)
stimulus(t)
posterior(t-1)
datasetprior
posterior
online learning batch learning
stimulus(t-1)
prior(t)
prior(t-1)
stimulus(t)
posterior(t-1)
posterior(t)
datasetprior
posterior
online learning batch learning
stimulus(t-1)
prior(t)
prior(t-1)
prior(t+1)
stimulus(t)
posterior(t-1)
posterior(t)
datasetprior
posterior
stimulus(t+1)
online learning batch learning
Házi Feladat
N (x|µ,�)N (µ|u0,�0) = c · N (µ|µ0,�
0)
c = N (x|µ0,
q�
2 + �
20); µ
0 =µ0�
2 + x�
20
�
2 + �
20
; �0 =��0p�
2 + �
20
konjugált prior
“Ha elimináltuk a lehetetlent, ami marad, bármilyen valószínűtlenül is hangzik, az igazság.” - Sherlock Holmes
A. Mutasd meg, hogy S.H. következtetési módszere konzisztens a Bayes-i inferenciával! (azaz diszkrét hipotézisekre, ha a megfigyeléseknek egyet kivéve mindegyik ellentmond, akkor a fennmaradónak posterior valószínűsége mindenképpen 1.)
B. Mutasd meg hogy a normál eloszlás tanulásakor az átlagra vonatkozó normál eloszlás tényleg konjugált prior (azaz a likelihood a priorral beszorozva ugyan formájú marad csak más paraméterekkel), és számold ki az új paramétereket!