tugas 2

12
A. Ordinary Least Square (OLS) Teknik ini tidak ubahnya dengan membuat regresi dengan data cross section atau time series sebagaimana telah dipelajari sebelumnya. tapi, untuk data panel, sebelum membuat regresi kita harus menggabungkan data cross section dengan time series (pooled data). kemudian, data gabungan ini diperlakukan sebagai satu kesatuan pengamatan yang digunakan untuk mengestimasi model dengan metode OLS. Kalau kita punya asumsi bahwa α dan β akan sama (konstan) untuk setiap data time series atau cross section, maka α dan β dapat diestimasi dengan model berikut dengan menggunakan N*T pengamatan: Yit = α + βxit + εit ; i = 1,2,....,N; t = 1,2,....,T Apakah asumsi bahwa α dan β konstan realistis?? untuk mengatasi permasalahan tersebut, ada dua buah teknik yang biasanya digunakan untuk membuat model dari data panel, yaitu Metode Efek Tetap (Fixed Effect Method) dan Metode Efek Random (Random Effect Method). a. Fixed Effect Method (FEM) Adanya variabel-variabel yang tidak semuanya masuk dalam persamaan model memungkinkan adanya intercept ini mungkin berubah untuk setiap individu dan waktu. pemikiran inilah yang menjadi dasar pemikiran pembentukan model tsb.

Upload: viliani-dedes-hilman

Post on 12-Dec-2014

23 views

Category:

Documents


8 download

TRANSCRIPT

Page 1: TUGAS 2

A. Ordinary Least Square (OLS)

Teknik ini tidak ubahnya dengan membuat regresi dengan data cross section atau

time series sebagaimana telah dipelajari sebelumnya. tapi, untuk data panel, sebelum

membuat regresi kita harus menggabungkan data cross section dengan time series

(pooled data). kemudian, data gabungan ini diperlakukan sebagai satu kesatuan

pengamatan yang digunakan untuk mengestimasi model dengan metode OLS.

Kalau kita punya asumsi bahwa dan akan sama (konstan) untuk setiap dataα β

time series atau cross section, maka dan dapat diestimasi dengan model berikutα β

dengan menggunakan N*T pengamatan:

Yit = + xit + it ; α β ε i = 1,2,....,N; t = 1,2,....,T

Apakah asumsi bahwa dan konstan realistis?? untuk mengatasiα β

permasalahan tersebut, ada dua buah teknik yang biasanya digunakan untuk membuat

model dari data panel, yaitu Metode Efek Tetap (Fixed Effect Method) dan Metode

Efek Random (Random Effect Method).

a. Fixed Effect Method (FEM)

Adanya variabel-variabel yang tidak semuanya masuk dalam persamaan model

memungkinkan adanya intercept ini mungkin berubah untuk setiap individu dan

waktu. pemikiran inilah yang menjadi dasar pemikiran pembentukan model tsb.

asumsi pembuatan model yang menghasilkan nilai konstan untuk setiapα

individu (i) dan waktu (t) kurang realistis, kalau dalam FEM, kita dapat

mengatasi hal tersebut, karena metode ini memungkinkan adanya perubahan α

pada setiap i dan t yang secara matematis, model FEM dinyatakan sbb:

Yit = + xit + ²x²t + ²x²i + ²x²t + ²x²i + itα β γ γ δ δ ε

ket:

Yit    = Variabel dependen untuk individu ke-i dan waktu ke-t

Page 2: TUGAS 2

xit β   = Variabel independen untuk individu ke-i  dan waktu ke-t

variabel dummy yang didefinisikan sebagai berikut:

t γ      = 1 ; untuk waktu ke-t ; i = 1,2,...,N

i γ      = 0 ; untuk individu ke-  i

t δ      = 1 ; untuk periode t; t = 1,2,...,T

iδ       = 0 ; untuk observasi   i

Dari model di atas terlihat bahwa sesungguhnya FEM adalah sama dengan

regresi yang menggunakan Dummy Variable sebagai variabel independen,

sehingga dapat diestimasi dengan OLS, dengan diestimasinya tersebut

menggunakan OLS, maka akan memperoleh estimator yang tidak bias dan

konsisten.

b. Random Effect Method (REM)

Apabila pada FEM, perbedaan antar individu dan atau waktu dicerminan lewat

intercept, maka pada REM perbedaan tersebut diakomodasi lewat error. teknik

ini juga memperhitungkan bahwa error mungkin berkorelasi sepanjang time

series dan cross section.

Pada FEM, perbedaan karakteristik individu dan waktu diakomodasikan pada

intecept-nya berubah antar individu dan antar waktu, sementara pada REM,

perbedaan karakteristik individu dan waktu diakomodasikan pada error dari

model. mengingat ada dua komponen yang memiliki kontribusi pada

pembentukan error, yaitu individu (i) dan waktu (t), maka random error untuk

komponen individu, error komponen waktu, dan error gabungan. Dengan

demikian, persamaan REM diformulasikan sbb:

Yit = + xit + it ; it = ui + vt + witα β ε ε

Di mana:

ui  = Komponen error cross section

vt  = Komponen error time series

Page 3: TUGAS 2

wit = Komponen error gabungan

Adapun asumsi yang digunakan untuk komponen error tersebut adalah:

ui ~ N (0, u²);σ

vt ~ N (0, v²);σ

wit ~ N (0, w²);σ

Kalau melihat persamaan di atas, maka dapat dinyatakan bahwa REM

menganggap efek rata-rata dari data cross section dan time series

direpresentasikan dalam intercept.. kita telah mengetahui bahwa:

dengan demikian, varians dari error tersebut dapat dituliskan dengan:

Var( it) = u² + v² + w²ε σ σ σ

Sifat-Sifat dalam Regeresi OLS

Sifat regeresi model Ordinary Least Square (OLS) yang bersifat BLUES (Best

Liniear Unbiased Estimator) adalah sebagai bberiku:

1.  Efisien, artiya hasil estimasi memiliki varian yang minimum dan tidak bias;

2. Tidak bias, artinya hasil estimasi sesuai dengan nilai parameter;

3. Konsisten, artinya ukuran sampel ditambahkan tanpa batas, maka hasil nilai

estimasi akan mendekati parameter populasi yang sebenarnya;                

4. Linier, artinya bahwa β0 dan β1 adalah fungsi linier dari variabel acak Y

(dependen) di dalam model regesi;

5. Koefisien regeresi akan memiliki distribusi normal.

Asumsi-Asumsi Model OLS

Asumsi-Asumsi dalam regeresi Ordinary Least Square (OLS) untuk mendapatkan

hasil regeresi yang BLUE (Best Liniear Unbiased Estimator) adalah sebagai berikut:

1.  Model regeresi adalah linier dalam parameter;

Page 4: TUGAS 2

2.  Nilai X (variabel independen) tetap di dalam sampel yang dilakukan secara

berulang-ulang. Dengan kata lain X (variabel independen) adalah stokastik

(deterministik);

3. Spesifikasi model regeresi harus benar;

4.  Error term (µ) memiliki distribusi normal. Implikasinya, Y (variabel dependen)

dan distribusi sampling koefisien regresi memiliki distribusi noral. Dengan

demikian, nilai harapan dan rata-rata kesalahan adalah nol;

5. Homokedasitas atau varian µi adalah tetap untuk semua pengamatan. Hal

tersebut berarti bahwa varian kondisional µi adalah identik dengan  èE(µ2i) = s2;

6. Tidak ada autokorelasi antar unsur pengganggu. Misalkan diketahui ada dua nilai

variabel X (variabel independen), yaitu Xi dan Xj (i≠j), korelasi antara kedua

unsur penggangu µi dan µj (i≠j) adalah sama dengan nolèE(µi µj)=0;

7.  Tidak ada multikolinearitas yang sempurna, yang ada hanya multikoliniearitas

biasa atau tidak sempurna)

http://ndhikgoblog.blogspot.com/2012/05/ekonometrika-estimasi-model-data-

panel.html

http://teoridanmodelekonometrika.blogspot.com/

B. KRITERIA ESTIMATOR

Dalam estimasi dikenal istilah penduga atau estimator atau fungsi keputusan.

Fungsi keputusan atau estimator ini digunakan untuk mendapatkan taksiran untuk

parameter.

Syarat penduga yang baik:

1. Unbiased

Suatu penduga atau estimator θ̂dikatakan unbiased jika memenuhi syarat

berikut:

E (θ̂) = θ;

Dengan θ adalah parameter dan θ̂ adalah estimator parameter.

2. Minimum varian

Page 5: TUGAS 2

Suatu estimator θ̂dikatakan minimum varian apabila memenuhi kriterian

berikut:

Menurut Cramer Rao

v (θ̂)≥ 1

nE[( d ln f (x , θ)dθ )2]

Apabila θ̂ adalah unbiased estimator dari θ dan

v (θ̂ )= 1

nE[( d ln f (x ,θ)dθ )2]

Maka θ̂ adalah minimum variance unbiased estimator dari θ.

3. Konsisten

Suatu penduga atau estimator θ̂ dikatakan konsisten jika memenuhi syarat:

Semakin besar sampel maka nilai varian semakin kecil atau nilai sampel semakin

mendekati populasi.

4. Relative efisiensi

Suatu penduga atau estimator θ̂ dikatakan efisien jika memiliki varian terkecil

diantara banyak estimator θ̂ unbiased lainnya.

5. Sufficiency

Suatu penduga atau estimator θ̂dikatakan sufficient jika tiap nilai parameter θ ,

distribusi bersyarat (conditional distribution) dari random variable ( X1,X2,....,Xn

given θ̂=θ̂0) adalah independent dari θ.

Berikut beberapa metode estimasi yang sering digunakan dalam statistic untuk

menduga atau mengestimasi parameter:

1. KLASIK

Metode estimasi parameter dengan metode klasik, merupakan metode estimasi

parameter yang banyak digunakan dan mudah untuk diaplikasikan, selain itu

metode ini juga relative sederhana dibandingkan metode lainnya.

Mengasumsikan parameter populasi tetap (konstan) walaupun nilainya tidak

diketahui

Estimasi dari populasi dapat berupa estimasi titik dan estimasi selang (interval).

Estimasi Titik

Page 6: TUGAS 2

Estimasi yang nilai dugaannya berupa satu nilai atau titik.

Contoh:

Penduga dari rata-rata populasi adalah μ x, dimana x merupakan suatu nilai

tertentu.

Estimasi Selang

Estimasi yang nilai dugaannya berupa suatu selang atau interval kepercayaan.

Selang kepercayaan (confidence interval) adalah sebuah interval antara dua

angka, dimana dalam tingkat kepercayaan tertentu nilai parameter sebuah

populasi terletak di dalam interval tersebut.

Dimana selang kepercayaan tersebut dapat dituliskan secara matematis:

P (θ̂1<θ̂2)=1−αDengan 0<α<1

Maka dengan peluang 1−α sampel yang diambil akan menghasilkan selang

(interval) yang mengandung θ. Selang (interval) θ̂1<θ< θ̂2 yang diambil

berdasarkan random sampel adalah selang kepercayaan (1−α )100%.

Dimana:

1−α disebut koefisien kepercayaan atau taraf kepercayaan atau tingkat

signifikansi.

θ̂1dan θ̂2 masing-masing adalah batas bawah dan batas atas.

2. BAYES

Menurut Bayes, parameter populasi berasal dari suatu distribusi, sehingga

nilainya tidaklah tunggal (merupakan variabel random), sedangkan menurut

metode klasik parameter populasi diasumsikan tetap (konstan) walaupun

nilainya tidak diketahui.

Bayes menggunakan interpretasi probabilitas secara subyektif di dalam

analisa statistika formal. Pendekatan Bayes terhadap metode estimasi

statistik menggabungkan informasi yang dikandung dalam sampel dengan

informasi lain yang telah tersedia sebelumnya.

3. OLS

Page 7: TUGAS 2

Prinsip kerjanya ialah meminimumkan jumlah kuadrat penyimpangan atau error

nilai-nilai observasi terhadap rata-ratanya:

Y i=β0+β1 X i+εi

ε i=Y i−¿(β0+β1X i ¿

E ( εi )=0 asumsi linearitas.

E ( y i )=E (β0+ β1 X i+ε i)=β0+β1X i

Prinsip: minimum ∑i=1

n

εi2=¿ minimum∑

i=1

n

( y i−E ( y i))2

Memiliki 5 asumsi yang harus dipenuh oleh penyimpangan atau errornya:

1. Normalitas ε i N (0 , σ 2)

Error mengikuti distribusi normal dangan rata-rata= 0 dan varian= σ2

2. Linieritas: E (εi) = 0.

Linearitas menunjukkan rata-rata sama dengan 0 atau tidak ada korelasi

antara variabel bebas dengan error.

3. Homoskedastisitas: Var (εi) = σ2

Homoskedastisitas menunjukkan varian dari distribusi errornya besifat

konstan atau mendekati konstan.

4. Non-multikolinieritas

Multikolineritas menunjukkan adanya hubungan linear diantara beberapa

atau semua variable bebas yang menyusun model regresi.

5. Non-autokorelasi: Cov (εi, εj) = 0 , i ≠ j

Non autokorelasi menunjukkan tidak adanya hubungan atau korelasi antara

error satu dengan error lainnya.

4. GLS

Prinsip dasarnya sama dengan OLS, yaitu meminimumkan jumlah kuadrat

penyimpangan atau error nilai-nilai observasi terhadap rata-ratanya .

Metode GLS (Generalized Least Squares) memiliki nilai lebih dibandingkan OLS

dalam mengestimasi parameter regresi. metode OLS yang umum tidak

mengasumsikan bahwa varians erroe adalah homoskeda,Pada kenyataannya

variasi data pada data khususnya data time series cenderung heterogen

(heteroskedas). Metode GLS sudah memperhitungkan heterogenitas yang

terdapat pada variabel independen secara eksplisit.

Page 8: TUGAS 2

5. MME

Prinsip: Momen Sampel= Momen Parameter

Misalkan suatu populasi dengan fungsi densitas f(x ; θ1,…, θk), maka momen

populasi ke-k didefinisikan sebagai μk =E(Xk ).

Jika X1,X2,....,Xn adalah sampel random dari populasi dengan fungsi densitas f(x;θ1,

…,θk), maka momen sampel ke-k didefinisikan dengan

mk'=

∑i=1

n

X ik

n

Misal X1, X2, ...., Xn adalah sampel random dari populasi dengan fungsi densitas

f(x;θ1,…, θk), estimator metode momen didapatkan dengan menyamakan k

momen sampel dengan k momen populasi, dan menyelesaikan sistem persamaan

simultan yang dihasilkan.

Caranya:

Buat persamaan mk'=μk

'

Misal untuk k=1

μk' =E(X k)

μ1'=E ( X1 )=μ

mk'=

∑i=1

n

X ik

n

m1'=

∑i=1

n

X i1

n=X

Sehingga: m1'=μ1

' menjadi X=μ

6. MLE

Prinsip kerjanya maksimum likelihood dengan syarat distribusi error diketahui

atau diasumsikan mengikuti distribusi tertentu.

L (θ )=f (x1 , x2 ,… ,xn ;θ) dimana f (x1 , x2 ,…, xn;θ) adalah joint probabilita

distribusi dari random variable x1 , x2 ,…, xn.

Max L (θ ) diperoleh dengan cara:

d L (θ )dθ

=0 atau d logL (θ )d θ

=0

Page 9: TUGAS 2

Apabila lebih dari satu parameter:

L (θ1 ,θ2,…,θn )=∏i

n

f (x i;θ1 , θ2 ,…,θn)

d L (θ1 , θ2 ,… ,θnθ )d θ1

=0

d L (θ1 , θ2 ,… ,θnθ )d θ2

=0 dst.