anreg forward
DESCRIPTION
Offering GG 2008 - Matematika - Universitas Negeri MalangTRANSCRIPT
PENYELESAIAN MULTIKOLINEARITAS
DENGAN METODE FORWARD SELECTION
PADA DATA PENGGUNAAN AIR SUATU PERUSAHAAN
MAKALAH
Untuk memenuhi tugas matakuliah Analisis Regresi
Yang dibimbing oleh Bapak Drs. Hendro Permadi
Oleh :
Fajar Prabowo 907312410070
Senja Putri Merona 308312410089
Bunga S Bintari 308312410091
Rizka Rahmawati 308312410095
Dewi Asrining Puri 308312410096
UNIVERSITAS NEGERI MALANG
FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM
JURUSAN MATEMATIKA
Desember 2010
BAB I
PENDAHULUAN
A. Latar belakang
Air merupakan salah satu sumber daya alam yang sangat dibutuhkan oleh manusia.
Dalam kehidupannya, manusia tak lepas dari penggunaan air. Begitu juga dalam kegiatan
produksi suatu perusahaan. Salah satu biaya yang tinggi berasal dari penggunaan air untuk
fasilitas produksi setiap bulannya. Suatu contoh seorang insinyur diberi tugas untuk
menurunkan biaya penggunaan air. Ia meneliti faktor-faktor yang mempengaruhi penggunaan
air di perusahaannya. Faktor-faktor tersebut adalah suhu bulan rata-rata (0F), jumlah produksi
(M pound), banyaknya hari kerja per bulan, dan banyaknya karyawan.
Pada data ini kita akan memilih faktor yang paling mempengaruhi penggunaan air
dalam perusahaan tersebut. Kita akan menggunakan metode forward selection untuk
menyelesaikannya sehingga diperoleh model terbaik. Pada data ini kita akan menyelidiki
adanya kasus multikolinieritas dimana variabel-variabel bebasnya saling berkorelasi antar
sesamanya.
B. Rumusan masalah
Berdasarkan latar belakang masalah, maka rumusan masalahnya sebagai berikut:
1. Bagaimana cara mengidentifikasi adanya multikolinearitas?
2. Bagaimana cara mengatasi multikolinearitas dengan metode forward selection?
C. Tujuan
Berdasarkan rumusan masalah, maka tujuannya sebagai berikut:
1. Mengetahui cara mengidentifikasi adanya multikolinearitas.
2. Mengetahui cara mengatasi multikolinearitas dengan metode forward selection.
BAB II
LANDASAN TEORI
A. Analisis Regresi Linear Berganda
Analisis regresi linier berganda merupakan bentuk umum, sedangkan regresi linier
sederhana merupakan bentuk khusus dari regresi linier berganda yaitu apabila satu peubah
bebas yang dilibatkannya. Dengan regresi linier berganda persamaan dalam X memberikan
prediksi yang terbaik terhadap Y.
Model regresi linier berbentuk
Y=β0+ β1X1+ β2X2+…+βkXk+ ε
Dengan Xi, i = 1,2,…,k merupakan peubah bebas dan βi, i=1,2,…,k parameter regresi, dan
ε sebagai error. Dan sebarang model yang tidak berbentuk seperti persamaan di atas
disebut model tak linier. Jika pada suatu model regresi tersebut terdapat satu peubah bebas
, maka model itu disebut regresi linier sederhana. Sedangkan jika terdapat lebih dari satu
peubah bebas, maka model itu disebut regresi linier berganda.
Dalam melakukan analisis harus diperhatikan beberapa asumsi yang mendasarinya:
1. Nilai harapan bersyarat galat yang disebabkan oleh peubah bebas X yang harus sama
dengan nol.
2. Setiap galat yang disebabkan peubah bebas mempunyai varian yang sama.
3. Tidak ada multikolinieritas yang berarti tidak ada hubungan linier antara peubah
bebas.
Drapper n Smith (1992), menyatakan beberapa kriteria yang digunakan untuk
melihat tepat tidaknya model regresi yang diperoleh, salah satunya yaitu dengan melihat
koefisien determinasi berganda (Rk2).
Sebuah masalah penting dalam penerapan analisis regresi linier berganda adalah
pemilihan peubah – peubah bebas yang dapat digunakan dalam model agar diperoleh
persamaan regresi “terbaik “ yang mengandung sebagian atau seluruh peubah bebas.
B. Multikolinieritas
Multikolinieritas ditemukan oleh Ragner Frisch yang berarti adanya hubungan
linier yang sempurna atau pasti diantara beberapa atau semua variabel yang menjelaskan
(X1, X2,…,Xk) dari model regresi.
Akibat terjadinya multikolinieritas antara lain:
1) Nilai koefisien regresi berganda bias.
2) Terjadi perubahan tanda pada koefisien regresi berganda seharusnya positif menjadi
negatif.
Untuk mendeteksi adanya multikolinieritas digunakan beberapa metode yaitu:
1) Koefisien korelasi antara peubah bebas. Adanya multikolinieritas seringkali diduga
apabila nilai R2 cukup besar (antara 0,7 dan 1).
2) Dengan melihat elemen matrik korelasi. Jika korelasi antar variable bebas lebih besar
daripada korelasi antara variabel bebas dan variabel terikatnya menandakan adanya
multikolinearitas pada variable bebasnya.
3) VIF (Variance Inflation Factor )
Jika nilai VIF lebih besar atau sama dengan 10, menandakan adanya multikolinieritas
pada variabel bebas.
BAB III
PEMBAHASAN
Berikut adalah data mengenai faktor-faktor yang memepengaruhi penggunaan air untuk
fasilitas produksi setiap bulan pada suatu perusahaan
No Y X1 X2 X3 X4
1 3067 58,8 7107 21 129
2 2828 65,2 6373 22 141
3 2891 70,9 6796 22 153
4 2994 77,4 9208 20 166
5 3082 79,3 14792 25 193
6 3898 81,0 14564 23 189
7 3502 71,9 11964 20 175
8 3060 63,9 13526 23 186
9 3211 54,5 12656 20 190
10 3286 39,5 14119 20 187
11 3542 44,5 16691 22 195
12 3125 43,6 14571 19 206
13 3022 56,0 13619 22 198
14 2922 64,7 14575 22 192
15 3950 73,0 14556 21 191
16 4488 78,9 18573 21 200
17 3295 79,4 15618 22 200
Keterangan:
Y : Penggunaan air untuk fasilitas produksi setiap bulan
X1 : suhu bulanan rata-rata(F)
X2 : jumlah produksi
X3 : banyaknya hari kerja dalam bulan
X4 : banyaknya orang yang tercantumdalam daftar gaji
Analisis Regresi Linier Berganda
Data diolah dengan bantuan minitab, diperoleh korelasi antara variabel terikat Y dengan
variabel bebas X sebagai berikut:
Correlations: Y, X1, X2, X3, X4 Y X1 X2 X3
X1 0.286
0.266
X2 0.631 -0.024
0.007 0.927
X3 -0.089 0.438 0.106
0.735 0.079 0.686
X4 0.413 -0.082 0.918 0.032
0.099 0.754 0.000 0.903
Cell Contents: Pearson correlation
P-Value
Dari Minitab kita dapatkan persamaan regresi
Y = 6360 + 13.9 X1 + 0.212 X2 - 127 X3 - 21.8 X4
Perhatikan korelasi variabel X4 dan Y bernilai positif, sedangkan dalam persamaan regresi
variabel X4 bernilai negatif. Dari sini kita menyimpulkan adanya kasus multikolinieritas.
Dari analisis korelasi, kita ketahui bahwa harga mutlak nilai korelasi antara X3 dan Y
lebih kecil daripada korelasi antara X3 dan X2, begitu pula dengan korelasi antara X1 dengan
Y lebih kecil daripada korelasi antara X1 dengan X3. Hal ini menunjukkan bahwa X3
mempengaruhi X2 dan X1 mempengaruhi X3.
Dari korelasi antara variabel X dan Y kita dapat menduga hubungan antar variabel sebagai
berikut:
Y
X4
X3 X2 X1
Metode forward selection merupakan salah satu cara dalam menyelesaikan masalah
multikolinieritas. Dengan menganalisis persamaan regresinya melalui minitab, kita perlu
melakukan uji parsial koefisien regresi dan uji ANOVA
Uji Parsial
Predictor Coef SE Coef T P
Constant 6360 1314 4.84 0.000
X1 13.869 5.160 2.69 0.020
X2 0.21170 0.04554 4.65 0.001
X3 -126.69 48.02 -2.64 0.022
X4 -21.818 7.285 -3.00 0.011
S = 248.964 R-Sq = 76.7% R-Sq(adj) = 68.9%
H0 : i = 0 , untuk i = 1,2,3,4
H1 : i 0
Karena Thitung untuk variabel X1, X2, X3 , dan X4 lebih besar dari pada T tabel maka tolak H0
terima H1. Kita simpulkan i 0.
Uji ANOVA
Analysis of Variance
Source DF SS MS F P
Regression 4 2448834 612209 9.88 0.001
Residual Error 12 743798 61983
Total 16 3192632
Source DF Seq SS
X1 1 260702
X2 1 1298824
X3 1 333276
X4 1 556032
H0 : regresi berganda tidak berarti
H1 : regresi berganda berarti
Fhitung = 9.88. Ftabel = 0.53. karena Fhitung lebih besar daripada Ftabel , maka tolak H0. Sehingga
kita dapat menyimpulkan bahwa variabel X mempengaruhi variabel Y secara serentak.
Stepwise Regression: Y versus X1, X2, X3, X4 Forward selection. Alpha-to-Enter: 0.25
Response is Y on 4 predictors, with N = 17
Step 1 2 3 4
Constant 2273 4601 3866 6360
X2 0.080 0.203 0.193 0.212
T-Value 3.15 3.64 3.56 4.65
P-Value 0.007 0.003 0.004 0.001
X4 -21.6 -19.7 -21.8
T-Value -2.41 -2.25 -3.00
P-Value 0.030 0.042 0.011
X1 8.0 13.9
T-Value 1.43 2.69
P-Value 0.177 0.020
X3 -127
T-Value -2.64
P-Value 0.022
S 358 312 301 249
R-Sq 39.78 57.42 63.19 76.70
R-Sq(adj) 35.77 51.34 54.70 68.94
Mallows C-p 18.0 10.9 10.0 5.0
PRESS 2522415 2061524 1819283 1285238
R-Sq(pred) 20.99 35.43 43.02 59.74
Dari SPSS kita peroleh,
Dengan minitab dan SPSS kita ketahui bahwa variabel X yang masuk dalam model regresi
adalah X2 dan X4.yaitu jumlah produksi dan banyaknya karyawan.
BAB IV
PENUTUP
Kesimpulan
Berdasarkan hasil pembahasan dapat disimpulkan sebagai berikut:
1. Dari data penggunaan air pada suatu perusahaan, didapat persamaan regresi sebagai
berikut : Y = 6360 + 13.9 X1 + 0.212 X2 - 127 X3 - 21.8 X4
2. Terjadi kasus multikolinieritas pada data penggunaan air.
3. Dengan metode forward selection, diperoleh bahwa jumlah produksi dan banyaknya
karyawan paling mempengaruhi penggunaan air pada suatu perusahaan.
Daftar Pustaka
Permadi, Hendro.1999.Teknik Analisis Regresi.Universitas Negeri Malang:JICA.
Draper, Norman & Smith,H.1992. Analisis Regresi terapan. Gramedia Pustaka Utama:
Jakarta.
DAFTAR PUSTAKA
Drapper N. and Smith H. 1992. Analisis Regresi Terapan. Penerbit Gramedia Pustaka Utama,
Jakarta.
Permadi, Hendro. 1999. Teknik Analisis Regresi. Universitas Negeri Malang: JICA.
Susiswo. 2002. Analisis Regresi dan Aplikasinya Disertai dengan Penerapannya pada
Minitab 12. Universitas Negeri Malang: JICA.