cara membaca output regresi pada spss
DESCRIPTION
statistikTRANSCRIPT
Cara Membaca Output Regresi Pada SPSS
1. Analisis Regresi
Melakukan analisis regresi berarti membuat garis yang dapat mewakili suatu titik-titik (data yang tersebar). Contoh :
Namun sebelum suatu analisis regresi dilakukan, terlebih dahulu harus dilakukan pengujian
asumsi klasik yang meliputi uji normalitas data, uji multikolinieritas, uji heteroskedastisitas dan
uji otokorelasi.
2. Uji Kolmogorov Smirnov.
Dilakukan untuk menguji normalitas data atau dengan kata lain untuk melakukan pengujian
apakah suatu data terdistribusi normal atau tidak.
Data Normal jika tergambar sebagai berikut, namun untuk menggambar hal tersebut kita
senantiasa mengalami kesulitan.
Dalam menggambarkan suatu kondisi data tampilan grafis dipandang kurang memadai sehingga diperlukan suatu alat statistik yang memadai untuk menyimpulkan suatu data normal / tidak. Salah satu alat uji yang
dipandang mampu untuk menyimpulkan hal tersebut adalah uji kolmogorov smirnov. Uji ini dipandang lebih mempermudah peneliti untuk melihat normalitas data secara langsung,
maksudnya adalah bahwa sebenarnya ada pengujian normalitas data dengan menggunakan
statistika deskriptif misalnya dengan nilai rata-rata, simpangan baku, kemencengan dan
kelancipan. Namun uji normalitas data dengan statistika deskriptif ini tidak dapat memberikan
kesimpulan secara tepat mengenai normalitas data.
Uji kolmogorov Smirnov dapat langsung menyimpulkan normalitas suatu data dengan melihat
pada signifikansi nilai Z statistik. Apabila Z statistik memiliki signifikansi di atas 5% atau 1%
(0,05 atau 0,01 tergantung dekat yang mana) maka suatu data dikatakan terdistribusi secara
normal. (Berlawanan dengan pengujian lainnya, pada pengujian ini data justru disimpulkan
normal apabila tidak signifikan).
Contoh :
Hasil Uji Kolmogorov Smirnov Satu ArahNama Variabel Kolmogorov Smirnov
Z StatistikSignifikansi
X1X2X3X4Y
0,5950,5560,8311,3
0,668
0,8710,9170,4950,0680,763
Dari contoh di atas terlihat bahwa tingkat signifikansinya lebih besar dari pada 0,05 (atau 1%) maka kita menyimpulkan bahwa semua data yang ada terdistribusi secara normal.
3. Uji Multikolinearitas
Uji ini dilakukan guna mengetahui ada tidaknya hubungan dalam variabel-variabel bebas yang
digunakan. Cara paling mudah adalah dengan menggunakan koefisien korelasi apabila koefisien
korelasi lebih besar dari 0,56 (menurut Gujarati 0,8) maka diindikasikan terdapat
multikolinieritas.
Contoh :
Variabel X1 X2 X3 X4X1 1
X2 0,391 1X3 0,408 0,339 1X4 0,480 0,283 0,327 1
Dari tabel tersebut terlihat bahwa tidak ada koefisien korelasi antara variabel bebas yang lebih
besar daripada 0,56 (atau 0,8 tergantung referensi). Sehingga disimpulkan tidak ada
multikolinier. Cara lain adalah dengan melihat VIFnya, apabila VIF melebihi angka 10 maka ada
indikasi multikolinieritas
Contoh :
Variabel VIFX1X2X3X4
1,6132,4491,9722,127
Dari tabel di atas terlihat bahwa VIF tidak ada yang melebihi angka 10 sehingga disimpulkan
tidak ada multikolinieritas
4. Uji Heteroskedastisitas
Uji heteroskedastisitas dilakukan agar suatu persamaan regresi tidak bias.
Bias yang dimaksud disini adalah garis regresi tidak dapat mewakili pergerakan variabel terikat
secara tepat. Hal ini terjadi karena tingkat kesalahan yang terjadi semakin melebar.
Uji heteroskedastisitas dilakukan dengan meregresi absolut residual persamaan regresi dengan nilai variabel terikatnya. Cara membaca hasil uji heteroskedastisitas adalah sebagai berikut :
Hasil Uji Heteroskedastisitas
No. Keterangan Nilai t Hitung
Signifikansi
1234
X1X2X3X4
0,4440,0510,250-0,627
0,6590,9590,8040,533
Bila memiliki signifikansi di bawah 0,1 atau 10% (bisa 0,05; gunakan yang terdekat; yang
paling sering digunakan adalah 0,05) maka terjadi heteroskedastisitas. Namun hasil tersebut
menunjukkan bahwa signifikansinya berada di atas 0,05 sehingga disimpulkan tidak ada
heteroskedastisits.
5. Uji Otokorelasi
Otokorelasi adalah adanya hubungan yang kuat pada periode-periode dalam satu variabel.
Uji otokorelasi dilakukan dengan uji Durbin Watson. Uji otokorelasi hanya dapat dilakukan
untuk data runtut waktu / time series. Namun sebagai pelengkap uji ini dapat disajikan
Untuk membaca hasil uji durbin watson sangat mudah caranya dengan melihat durbin watson statistiknya,apabila berada di dekat angka 2 maka tidak ada otokorelasi. Apabila durbin watson berada pada kisaran 1,5 hingga 2,5 maka disimpulkan tidak ada otokorelasi
6. Hasil Analisis Regresi
Analisis regresi berganda digunakan untuk melihat apakah variabel bebas yang digunakan dalam
memiliki pengaruh yang signifikan terhadap variabel terikat / kinerja. Dalam analisis regresi ini
uji t digunakan untuk menjawab hal tersebut. Sementara uji F digunakan untuk melihat apakah
semua variabel bebas yang digunakan secara bersama-sama berpengaruh signifikan terhadap
variabel terikat.
Berdasarkan hasil analisis yang ada dapat dilihat bahwa semua variabel bebas yang digunakan
memiliki pengaruh positif yang signifikan terhadap variabel terikat.
Contoh :
Dari output tesebut maka persamaan regresinya adalah :
Y = 1,564 + 0,07625X1 + 0,472X2 + 0,06801X3 + 0,568X4 + E
Untuk melihat apakah suatu variabel bebas memiliki pengaruh yang signifikan / tidak dapat
dilihat dari nilai t atau dari signifikansinya. Apabila suatu variabel terikat memiliki sig lebih
kecil dari pada 0,1 atau 10% maka dapat dikatakan bahwa variabel bebas tersebut signifikan
pada tingkat 10%, bila lebih kecil dari 0,05 atau 5% maka dapat dikatakan bahwa variabel bebas
tersebut signifikan pada tingkat 5%, jika memiliki sig yang lebih kecil dari 0,01 tau 1% maka
dapat dikatakan bahwa variabel tersebut signifikan pada tingkat 1%. Apabila dinyatakan
signifikan maka hipotesis yang telah kita rumuskan dapat diterima. (Yang Umum digunakan 5%)
Berdasarkan hal tersebut maka hipotesis 1 hingga hipotesis 4 dapat diterima, dan disimpulkan
bahwa terdapat pengaruh positif yang signifikan dari x1, x2, x3 dan x4 terhadap y.
Uji F dilakukan dengan melihat nilai F hitungnya
Contoh
Dengan cara yang sama dengan uji t, maka kita dapat melihat dari nilai sig. Karena nilai F
hitung sebesar 3,559 yang memiliki tingkat sig 0,012 yang lebih kecil dari 5% (bisa pula 10%,
gunakan yang paling dekat apabila nilai sig sebesar 0,07 maka signifikan pada tingkat 10%)
maka kita dapat simpulkan bahwa semua variabel bebas secara bersama-sama berpengaruh
signifikan terhadap variabel terikat dan hipotesisnya diterima.
Sementara itu koefisien determinasi nya dapat dilihat dari nilai R squarenya
Contoh :
Nilai R square sebesar 0,554 memiliki arti bahwa kemampuan variabel bebas untuk menjelaskan
besarnya variasi dalam variabel terikat adalah sebesar 55,4% sisanya dijelaskan variabel lain
yang tidak masuk dalam persamaan.