TESIS - SS14 2501 SS14 2501
ESTIMATOR CAMPURAN KERNEL DAN SPLINE TRUNCATED LINIER MULTIVARIABEL DALAM REGRESI NONPARAMETRIK (Studi Kasus : Model Rata-Rata Lama Sekolah di Provinsi Jawa Tengah)
ALI AKBAR SANJAYA ILHAM PURNOMO NRP. 1314201701 DOSEN PEMBIMBING : Prof. Dr. Drs. I Nyoman Budiantara, M.Si Dr. Bambang Widjanarko Otok, M.Si.
PROGRAM MAGISTER
JURUSAN STATISTIKA
FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM
INSTITUT TEKNOLOGI SEPULUH NOPEMBER
SURABAYA
2016
TESIS - SS14 2501 SS14 2501
MIXED ESTIMATOR OF KERNEL AND MULTIVARIABEL LINIER SPLINE TRUNCATED IN NONPARAMETRIC REGRESSION (Case Study : Mean Years of Scholling Model in Central Java Province)
ALI AKBAR SANJAYA ILHAM PURNOMO NRP. 1314201701 SUPERVISOR
Prof. Dr. Drs. I Nyoman Budiantara, M.Si.
Dr. Bambang Widjanarko Otok, M.Si.
MASTER PROGRAM
DEPARTMENT OF STATISTICS
FACULTY OF MATHEMATICS AND NATURAL SCIENCE
INSTITUTE OF TECHNOLOGY SEPULUH NOPEMBER
SURABAYA
2016
vii
DAFTAR ISI
Halaman
ABSTRAK i
ABSTRACT iii
KATA PENGANTAR v
DAFTAR ISI vii
DAFTAR TABEL ix
DAFTAR GAMBAR x
BAB 1. PENDAHULUAN 1
1.1 Latar Belakang 1
1.2 Perumusan Masalah 8
1.3 Tujuan Penelitian 8
1.4 Manfaat Penelitian 8
1.5 Batasan Permasalahan 9
BAB 2. TINJAUAN PUSTAKA 11
2.1 Pemodelan Regresi Parametrik dan Nonparametrik 11
2.2 Regresi Nonparametrik Spline Truncated 12
2.3 Regresi Nonparametrik Kernel 13
2.4. Estimator Campuran Spline dan Kernel 15
2.5 Teorema Dasar Terkait dengan Aljabar Matriks 19
2.6 Tinjauan Non Statistika 19
BAB 3. METODE PENELITIAN 23
3.1 3.1 Sumber Data 23
3.2 3.2 Variabel Penelitian 23
3.3 3.3 Definisi Operasional Variabel Penelitian 23
3.4 3.4 Tahapan Penelitian 26
BAB 4. HASIL DAN PEMBAHASAN 31
4.1 Bentuk Model Regresi Campuran Kernel dan Spline Truncated
Multivariabel
31
4.2 Estimasi Kurva Regresi Campuran Kernel dan Spline
Truncated Linier Multivariabel
33
viii
Halaman
4.3 Aplikasi pada Model Rata-rata Lama Sekolah di Provinsi Jawa
Tengah
39
4.3.1 Analisis Dekriptif 40
4.3.2 Model Regresi Campuran Kernel dan Spline
Truncated Linier Multivariabel
44
4.3.2.1 Pemilihan Titik Knot dan Bandwidth
Optimal dengan Satu Titik Knot
44
4.3.2.2 Pemilihan Titik Knot dan Bandwitdth
Optimal dengan Dua Titik Knot
45
4.3.2.3 Pemilihan Titik Knot dan Bandwitdth
Optimal dengan Tiga Titik Knot
47
4.3.3 Penaksiran Parameter Model Regresi Campuran
Kernel dan Spline Truncated Linier Multivariabel
49
BAB 5 KESIMPULAN DAN SARAN 53
5.1 Kesimpulan 53
5.2 Saran 55
DAFTAR PUSTAKA 57
LAMPIRAN 63
BIOGRAFI PENULIS 87
ix
DAFTAR TABEL
Tabel Judul Halaman
Tabel 3.1. Konversi Tahun Pendidikan Tertinggi yang ditamatkan 24
Tabel 4.1 Statistik Deskriptif Variabel Respon dan Variabel Prediktor 40
Tabel 4.2 Nilai GCV dengan Satu Titik Knot 45
Tabel 4.3 Nilai GCV dengan Dua Titik Knot 46
Tabel 4.4 Nilai GCV dengan Tiga Titik Knot 47-48
Tabel 4.5 Perbandingan Nilai GCV Minimum 49
Tabel 4.6 Estimasi Parameter 50
x
DAFTAR GAMBAR
Gambar Judul Halaman
Gambar 2.1 Spline truncated dengan tiga titik knots
13
Gambar 2.2 Visualisasi fungsi kernel dengan berbagai besaran
bandwidth (Guidoum, 2015; data dari Olver et al.,
2010)
15
Gambar 3.1 Langkah-langkah Tahapan Analisis untuk Tujuan
Pertama
29
Gambar 3.2 Langkah-langkah Tahapan Analisis untuk Tujuan
Kedua
30
Gambar 4.1 Scatter Plot antara Rata-rata Lama Sekolah (Y)
dengan Rata-rata Pengeluaran perkapita (X1).
41
Gambar 4.2 Scatter Plot antara Rata-rata Lama Sekolah (Y)
dengan Pesentase Pengeluaran Pemerintah Daerah
(APBD) di Bidang Pendidikan (X2).
41
Gambar 4.3 Scatter Plot antara Rata-rata Lama Sekolah (Y)
dengan Rasio Jumlah Murid dengan jumlah Sekolah
tingkat SLTA (X3).
42
Gambar 4.4 Scatter Plot antara Rata-rata Lama Sekolah (Y)
dengan Rasio Jumlah Murid dengan jumlah Guru
tingkat SLTA (X4).
42
Gambar 4.5 Scatter Plot antara Rata-rata Lama Sekolah (Y)
dengan Rata-rata Anggota Rumah Tangga (t).
43
xi
DAFTAR LAMPIRAN
Tabel Judul Halaman
Lampiran 1. Data Regresi Campuran Kernel dan Spline Truncated Linier
Multivariabel 63
Lampiran 2 Program Regresi Campuran Kernel dan Spline Truncated
Linier Multivariabel 1 Titik Knot Menggunakan Software R
65
Lampiran 3 Program Regresi Campuran Kernel dan Spline Truncated
Linier Multivariabel 2 Titik Knot Menggunakan Software R
69
Lampiran 4 Program Regresi Campuran Kernel dan Spline Truncated
Linier Multivariabel 3 Titik Knot Menggunakan Software R
74
Lampiran 5 Output Hasil Program Regresi Campuran Kernel dan Spline
Truncated Linier Multivariabel 1 Titik Knot Menggunakan
Software R
79
Lampiran 6 Output Hasil Program Regresi Campuran Kernel dan Spline
Truncated Linier Multivariabel 2 Titik Knot Menggunakan
Software R
81
Lampiran 7 Output Hasil Program Regresi Campuran Kernel dan Spline
Truncated Linier Multivariabel 3 Titik Knot Menggunakan
Software R
83
v
KATA PENGANTAR
Alhamdulillah, puji syukur penulis panjatkan ke kehadirat Allah SWT,
atas segala limpahan rahmat dan kemurahan-Nya penulis dapat menyelesaikan
tesis dengan judul “Estimator Campuran Kernel dan Spline Truncated Linier
Multivariabel Dalam Regresi Nonparametrik (Studi Kasus : Model Rata-rata
Lama Sekolah di Provinsi Jawa Tengah)”.
Penyelesaian Tesis ini tak lepas dari peranan, dukungan dan motivasi
berbagai pihak. Oleh karena itu pada kesempatan ini penulis ingin menyampaikan
terima kasih yang sedalam-dalamnya secara khusus kepada istriku yang sholehah :
Dewi Yanti, beserta tiga cahaya dan penyejuk hati kami: Adam Surya Permana,
Adinda Alya Putri dan Dimas Muhammad Ilham, terima kasih atas kasih sayang,
doa, perhatian dan semangat yang selalu mencerahkan hati penulis. Ibunda di Solo
dan kedua mertua di Buntok yang sangat saya cintai dan hormati. Terima kasih
atas segala cinta, pendidikan, doa dan motivasi yang tiada henti. Selanjutnya
penulis ingin menyampaikan rasa terimakasih kepada :
1. Bapak Prof. Drs. Nur Iriawan, M.Ikom., Ph.D selaku dosen wali selama
penulis menempuh pendidikan pasca sarjana di ITS.
2. Bapak Prof. Dr. Drs. I Nyoman Budiantara, M.Si dan Bapak Dr. Bambang
Widjanarko Otok, M.Si. selaku dosen pembimbing atas motivasi dan
kesabarannya dalam mengarahkan penulis dalam menyelesaikan tesis ini.
3. Ibu Dr. Vita Ratnasari, M.Si., Bapak Dr. Sutikno, M.Si dan Ibu Dr. Erni Tri
Astuti, M.Math selaku dosen penguji yang telah memberikan banyak saran
dan masukan terhadap tesis ini.
4. Bapak Dr. Suhartono, M.Sc, selaku ketua Jurusan Statistika FMIPA ITS, atas
segala kemudahan urusan akademis dan fasilitas yang menunjang di Jurusan
Statistika ini.
5. Segenap Staf Pengajar dan Pegawai di Jurusan Statistika dan Matematika
FMIPA ITS, spesial thanks buat Pak Irul atas pelayanannya yang tulus dan
ramah.
vi
6. Bapak Kepala Badan Pusat Statistik (BPS) RI beserta seluruh jajarannya, atas
kesempatan yang diberikan kepada penulis untuk melanjutkan pendidikan.
7. Bapak Kepala BPS Provinsi Kalimantan Tengah, atas ijin dan kesempatan
yang diberikan kepada penulis untuk melanjutkan studi.
8. Rekan-rekan senasib seperjuangan (Postgraduate BPS angkatan ke-8), atas
kekompakan, kerjasama dan kenangan suka duka selama menyelesaikan
studi. Masuk bareng, keluar bareng.
9. Penghuni MABES, Mas Duto, Mas Henry, Uda Rory and Mas Aan, atas
kekeluargaan yang dijalin selama kita di Surabaya.
10. Penghuni Classic, Mas Muryanto, Mas arip and Daeng Zablin.
11. Penghuni Mabes Cewek, Eunike, Widi, Santi, Yanti, Yani, Dian n Mpih.
Share tugasnya jangan malam banget, sudah ngantuk nich..
12. Bu bendahara Afni, Maul, Anita juga Vivin.
13. Mas Fatih, selamat atas kelahiran putri pertamanya menjelang sidang tesis.
14. Rekan – rekan seperjuangan Tesis Regresi Nonparametrik, Rory, Rismal dan
Sulis , atas ketulusan, motivasi dan kesiapan membantu penulis.
15. Dik Irwan dan adik-adik S1, atas bantuan dan diskusinya selama penyusunan
tesis ini.
16. Rekan-rekan Angkatan 9, atas dukungan selama Seminar proposal dan
Seminar hasil.
17. Semua pihak yang telah membantu selama penulis menyelesaikan studi, yang
tidak dapat penulis sampaikan satu persatu.
Semoga tesis ini dapat bermanfaat dan dapat menambah wawasan
keilmuan. Penulis menyadari bahwa tesis ini masih jauh dari sempurna. Saran dan
kritik yang membangun dari semua pihak, sangat penulis harapkan untuk
perbaikan.
Surabaya, Januari 2016
Penulis
i
ESTIMATOR CAMPURAN KERNEL DAN SPLINE
TRUNCATED LINIER MULTIVARIABEL DALAM REGRESI
NONPARAMETRIK (Studi Kasus : Model Rata-Rata Lama Sekolah di Provinsi Jawa Tengah)
Nama Mahasiswa : Ali Akbar Sanjaya Ilham Purnomo NRP : 1314201701 Pembimbing 1 : Prof. Dr. Drs. I Nyoman Budiantara, M.Si Pembimbing 2 : Dr. Bambang Widjanarko Otok, M.Si
ABSTRAK
Hubungan variabel respon dengan beberapa variabel prediktor pada regresi nonparametrik tidak selalu menggunakan satu jenis pendekatan seperti spline, kernel, atau deret fourier. Dalam model regresi memungkinkan variabel respon mengikuti kurva regresi nonparametrik yang berbeda antara satu variabel prediktor dengan variabel prediktor lainnya. Pada data berpasangan (x1i,..xpi,ti,yi) yang hubungan antar variabel prediktor x1i,..xpi, ti, dan variabel respon yi mengikuti model regresi nonparametrik additif:
11
,..., , ,q
i i qi i i pi i ip
y x x t f x g t
i = 1,2,…,n
Komponen prediktor x1i,..xqi, dihampiri dengan fungsi Spline truncated linier sedangkan komponen prediktor ti dihampiri dengan fungsi kernel. Tujuan penelitian ini adalah mencari bentuk estimator campuran kernel dan spline truncated linier multivariabel untuk mengestimasi kurva regresi nonparametrik. Penurunan estimator model dengan menggunakan metode Ordinary Least Square (OLS). Hasil estimator yang diperoleh adalah :
1
( ) ,q
p pip
x
Af y
,ˆ t Dg y
1
ˆ ˆˆ( , )q
i i p pi ip
t x t
x f g
Estimator campuran kernel dan regresi spline truncated linier multivariabel bergantung pada titik-titik knot dan bandwidth. Estimator campuran kernel dan regresi spline multivariabel terbaik diperoleh dari titik-titik knot dan parameter bandwidth yang optimal. Estimator Campuran Kernel dan regresi Spline truncated multivariabel diaplikasikan pada data Rata-Rata Lama Sekolah di Propinsi Jawa Tengah dengan dua titik knot optimal menghasilkan nilai R2 sebesar 0,909313.
Kata kunci: Regresi Nonparametrik, Estimator campuran, Spline, Kernel, Rata-
Rata Lama sekolah
ii
“Halaman ini sengaja dikosongkan”
iii
MIXED ESTIMATOR OF KERNEL AND
MULTIVARIABLE LINEAR SPLINE TRUNCATED
IN NONPARAMETRIC REGRESSION (Case Study : Mean Years of Schooling Model In Central Java Province)
By : Ali Akbar Sanjaya Ilham Purnomo Student Identity Number : 1314201701 Supervisor : Prof. Dr. Drs. I Nyoman Budiantara, M.Si Co Supervisor : Dr. Bambang Widjanarko Otok, M.Si
ABSTRACT
The relationship of respond variable with some predictor variables is not always using only single approach such as spline, kernel or Fourier series. In the regression model allows the response variable to follow different nonparametric regression curve between the predictor variables and other predictor variables. Data given in pairs ( x1i , .. xqi , ti , yi ) the relationship between the predictor variables x1i , .. xqi , ti , and the response variable yi follow additive nonparametric regression model :
11
,..., , ,q
i i qi i i pi i ip
y x x t f x g t
i = 1,2,…,n
Predictor component , x1i .. xqi , approached using Spline Functions linear predictor component while ti approached by the kernel function . This research was conducted with the purpose of seeking estimator truncated form of linear spline and kernel to estimate the nonparametric regression curve. Estimator models obtained using Ordinary Least Square method ( OLS ) . The Estimator regression curves are :
1
( ) ,q
p pip
x
Af y
,ˆ t Dg y
1
ˆ ˆˆ( , )q
i i p pi ip
t x t
x f g
Mixed Estimator Kernel and multivariable Linier Spline Truncated rely heavily on points knots and bandwidth. Mixed Estimator Kernel and multivariable Linier Spline Truncated is the finest in determining optimal point’s knots and bandwidth. Mixed Estimator Kernel and multivariable Linier Spline Truncated application in Mean Years of Schooling Model Central Java Province have R-Square 0,909313. Key words : Nonparametric regression, Spline, Mixed Estimator, Kernel,
Mean Years of Scholling
iv
“Halaman ini sengaja dikosongkan”
1
BAB 1
PENDAHULUAN
1.1 Latar Belakang
Dalam beberapa masalah terdapat dua atau lebih variabel yang
hubungannya tidak dapat dipisahkan, maka hal tersebut biasanya akan diselidiki
sifat hubungannya. Analisis Regresi adalah sebuah teknik statistik untuk membuat
model dan menyelidiki hubungan antara dua variabel atau lebih. Misalnya Y
adalah variabel respon dan X adalah variabel prediktor, untuk n buah pengamatan,
secara umum antara yi dengan xi dihubungkan dengan model regresi berikut :
yi= f (xi) + εi, i = 1, ..., n (1.1)
dimana εi adalah error random dan f (xi) merupakan suatu fungsi f yang tidak
diketahui dan disebut kurva regresi. Jika kurva regresi diketahui bentuknya, maka
disebut sebagai regresi parametrik dan apabila model yang diasumsikan ini benar,
maka pendekatan regresi parametrik sangat efisien, tetapi jika tidak, menyebabkan
interpretasi data yang menyesatkan (Hardle,1990). Apabila tidak ada informasi
apapun tentang bentuk kurva f(xi), maka pendekatan yang digunakan adalah
regresi nonparametrik. Dalam regresi parametrik terdapat asumsi yang sangat
kaku dan kuat, yaitu bentuk kurva regresi diketahui, misalnya linear, kuadratik,
kubik, polinomial derajat-p, eksponen, dan lain-lain. Untuk memodelkan data
menggunakan regresi parametrik linear, kuadrat, kubik atau yang lain, umumnya
dimulai dengan membuat scatter plot (Budiantara, 2006). Apabila scatter plot ini
terdapat kecenderungan data mengikuti pola linear maka digunakan model regresi
(parametrik) linear, sebaliknya jika scatter plot data terdapat kecenderungan pola
kuadratik maka digunakan model regresi (parametrik) kuadratik, dan seterusnya.
Disamping memperhatikan pola kecenderungan data melalui scatter plot, dalam
regresi parametrik harus memiliki informasi masa lalu yang detail tentang pola
data agar diperoleh pemodelan yang baik (Wahba, 1990; Eubank, 1999; Kayri &
Zirhhoglu, 2009; Budiantara, 2009). Pendekatan regresi parametrik memiliki sifat
yang sangat baik dari pandangan Statistika inferensi (Budiantara, 2009), seperti
sederhana, mudah interpretasinya, parsimoni, estimatornya tidak bias, tergolong
2
estimator linear, efisien, konsisten, BLUE (Best Linear Unbiased Estimator), yang
sangat jarang dimiliki oleh pendekatan regresi lain seperti regresi nonparametrik
dan regresi semiparametrik. Kelebihan yang dimiliki oleh regresi parametrik
inilah yang menyebabkan model regresi parametrik sangat populer dan sangat
disukai oleh berbagai kalangan, baik dari golongan Statistika teoritis maupun
golongan Statistika aplikasi (Becher, dkk., 2009; Huang & Liu, 2006).
Pendekatan regresi parametrik untuk tujuan pemodelan dan prediksi tidak
tepat pada suatu variabel respon dan variabel prediktor yang bentuk pola
hubungannya tidak jelas (tidak mengikuti pola tertentu), dan seolah-olah tidak
beraturan (Budiantara, 2009). Model Statistika diharapkan sedapat mungkin
menggunakan model yang parsimoni (sederhana), tetapi dalam keadaan dimana
terdapat kondisi yang mengharuskan pemodelan menggunakan model yang lebih
kompleks, maka model parsimoni tidak selayaknya dipaksakan, karena hasil yang
diperoleh akan sangat bias dan memiliki error yang sangat besar (Budiantara,
2009). Berbeda dengan regresi parametrik yang cenderung ada unsur pemaksaan
dari peneliti dan peneliti ikut menentukan bentuk estimasi dari kurva regresi,
dalam regresi nonparametrik tidak terjadi pemaksaan bentuk kurva regresi
tersebut. Pendekatan regresi nonparametrik membiarkan data sendiri yang akan
mencari bentuk estimasi dari kurva regresinya, tanpa harus dipengaruhi oleh
faktor subyektifitas peneliti (Eubank, 1988; Budiantara, 2001). Ini berarti
pendekatan model regresi nonparametrik sangat fleksibel dan obyektif.
Ada banyak jenis estimator dalam model regresi nonparametrik, seperti
kernel, spline, polinomial lokal, wavelet dan deret fourier. Beberapa penelitian
mengenai estimator kernel telah dilakukan oleh banyak peneliti seperti oleh
Nadaraya (1964), Watson (1964), Hadijati, (2004), Yao (2007), Okumura dan
Naito (2006), Budiantara dan Mulianah, (2007) serta Kayri dan Zirhlioglu (2009),
Du, Parmeter dan Racine (2012), Aljuhani dan Al Turk (2014). Penelitian
mengenai estimator spline telah dilakukan oleh peneliti lain seperti Craven dan
Wahba (1979), Wahba (1990), Eubank (1999), Otok (2006), Budiantara, Lestari
dan Islamiyati (2010), Budiantara, Ratna, Zain dan Wibowo (2012), serta
Darmawi dan Otok (2014). Penelitian tentang estimator polinomial lokal
dilakukan oleh Welsh dan Yee (2006), Su dan Ullah (2008), He dan Huang
3
(2009), Martins-Filho dan Yao (2009) serta Qingguo (2010). Penelitian mengenai
estimator wavelet antara lain dilakukan oleh Antoniadis, Bigot dan Sapatinas
(2001), Amato dan De Canditiis (2001), Rakotomamonjy, Mary dan Canu (2005)
serta Taylor (2009). Penelitian untuk estimator deret fourier dilakukan oleh
peneliti antara lain Faber, Douglas, Susan dan Stuart (2004), Tripena dan
Budiantara (2007), Galtchouk dan Pergamenshchikov (2009) serta Ratnasari,
Budiantara, Zain, Ratna dan Mariati (2015)
Kernel merupakan estimator yang pada awalnya banyak digunakan
dalam regresi nonparametrik. Kelompok peneliti pertama yang meneliti kernel
diawali oleh Nadaraya (1964) dan Watson (1964). Kemudian diikuti penelitian
lain dalam perkembangan regresi kernel, seperti Okumura dan Naito (2006) yang
meneliti Metode smoothing kernel untuk regresi multinomial. Yao (2007) yang
dalam penelitiannya telah menurunkan distribusi asimtotik dari distribusi kernel
dengan menggunakan rata-rata terbobot untuk data longitudinal. Ada juga
penelitian tentang estimator kernel untk melihat hubungan antara tingkat
ketergantungan internet dengan lama-nya penggunaan internet setiap hari di
sekolah menengah oleh Kayri dan Zirhlioglu (2009). Peneliti lain, Aljuhani dan
Al Turk (2014) yang melakukan penelitian modifikasi estimasi regresi kernel
adaptif Nadaraya-Watson.
Spline pertama kali diperkenalkan oleh Whitaker pada tahun 1923
sebagai pendekatan pola data. Spline yang didasarkan pada suatu persoalan
optimasi dikembangkan oleh Reinsc pada tahun 1967 (Wahba, 1990). Pendekatan
spline mempunyai suatu basis fungsi, yang biasa digunakan adalah spline
truncated dan B-Spline. Spline truncated merupakan fungsi dimana terdapat
perubahan pola perilaku kurva yang berbeda pada interval-interval yang berbeda.
Kelebihan spline truncated adalah dapat menggambarkan perubahan pola perilaku
dari fungsi pada sub interval tertentu. Kelebihan Spline (Eubank, 1988;
Budiantara, 2009; Wu dan Zhang, 2006) adalah Spline memiliki interpretasi
Statistik dan interpretasi visual yang sangat khusus dan sangat baik. Model Spline
diperoleh dari optimasi Penalized Least Square (PLS). Spline memiliki
fleksibelitas yang tinggi. Spline mampu menangani data/fungsi yang mulus
(smooth). Spline memiliki kemampuan yang sangat baik untuk menangani data
4
yang perilakunya berubah-ubah pada sub-sub interval tertentu. Spline mempunyai
kemampuan yang sangat baik untuk digeneralisasikan pada pemodelan Statistika
yang kompleks dan rumit. Kelebihan lain dari spline truncated pada penelitian
Otok (2006) menunjukkan kurva spline truncated lebih baik dari Multivariate
Adaptive Regression Spline (MARS) pada fungsi yang melibatkan satu variabel
prediktor. Budiantara dkk (2012) Memodelkan Persentase Penduduk Miskin di
Indonesia dengan menggunakan Pendekatan Regresi Nonparametrik Spline.
Darmawi dan Otok (2014) dalam penelitiannya menyimpulkan nilai MSE pada
kurva Spline truncated lebih kecil dibanding dengan regresi linier pada semua
fungsi, hal ini berarti bahwa kurva spline truncated lebih baik dibanding dengan
regresi linier.
Estimator lain dalam regesi nonparametrik yang juga digunakan adalah
polinomial lokal. Beberapa penelitian tentang polinomial lokal dilakukan oleh
Welsh dan Yee (2006) yang menurukan sifat bias dan varians asimtotik dari
estimator polinomial lokal tersebut dalam regresi nonparametrik dengan variabel
respon lebih dari satu. Penelitian dilakukan di New Zealand dengan menggunakan
variabel respon tekanan darah systolic dan diastolic untuk mengukur tingkat
kegemukan buruh dan body mass index (BMI) sebagai variabel prediktor.
Pendekatan lain adalah wavelet yang juga sering digunakan dalam regresi
nonparametrik. Penelitian antara lain dilakukan oleh Antoniadis dkk (2001) yang
mengkaji metode wavelet untuk memodelkan observasi dari suatu signal
terkontaminasi gangguan yang berdistribusi Gauss dan bersifat aditif. Peneliti lain
Rakotomamonjy (2005) yang menunjukkan evektivitas model kernel wavelet pada
metode yang mengkonstruksi pada suatu ruang Hilbert untuk regresi
nonparametrik ketika titik-titi sampelnya tidak sama lebar.
Model regresi nonparametrik lain adalah deret fourier. Peneliti yang
menggunakan deret fourier antara lain Oirrak (2001) yang menyatakan bahwa
deret foureir memberikan estimasi secara menyeluruh dalam ruang dimensi dua
dan bergerak perlahan. Kemudian, Amato, Antoniadis dan Feis (2002)
menunjukan bahwa estimator deret fourier memberikan optimasi terbaik antara
ketepatan dan biaya komputasi dalam model regresi nonparametrik aditif.
Ratnasari, dkk (2015) dalam penelitian yang diaplikasikan dalam Data
5
Kemiskinan di Papua menyimpulkan spline truncated lebih baik daripada deret
fourier dalam model regresi nonparametrik multivariabel.
Diantara model-model regresi nonparametrik di atas, spline truncated
merupakan salah satu model yang mempunyai model interpretasi statistik dan
interpretasi visual sangat khusus dan sangat baik (Budiantara dkk, 2012).
Estimator spline truncated memiliki fleksibilitas yang tinggi (Eubank, 1988).
Spline truncated juga memiliki kemampuan yang sangata baik menangani data
yang perilakunya berubah-ubah pada sub-sub nterval tertentu (Eubank, 1988;
Budiantara dkk, 2012). Estimator Kernel juga memiliki beberapa kelebihan,
diantaranya estimator kernel memiliki kemampuan yang baik untuk memodelkan
data yang tidak mempunyai pola tertentu (Hardle, 1990). Estimator Kernel juga
memiliki kecepatan kekonvergenan yang relatif lebih cepat dibandingkan dengan
kurva regresi nonparamerik yang lain seperti Polinomial Lokal, Deret Fourier
maupun Spline (Hardle, 1990).
Model-model pendekatan regresi nonparametrik yang dikembangkan
oleh penelitian sebelumnya, pada dasarnya terdapat dua asumsi yang yang sangat
berat dan mendasar pada modelnya, yaitu pola dari masing-masing prediktor
dalam model regresi nonparametrik multivariabel prediktor dianggap mempunyai
pola yang sama dan peneliti memaksakan menggunakan satu bentuk estimator
model untuk setiap variabel prediktor. Dua asumsi yang digunakan dalam model
regresi nonparametrik ini pada dasarnya hanya ada secara teoritis. Pada penelitian
sebenarnya sering dijumpai kasus-kasus dimana terjadi pola data yang berbeda
dari masing-masing variabel prediktor. Selain itu dengan hanya menggunakan
satu bentuk estimator dalam mengestimasi kurva regresi nonparametrik
multivariabel, berakibat estimator yang diperoleh tidak akan sesuai dengan pola
data. Akibatnya, estimasi model regresi yang diperoleh tidak tepat dan cenderung
mempunyai error yang besar (Budiantara, Ratnasari, Ratna dan Zain, 2015).
Berdasarkan hasil-hasil penelitian diatas, Budiantara dkk. (2015) menyarankan
penggunaan estimasi model kurva regresi yang sesuai dengan pola data. Dalam
penelitian ini merujuk pada pengunaan model estimator campuran kernel dan
regresi spline truncated linier multivariabel dalam regresi nonparametrik. Peneliti
lain yang melakukan penelitian estimasi model kurva regresi yang sesuai dengan
6
pola data juga dilakukan oleh Sudiarsa, Budiantara, Suhartono dan Purnami
(2015) yang melakukan penelitian mengenai Estimator Gabungan Deret Fourier
dan Truncated Spline dalam Regresi Nonparametrik Multivariabel. Dalam
penelitia itu, estimator diperoleh melalui optimasi Penalized Least Square (PLS).
Pembangunan manusia merupakan perwujudan tujuan jangka panjang
dari suatu masyarakat, dan meletakan pembangunan di sekeliling manusia, bukan
manusia di sekeliling pembangunan. Penyertaan konsep pembangunan manusia
dalam kebijakan pembangunan tidak berarti meninggalkan berbagai strategi
pembangunan terdahulu, antara lain mempercepat pertumbuhan ekonomi,
mengurangi kemiskinan dan mencegah perusakan lingkungan. Perbedaannya
adalah bahwa dari sudut pandang pembangunan manusia, semua tujuan tersebut
diatas diletakan dalam kerangka untuk memperluas pilihan-pilihan bagi manusia.
Human Development Report (HDR) global telah mengembangkan dan
menyempurnakan pengukuran statistik dari pembangunan manusia yaitu berupa
Indeks Pembangunan Manusia (IPM). Indikator tersebut melihat tiga masalah
pokok yang menjadi ukuran yaitu kesehatan melalui angka harapan hidup,
pendidikan serta pendapatan melalui paritas daya beli. United Nations
Development Programme (UNDP), pada Tahun 2014 melaporkan peringkat
Indeks Pembangunan Manusia (IPM) Indonesia berada di posisi 108 dari 187
negara yang laporkan (UNDP Report, 2014). Peringkat Indonesia secara regional
masih lebih baik dari Filipina yang berada di peringkat 117 dimana keduanya
masuk kelompok Medium Human Development tetapi masih di bawah empat
negara ASEAN lainnya. Dimana Singapura di posisi tertinggi di peringkat 9,
Brunei Darussalam berada di peringkat 30 yang menempatkan kedua Negara
tersebut termasuk kelompok Very High Human Development, kemudian Malaysia
berada di peringkat 62, Thailand berada di peringkat 89 termasuk kelompok High
Human Development.
Menurut publikasi BPS tahun 2013, Untuk tingkat nasional, IPM
tertinggi dicapai DKI Jakarta dengan nilai 78,59 dan terendah Propinsi Papuan
dengan nilai 66,25. Di Pulau Jawa setelah DKI Jakarta ditempati oleh DI
Yogyakarta dengan nilai 77,37, lalu Propinsi Jawa Tengah sebesar 74,05,
7
kemudian Propinsi Jawa Barat dengan nilai 73,58, Propinsi Jawa Timur dengan
nilai 73,54 dan Terakhir Propinsi Banten dengan nilai 71,90.
Rata-rata lama sekolah penduduk usia 15 tahun keatas merupakan salah
satu variabel yang digunakan pada penghitungan IPM selain angka harapan hidup,
pengeluaran perkapita dan angka melek huruf. Menurut publikasi BPS pada tahun
2013, Provinsi Jawa Tengah memiliki nilai rata-rata lama sekolah penduduk usia
15 tahun keatas yang terendah dibandingkan provinsi lain di Pulau Jawa.
Tertinggi ditempati DKI Jakarta dengan rata-rata lama sekolah sebesar 11 tahun,
diikuti D.I Yogyakarta sebesar 9,33 tahun, Banten 8,61 tahun, Jawa Barat 8,11
tahun, Jawa Timur 7,53 tahun dan terakhir Jawa Tengah sebesar 7,43 tahun. Perlu
kerja keras pemerintah Propinsi Jawa Tengah untuk mengejar ketertinggalannya
dari propinsi lain apalagi untuk memenuhi standar rata-rata lama sekolah yang
disarankan UNDP sebesar 15 tahun.
Penelitian mengenai lama pendidikan penah sering dilakukan diberbagai
Negara. Penelitian di Republik Rakyat Tiongkok pernah dilakukan Connely dan
Zhang (2002) mengenai penentuan kelanjutan sekolah penduduk umur 10 hingga
18 tahun. Penelitian tersebut menyimpulkan lokasi tempat tinggal dan jenis
kelamin sangat mempengaruhi dalam pendaftaran dan kelulusan sekolah.
Perempuan pedesaan cenderung kurang beruntung dalam kelanjutan sekolahnya.
Pendidikan orang tua, jumlah saudara (jumlah anggota kelurga), Produk Domestik
Regional Bruto (PDRB) dan biaya sekolah juga sangat berpengaruh dalam
kelanjutan pendidikan penduduk. Huisman, Rani dan Smits (2010) dalam
penelitiannya di 26 negara bagian India mengungkapkan bahwa faktor sosial
rumah tangga sangat berpengaruh dalam mengenyam pendidikan. Katersediaan
fasilitas sekolah dan guru juga sangat memegang peran penting. Anak-anak
perempuan terutama di pedesaan lebih tertinggal dalam partisipasi pendidikan.
Penelitian capaian rata-rata lama sekolah di dalam negeri pernah
dilakukan Solikhah (2009) mengenai Analisis Rata-rata Lama sekolah di Pulau
Kalimantan dengan menggunakan metode Spatial Conditional Autoregrresion.
Dimana dalam penelitian iti, faktor-faktor yang mempengaruhi rata-rata lama
sekolah bila variabel lain dianggap konstan adalah persentase penduduk muda,
rasio murid dan guru SLTA, rasio murid dan guru SLTP, rasio jenis kelamin,
8
persentase desa/kelurahan yang memiliki SLTP, persentase desa/kelurahan yang
memiliki SLTA, persentase penduduk perkotaan, persentase kecamatan yang
memiliki perguruan tinggi, kontribusi sektor non pertanian dalam PDRB dan rata-
rata pendapatan perkapita 1 bulan.
1.2 Perumusan Masalah
Dengan memperhatikan latar belakang yang telah diuraikan diatas,
permasalahan yang dapat dirumuskan adalah :
1. Bagaimana bentuk Estimator Campuran Kernel dan Spline Truncated Linier
Multivariabel dalam regresi nonparametrik aditif ?
2. Bagaimana model Rata-Rata Lama Sekolah di Provinsi Jawa Tengah
menggunakan Estimator Campuran Kernel dan Spline Truncated Linier
Multivariabel dalam regresi nonparametrik aditif.
1.3 Tujuan Penelitian
1. Mendapatkan bentuk Estimator Campuran Kernel dan Spline Truncated Linier
Multivariabel dalam regresi nonparametrik aditif.
2. Memodelkan Rata-Rata Lama Sekolah penduduk di Provinsi Jawa Tengah
menggunakan Estimator Campuran Kernel dan Spline Truncated Linier
Multivariabel dalam regresi nonparametrik aditif.
1.4 Manfaat Penelitian
Manfaat yang ingin dicapai dari penelitian ini adalah :
1. Mengembangkan wawasan keilmuan dan pengetahuan tentang regresi
nonparametrik spline truncated.
2. Mengembangkan wawasan keilmuan dan pengetahuan tentang regresi
nonparametrik kernel.
3. Mengembangkan wawasan keilmuan dan pengetahuan tentang Estimator
Campuran Kernel dan Spline Truncated Linier Multivariabel dalam regresi
nonparametrik aditif.
4. Model Rata-Rata Lama Sekolah penduduk di Provinsi Jawa Tengah
menggunakan Estimator Campuran Kernel dan Spline Truncated Linier
9
Multivariabel dalam regresi nonparametrik aditif dapat digunakan untuk
memprediksi target rata-rata lama sekolah akibat dari perubahan pada masing-
masing variabel prediktor yang mempengaruhi.
1.5 Batasan Masalah Penelitian
Batasan permasalahan pada penelitian ini untuk pembentukan model
Estimator Campuran Kernel dan Spline Truncated Linier Multivariabel dalam
regresi nonparametrik yang bersifat additif. Satu variabel prediktor mengikuti
fungsi kernel dan variabel prediktor lainnya mengikuti kurva spline. Penggunaan
titik knot optimal diasumsikan sama untuk setiap variabel prediktor yang didekati
dengan kurva regresi spline dibatasi sampai maksimal tiga titik knot. Untuk
mendapatkan estimator kurva regresi menggunakan optimasi Ordinary Least
Square (OLS). Data yang digunakan adalah data sekunder hasil publikasi BPS
Pusat dan BPS Propinsi Jawa Tengah serta data dari Direktorat Jenderal
Perimbangan Keuangan (DJPK) Kementrian Keuangan Republik Indonesia Tahun
2014.
10
“Halaman ini sengaja dikosongkan”
11
BAB 2
TINJAUAN PUSTAKA
2.1 Pemodelan Regresi Parametrik dan Nonparametrik
Pemodelan regresi parametrik digunakan apabila kurva regresi data
membentuk pola tertentu, seperti linier, kuadratik ataupun kubik. Model regresi
parametrik dalam penggunaanya memerlukan informasi dari masa lalu atau
sumber informasi lain yang tersedia yang dapat menggambarkan secara detail
tentang data tersebut. Model regresi parametrik juga mempunyai asumsi yaitu
bentuk kurva regresi harus diketahui (Eubank, 1999). Metode untuk mengestimasi
parameter adalah metode Least Square dan Maximum Likelihood (Wahba, 1990).
Pada umumnya, variabel respon y dapat dihubungkan dengan k variabel-variabel
prediktor. Model tersebut dalam bentuk (Montgomery & Hines, 1972)
0 1 1 2 2 , 1,2,...,i i i k ki iy x x x i n (2.1)
dimana yi merupakan variabel respon, 1 2, ,..., kx x x sebagai variabel prediktor, i
merupakan error random independen berdistribusi normal dengan mean nol dan
varians 2 parameter 0 1 2, , ,..., k tidak diketahui.
Secara umum bentuk regresi parametrik multivariabel dengan k variabel
prediktor pada persamaan (2.1) dapat ditulis dalam bentuk matriks sebagai :
y X , dimana (2.2)
1
2
n
yy
y
y
11 12 1
21 22 2
1 2
11
1
k
k
n n nk
x x xx x x
x x x
X
0
1
k
dan
1
2
n
Pada umumnya, y adalah sebuah vektor (n x 1) dari observasi-observasi,
X adalah sebuah matriks (n x (k+1)) dari variabel-variabel bebas, adalah
sebuah vektor ((k+1)x1) dari koefisien-koefisien regresi dan adalah sebuah
vektor (nx1) dari error random. Parameter diestimasi dengan metode kuadrat
terkecil yang meminimumkan T dimana :
( ) ( )T T y X y X
12
Dengan menurunkan parsial T terhadap dan menyamakan dengan nol, maka
diperoleh estimator : 1ˆ ( )T T X X X y (2.3)
2.2 Regresi Nonparametrik Spline Truncated
Pendekatan regresi nonparametrik yang banyak digunakan adalah spline
truncated. Spline truncated merupakan potongan-potongan polinomial yang
memiliki sifat tersegmen dan kontinu. Salah satu kelebihan spline truncated
adalah model ini cenderung mencari sendiri estimasi data kemanapun pola data
tersebut bergerak. Kelebihan ini terjadi karena dalam spline truncated terdapat
titik-titik knot, yaitu titik perpaduan bersama yang menunjukkan terjadinya
perubahan pola perilaku data (Eubank, 1999; Budiantara, 2009). Secara umum,
fungsi spline truncated dengan derajad m dan titik-titik knot 1 2, ,..., r adalah
suatu fungsi yang dapat ditulis dalam bentuk sebagai berikut :
yi = f(xi) + εi, i= 1, 2, …., n. (2.4)
0 1
m r mjj i j i j i
j jx x
, i = 1, 2,…., n. (2.5)
dengan,
,,0
mm i ri r
i ri r
xxxx
Error random εi diasumsikan berdistribusi normal independen dengan mean nol
dan variansi 2 . Sebagai salah satu ilustrasi sederhana diberikan Spline linier
truncated dengan tiga knots pada 1 2 3x diberikan oleh : 1 1 1
3 1 1 1 2 2 3 3( ) ( ) ( ) ( )f x x x x x
Fungsi Spline 3( )f x disajikan (Budiantara, 2011) dalam bentuk (di gambar 2.1):
1 11
1 1 1 1 23 1 1
1 1 1 2 2 2 31 1 1
1 1 1 2 2 3 3 3
,( ) ,
( )( ) ( ) ,( ) ( ) ( ) ,
x xx x x
f xx x x xx x x x x
13
Gambar 2.1 Simulasi Spline truncated dengan tiga titik knots
Dalam regresi nonparametrik dengan pendekatan spline truncated, hal
penting yang berperan dalam mendapatkan estimator spline truncated adalah
pemilihan titik knot yang optimal. Salah satu metode yang sering digunakan
dalam memilih titik knot optimal adalah Generalized Cross Validation (GCV).
Jika dibandingkan dengan metode lain, misalnya Cross Validation (CV) dan
metode Unbiased Risk (UBR) ataupun Generalized Maximum Likelihood (GML),
GCV secara teoritis memiliki sifat optimal asymtotik. Metode GCV juga memiliki
kelebihan tidak memerlukan pengetahuan terhadap variansi populasi 2 serta
metode GCV invarians terhadap transformasi. Metode GCV merupakan
pengembangan dari CV (Wahba, 1990). Fungsi GCV untuk pemilihan titik knot
optimal dapat ditunjukkan dalam persamaan berikut:
1 2
1 2 211 2
, ,...,, ,...,
, ,...,r
r
r
MSEGCV
n trace I A
(2.6)
dengan
2
11 2
1
ˆ, ,...,n
r i ii
MSE n y f x
(2.7)
2.3 Regresi Nonparametrik Kernel
Estimator kernel mempunyai kelebihan yaitu fleksibel, bentuk
matematisnya mudah dan dapat mencapai tingkat kekonvergenan yang relative
14
cepat. Kurva regresi ( )ig t yang dihampiri fungsi kernel, estimasi kurva regresi
dapat disajikan dalam bentuk :
1 1
11 1
1
ˆn n
ii i in
i ij
j
K t tg t n y n W t y
n K t t
(2.8)
dimana :
1
1
1;i ii in
jj
K t t t tW t K t t Kn K t t
dengan K merupakan fungsi kernel. Menurut Hardle (1990), fungsi kernel K dapat
berupa :
- Kernel Gaussian : 2
[ , ]1( ) exp( ) ( )
22zK z I z
- Kernel Uniform : [ 1,1]( ) 0,5 ( )K z I z
- Kernel Epanicov : 2[ 1,1]( ) 0,75(1 ) ( )K z z I z
- Kernel Kuadrat : 2 2[ 1,1]
15( ) (1 ) ( )16
K z z I z
dimana , 1,2,...,ii
t tz i n
. t adalah variabel prediktor, ti adalah nilai
ke-i variabel prediktor dan adalah bandwidth . Pendekatan kernel tergantung
pada bandwidth , yang berfungsi untuk mengontrol smoothness dari kurva
estimasi. Pemilihan bandwitdh yang tepat merupakan hal yang sangat penting
dalam regresi kernel (Hadijati, 2004; Budiantara dan Mulianah, 2007). Bandwidth
yang terlalu besar akan menghasilkan kurva estimasi yang sangat smooth dan
menuju ke rata-rata dari variabel respon, sebaliknya bila bandwidth terlalu kecil
akan menghasilkan kurva estimasi yang kurang smooth yaitu hasil estimasi akan
menuju ke data. Visualisasi fungsi kernel dengan berbagai besaran bandwidth
ditunjukan pada gambar 2.2.
15
Gambar 2.2. Visualisasi fungsi kernel dengan berbagai besaran bandwidth
(Guidoum, 2015; data dari Olver et al., 2010)
Estimator kurva regresi (2.8) sangat tergantung pada dua hal, yaitu
parameter bandwidth dan fungsi kernelnya (Budiantara dkk, 2015), tetapi dari dua
hal tersebut ternyata bandwidth lebih signifikan pengaruhnya terhadap estimator
kernel dibanding fungsi kernel. Dalam kaitannya pemilihan bandwidth optimal,
akan digunakan metode Generalized Cross Validatian (GCV). Jika estimasi
model (2.8) dinyatakan dengan ˆ ( )t D y g maka Fungsi Generalized Cross
Validatian (GCV) dalam Hong (1999) didefinisikan dengan :
2 2
2 2
1 1( ( )) ( ( ))( ) 1 1[ (( ( ))] [(1 ( ))]
n nGCV ttr tr
n n
I D y I D y
I D D
(2.9)
Bandwith optimal diperoleh dengan cara meminimunkan fungsi GCV.
2.4 Estimator Campuran Spline dan Kernel
Budiantara dkk (2015) meneliti tentang model regresi nonparametrik
additif yang memiliki dua komponen variabel prediktor. Komponen prediktor
pertama, kurva regresinya dihampiri menggunakan regresi spline, sedang
komponen prediktor kedua kurva regresi dihampiri dengan regresi kernel. Data
16
berpasangan ( , , )i i ix t y dengan diasumsikan hubungan antar variabel prediktor
,i ix t dan variabel respon iy mengikuti model regresi nonparametrik :
( , )i i i iy x t , i=1,2,…,n (2.10)
Bentuk kurva regresi diasumsikan tidak diketahui dan hanya diasumsikan smooth
dalam arti kontinu dan differensiabel. Error random i berdistribusi normal
dengan mean nol dan 2 2( )iE . Selanjutnya kurva regesi ( , )i ix t diasumsikan
additif, dalam arti ( , )i ix t dapat ditulis dalam bentuk :
( , ) ( ) ( )i i i ix t f x g t (2.11)
Dengan ( )if x dan ( )ig t merupakan fungsi-fungsi yang smooth. Persoalan utama
dalam estimator campuran kurva regresi nonparametrik adalah mendapatkan
bentuk estimasi kurva regresi ( , )i ix t yaitu :
, ,ˆˆ ˆ( , ) ( ) ( )i i i ix t f x g t (2.12)
Parameter merupakan parameter bandwith dan merupakan titik knot.
Estimator campuran regresi spline dan kernel bisa didapatkan dengan kurva
regresi ( )if x dihampiri dengan fungsi spline truncated derajad m dan titik knot
1 2( , ,..., )Tr serta kurva regresi ( )ig t dihampiri dengan fungsi kernel.
Menurut Budiantara dkk (2015), kurva regresi ( )if x yang diberikan persamaan
(2.5) akan diperoleh :
1 2( ) X Xf (2.13)
dari Persamaan (2.8) yang berlaku untuk setiap t = t1, t =t2,…, t = tn maka :
11
1 1 11 1 1 1 1
1 1 12 2 1 2 1 2
1
1 11 1
1
1
ˆˆ
ˆ
n
i ii
n nn
i i n ni
n n n n nn
i n ii
n W t yg t n W t y n W t yg t n W t y n W t y n W t y
g t n W t y n W t yn W t y
17
1 1 111 1 2 1 1
1 1 121 2 2 2 2
1 1 11 2
n
n
nn n n n
yn W t n W t n W tyn W t n W t n W t
yn W t n W t n W t
D y,
sehingga
ˆ ( )t g D y (2.14)
dengan demikian model regresi campuran spline dan kernel persamaan (2.10)
menjadi :
[ ( ) ] ( ) 1 2
y X X D y
[ ( )] ( )
1 2
X X D y
( ) ( ) Z D y (2.15)
Estimator parameter dapat diperoleh dengan menggunakan metode Ordinary
Least Square (OLS) dari persamaan (2.15) diatas yang menghasilkan persamaan :
2
1/ ,
n
ii
Q
22 T TT T I D y Z I D Z Z y (2.16)
Untuk mendapatkan estimator dari parameter , dilakukan derivatif parsial dari
persamaan (2.16) / ,Q terhadap diperoleh :
1
ˆ T T
Z Z Z I D y (2.17)
Persamaan (2.17) dapat diringkas menjadi bentuk persamaan :
ˆ , C y (2.18)
dimana :
1T T
C Z Z Z I D
Sehingga didapatkan estimator kurva spline untuk ˆ ˆ,x t Zf diberikan
oleh persamaan :
18
,ˆ ˆ, , .x t Z f (2.19)
1T T
Z Z Z Z I D y
, A y (2.20)
dengan matrik A adalah :
1T T
A Z Z Z Z I D
kemudian dari persamaan (2.11) menunjukkan estimator persamaan kernel :
,ˆ t g D y
sehingga didapatkan estimator campuran regresi spline linier dan kernel :
,ˆ ˆˆ , ,x t x t t f g
, ( ) A y D y
( , ( )) A D y
( , )B y (2.21)
dimana matrik B adalah :
, , B A D
Estimator campuran regresi Spline dan Kernel ,ˆ ,x t sangat
bergantung kepada banyak dan letak titik knot 1 2( , ,..., )Tr dan parameter
bandwitdh . Untuk memperoleh estimator campuran regresi Spline dan Kernel
yang terbaik perlu dilakukan pemilihan titik knot dan parameter bandwidth yang
optimal. Metode yang biasa digunakan adalah Generalized Cross Validation
(GCV). Fungsi GCV yang diberikan oleh Wahba (1990) adalah :
1 2,
21
ˆ|| ( , ) ||,
, ( )
n x tGCV
n trace
y
I A D
(2.22)
Titik knot optimal 1( ) 2( ) ( )( , ,..., )Topt opt opt r opt dan parameter bandwidth
optimal opt diperoleh dari optimasi :
,( , ) { ( , )}opt optG Min G
(2.23)
Titik knot dan parameter bandwidth optimal diperoleh dari nilai GCV terkecil.
19
2.5 Teorema Dasar Terkait dengan Aljabar Matriks
Beberapa konsep dasar yang digunakan dalam proses mendapatkan
estimator model regresi nonparametrik kernel dan spline truncated linier
multivariabel berikut ini.
Teorema 2.5.1 (Rencher dan Schaalje 2008: 9, 13)
Pada matriks A dan B, maka berlaku sifat – sifat sebagai berikut :
a. Jika matriks A simetris, maka TA = A.
b. T T T A B A B
c. T T TAB B A
Teorema selanjutnya berkaitan dengan penurunan matriks dan vektor.
Teorema 2.5.2 (Rencher dan Schaalje 2008: 56)
Pada vektor a dan x , dimana T Ta x x a , 1 2, ,...,Tpa a aa
memuat konstanta,
dengan ini berlaku
T T
a
a x x a
x x
Teorema 2.5.3 (Rencher dan Schaalje 2008: 56)
Apabila vektor x dan merupakan suatu matriks simetri, maka
2
T
x AxAx
x
2.6. Rata-rata Lama Sekolah
Penelitian tentang pendidikan sudah sering dilakukan di Negara-negara
berkembang dengan tujuan untuk mendeteksi permasalahan dan mengembangkan
pembangunan faktor sumber daya manusia yang masih bisa dikatakan rendah jika
dibandingkan dengan negara-negara yang sudah maju, bahkan tidak jarang
digunakan untuk kepentingan evaluasi dari suatu program yang telah
dilaksanakan. Parikh dan Sadoulet (2005) menggunakan variabel umur, jenis
kelamin, jumlah anak, pendidikan orangtua, pekerjaan orang tua dan kemampuan
baca tulis orangtua dalam penelitiannya tentang partisipasi sekolah dan
bekerja anak di Brasil. Zhao dan Glewwe (2009) dalam penelitian di Propinsi
20
Gansu RRT, memperkirakan faktor yang mentukan lama sekolah dilihat dari
capaian gizi anak, yang diukur dari Z skor dan pendapatan rumah tangga memiliki
efek positif pada lama sekolah anak. Pendidikan ibu di Propinsi Gangsu juga
sangat mempengaruhi tingkat pendidikan anak-anaknya.
Dalam penelitian lain, Setyawan (2011) yang melakukan penelitian
tentang permodelan determinan tingkat pendidikan di Pulau Papua. Dimana dalam
penelitian tersebut didapatkan beberapa variabel yang berpengaruh secara
signifikan, diantaranya adalah angka harapan hidup, rata-rata pengeluaran rumah
tangga perbulan, banyaknya anggota rumah tangga, rasio jenis kelamin,
persentase ibu berpendidikan SLTA keatas, rasio murid dengan guru, rasio murid
dengan sekolah, persentase penduduk perkotaan, persentase penduduk yang
tinggal di pesisir dan persentase angaran pendidikan di APBD. Melliana (2013)
dalam penelitiannya menyebutkan bahwa rasio murid guru pada tingkat
SLTP/MTS memberikan pengaruh terhadap angka IPM di Provinsi Jawa Timur
dimana didalamnya terdapat ukuran tingkat pendidikan. Fasilitas pendidikan
merupakan aspek yang tidak bisa diabaikan dalam proses pendidikan khususnya
dalam proses belajar mengajar. Berdasarkan penelitian sebelumnya tersebut,
penelitian ini banyak mengadopsi variabel-variabel yang telah digunakan dalam
penelitian-penelitian yang telah disebutkan diatas. Sehinggah dalam penelitian ini
menggunakan variabel-variabel prediktor yaitu Rata-rata Pengeluaran Rumah
Tangga per Bulan, Rata-rata banyaknya anggota rumah tangga, Rasio jenis
kelamin, Rasio murid terhadap guru dan Rasio murid terhadap sekolah. Berikut
ini akan diuraikan konsep serta definisi dari variabel-variabel tersebut secara
terperinci.
Rata-rata Lama Sekolah
Rata-rata lama sekolah merupakan jumlah tahun belajar penduduk usia 25
tahun ke atas yang telah diselesaikan dalam pendidikan formal (tidak termasuk
tahun yang mengulang) (BPS, 2011). Rata-rata lama sekolah bermanfaat untuk
melihat kualitas penduduk dalam hal mengenyam pendidikan formal . Rata-rata
lama sekolah merupakan indikator yang telah ditetapkan oleh UNDP pada
tahun 1990 untuk penyusunan IPM. Angka lama sekolah dapat juga digunakan
untuk monitoring pelaksanaan Program Hak Belajar pendidikan dasar Sembilan
21
tahun yang dicanangkan oleh pemerintah. Artinya untuk melewati target
program tersebut maka angka lama sekolah harus sudah mencapai 9 tahun.
Rata-rata Pengeluaran Rumah Tangga per Kapita
Rata-rata Pengeluaran Rumah Tangga per kapita adalah biaya yang
dikeluarkan untuk konsumsi anggota rumah tangga selama sebulan dibagi dengan
banyaknya anggota rumah tangga merupakan gambaran tingkat kesejahteraan
yang dinikmati oleh penduduk sebagai dampak semakin membaiknya ekonomi
(BPS, 2011). Variabel rata-rata pengeluaran rumah tangga merupakan salah satu
variabel yang mempengaruhi rata-rata lama sekolah pada penelitian Setyawan
(2011)
Banyaknya Anggota Rumah Tangga
Pada beberapa kalangan masyarakat tertentu, seringkali banyaknya
anggota keluarga menjadi suatu bahan pertimbangan ketika harus memutuskan
anggota keluarga yang mana yang harus melanjutkan ke suatu jenjang pendidikan
yang lebih tinggi. Kesejahteraan yang masih rendah serta banyaknya jumlah
anggota keluarga memaksa mereka untuk menentukan pilihan. Sehingga tentu saja
ada anggota keluarga yang akhirnya harus dikorbankan untuk tidak mendapatkan
pendidikan yang seharusnya layak untuk diikutinya. Variabel ini merupakan
bentuk asimilasi dari variabel yang diteliti oleh Connely dan Zhang (2002) yaitu
Family Size atau banyaknya anggota keluarga.
Persentase Anggaran Pendidikan dari APBD
Persentase anggaran pendidikan merupakan alokasi anggaran pendidikan
dari total Anggaran Pendapatan dan Belanja Daerah (APBD) pada satu tahun
anggaran. Variabel persentase anggaran pendidikan dari Total APBD merupakan
variabel yang mempengaruhi rata-rata lama sekolah pada penelitian setyawan
(2011)
Rasio Murid dengan Sekolah
Rasio murid terhadap sekolah merupakan suatu ukuran terhadap
kecukupan fasilitas fisik untuk melakukan proses belajar dan mengajar. Semakin
banyak sekolah-sekolah yang dibangun akan memberikan peluang yang lebih
besar kepada penduduk usia sekolah untuk dapat mengenyam bangku pendidikan.
22
Penelitian Huisman, dkk (2010) menunjukkan peran kecukupan fasilitas sekolah
dalam peningkatan pendidikan.
Rasio Murid dengan Guru
Rasio murid terhadap guru ini merupakan rata-rata jumlah murid/ siswa
per guru di tingkat pendidikan tertentu pada ajaran tertentu (BPS, 2011). RMG
bermanfaat untuk mengambarkan beban kerja seorang guru dalam mengajar dan
untuk melihat mutu pengajaran di kelas. Semakin tinggi nilai rasionya, diduga
akan semakin berkurang pengawasan/ perhatian guru terhadap murid sehingga
kualitas pengajaran akan cenderung semakin rendah. Hal ini umumnya
diasumsikan bahwa rasio guru-murid yang rendah menandakan kelas yang lebih
kecil yang memungkinkan para guru untu lebih memperhatikan individu siswa,
yang memungkinkan dalam jangka panjang menghasilkan peforma yang lebih
baik dari murid. Melliana (2013) dalam penelitiannya menunjukkan bahwa rasio
murid guru memiliki pengaruh yang signifikan terhadap besaran angka IPM yang
dibentuk melalui beberapa komponen yang salah satunya adalah tingkat
pendidikan.
23
BAB 3
METODE PENELITIAN
3.1 Sumber Data
Penelitian ini menggunakan data sekunder dari publikasi yang diterbitkan
oleh BPS Provinsi Jawa Tengah dan Direktorat Jenderal Perimbangan Keuangan
(DJPK) Kementrian Keuangan Republik Indonesia Tahun 2014 dengan unit
observasi adalah seluruh Kabupaten/Kota yaitu sebanyak 35 Kabupaten/Kota di
Provinsi Jawa Tengah.
3.2 Variabel Penelitian
Berdasar pada latar belakang dan tujuan penelitian, terdapat satu variabel
respon dan lima variabel prediktor yang digunakan. Variabel-variabel tersebut
adalah sebagai berikut :
Variabel Respon Y : Rata-Rata Lama Sekolah
Variabel Prediktor
X1 : Pengeluaran Per kapita per bulan.
X2 : Persentase Anggaran Pendidikan di APBD.
X3 : Rasio jumlah murid dengan jumlah sekolah SLTA.
X4 : Rasio jumlah murid dengan jumlah guru SLTA.
t : Rata-rata banyaknya anggota rumah tangga.
Variabel respon dan prediktor akan diaplikasikan terhadap regresi
nonparametrik campuran dengan pendekatan kernel dan spline linier truncated
multivariabel.
3.3 Definisi Operasional Variabel Penelitian
Rata-Rata Lama Sekolah
Rata-rata lama sekolah merupakan jumlah tahun belajar yang telah
diselesaikan dalam pendidikan formal (tidak termasuk tahun yang mengulang)
(BPS, 2011). Untuk menghitung Rata-rata lama sekolah dibutuhkan informasi
tentang :
24
- Partisipasi sekolah
- Jenjang dan jenis pendidikan tertinggi yang pernah/ sedang diduduki.
- Ijasah tertinggi yang dimiliki
- Tingkat/ kelas tertingi yang pernah/ sedang diduduki.
Rumus rata-rata lama sekolah untuk yang partisipasi sekolahnya masih
bersekolah dan tidak bersekolah lagi namun tidak tamat adalah :
Rata-rata lama sekolah = tahun konversi + kelas tertinggi yang pernah
diduduki - 1
Rata-rata lama sekolah untuk yang partisipasi sekolahnya tidak bersekolah dan
tidak bersekolah lagi namun sudah tamat adalah :
Rata-rata lama sekolah = tahun konversi + kelas tertinggi yang pernah
diduduki - 1
Adapun tahun konversi pendidikan yang ditamatkan disajikan pada tabel
berikut ini :
Tabel 3.1. Konversi Tahun Pendidikan Tertinggi yang ditamatkan
No Pendidikan Tertinggi yang ditamatkan Konversi (tahun) 1 Tidak/belum pernah sekolah 0 2 SD dan setara 6 3 SLTP dan setara 9 4 SLTA dan setara 12 5 D-1 13 6 D-2 14 7 D-3 15 8 D-4/ S-1 16 9 S-2 18 10 S-3 21
Sumber: BPS (2011)
Rata-rata Pengeluaran Rumah Tangga per Kapita
Rata-rata Pengeluaran Rumah Tangga per kapita adalah biaya yang
dikeluarkan untuk konsumsi anggota rumah tangga selama sebulan dibagi
dengan banyaknya anggota rumah tangga merupakan gambaran tingkat
kesejahteraan yang dinikmati oleh penduduk sebagai dampak semakin
membaiknya ekonomi (BPS, 2011). Besarnya pengeluaran suatu rumah tangga
seringkali digunakan sebagai pendekatan terhadap besarnya pendapatan rumah
25
tangga tersebut. Sehingga tidak salah juga bila besarnya pengeluaran rumah
tangga dijadikan sebagai salah satu tolok ukur kesejahteraan rumah tangga
tersebut. Semakin besar pengeluarannya maka semakin banyak kebutuhan
rumah tangga yang dapat terpenuhi, sehingga bisa dikatakan bahwa rumah
tangga tersebut juga semakin sejahtera.
Persentase Anggaran Pendidikan di APBD
Persentase anggaran pendidikan merupakan alokasi anggaran pendidikan
dari total Anggaran Pendapatan dan Belanja Daerah (APBD) pada satu tahun
anggaran. Persentase anggaran pendidikan dalam APBD seperti tertuang
dalam UU No.20 Tahun 2003 tentang sistem Pendidikan Nasional Pasal 49
ayat (1) yang berbunyi, “ Dana Pendidikan selain gaji pendidik dan biaya
pendidikan kedinasan dialokasikan minimal 20 % dari Anggaran Pendapatan
Belanja Negara (APBN) pada sektor pendidikan dan minimal 20 % dari
Anggaran Pendapatan dan Belanja Daerah (APBD). Data bersumber dari
Direktorat Jenderal Perimbangan Keuangan (DJPK) Kementrian Keuangan
Republik Indonesia.
Rasio Murid dengan Sekolah
Rasio murid terhadap sekolah merupakan suatu ukuran terhadap
kecukupan fasilitas fisik untuk melakukan proses belajar dan mengajar.
Semakin banyak sekolah-sekolah yang dibangun akan memberikan peluang
yang lebih besar kepada penduduk usia sekolah untuk dapat mengenyam
bangku pendidikan.
Rumus Rasio t
t hh t
h
MM S
S dengan:
Rasio t
hM S : Jumlah murid/ siswa yang terdaftar di tingkat pendidikan h
pada tahun ajaran t. t
hM : Rasio murid-sekolah di tingkat pendidikan h pada tahun
ajaran t.
26
t
hS : Jumlah sekolah yang tersedia di tingkat pendidikan h pada
tahun ajaran t.
Rasio Murid dengan Guru
Rasio murid terhadap guru ini merupakan rata-rata jumlah murid/ siswa
per guru di tingkat pendidikan tertentu pada ajaran tertentu (BPS, 2011).
Rumus Rasio t
t hh t
h
MM G
G dengan :
Rasio t
hM G : Rasio murid-guru di tingkat pendidikan h pada tahun
ajaran t. t
hM : Jumlah murid/ siswa yang terdaftar di tingkat pendidikan h
pada tahun ajaran t. t
hG : Jumlah guru yang terdaftar di tingkat pendidikan h pada
tahun ajaran t.
Rata-Rata Banyaknya Anggota Rumah Tangga
Mengacu pada konsep rumah tangga serta kondisi sosial masyarakat Jawa
Tengah yang lebih relevan jika menggunakan konsep rumah tangga, sehingga
dalam penelitian ini akan digunakan variabel banyaknya anggota rumah
tangga (household size).
Rumus untuk Rata-rata banyaknya anggota rumah tangga adalah : P
RartRt
dimana :
Rart : Rata-rata banyaknya anggota rumah tangga.
P : Jumlah penduduk suatu wilayah
Rt : Jumlah rumah tanga suatu wilayah
3.4. Tahapan Penelitian
Tujuan pertama dari penelitian ini adalah untuk mendapatkan estimasi
campuran dengan pendekatan spline linier truncated multivariabel dan kernel
pada regresi nonparametrik. Untuk menyelesaikan tujuan pertama, dilakukan
langkah-langkah sebagai berikut:
27
1. Membuat model regresi nonparametrik. Diberikan respon iy dengan variabel
komponen nonparametrik 1 2, ,..., ,i i iq ix x x t :
1
q
i pi pi i i
p
y f x g t
dimana yi merupakan variabel respon, 1
q
p pi
p
f x
merupakan komponen
variabel prediktor yang didekati kurva regresi spline truncated linier. ig t
merupakan satu kurva regresi yang didekati dengan fungsi kernel dan error
i , i =1,2,…,n saling independen.
2. Menyajikan model estimasi campuran regresi spline linier truncated
multivariabel dan kernel pada regresi nonparametrik tersebut dalam bentuk
matrik:
( ) ( ) y Ζ D y
3. Mendapatkan estimasi menggunakan metode Ordinary Least Square
(OLS) dengan menyelesaikan optimasi:
ˆˆ
T
Min I D y Z I D y Z
(3)
4. Menyelesaikan optimasi (3) dengan menggunakan derivatif partial:
Q
Dengan Q T
I D y Z I D y Z
5. Menyamakan derivatif partial tersebut dengan 0, yaitu:
Q
= 0
6. Mendapatkan estimasi campuran regresi spline linier multivariabel dan kernel
pada regresi nonparametrik :
1
ˆ ˆˆ( , )q
i i p pi i
p
t x t
x f g
28
Tujuan kedua dari penelitian ini adalah mengaplikasikan model estimasi
campuran regresi spline truncated linier multivariabel dan kernel pada regresi
nonparametrik terhadap data Rata-Rata Lama Sekolah di Provinsi Jawa Tengah.
Untuk menyelesaikan tujuan kedua, dilakukan langkah-langkah sebagai berikut:
1. Membuat Scatter Plot data antara variabel respon dengan masing-masing
variabel prediktor.
2. Memodelkan data menggunakan estimasi campuran kernel dan regresi spline
linier truncated multivariabel dengan berbagai knot (satu knot, dua knot dan
tiga knot).
3. Memilih titik knot dan Bandwitdh optimal dengan metode GCV.
4. Menetapkan model terbaik dari nilai GCV terkecil.
5. Menghitung R2 sebagai bagian dari kriteria kebaikan model.
6. Membuat kesimpulan dari model yang terbentuk.
Gambar 3.1 dan 3.2 memberikan gambaran mengenai tahap analisis untuk
tujuan pertama dan ke dua yang dilakukan pada penelitian ini.
29
Gambar 3.1 Langkah-langkah Tahap Analisis untuk Tujuan Pertama
Menyajikan model regesi campuran regresi spline truncated linier
multivariabel dan kernel
Menghampiri kurva komponen nonparametrik dengan spline truncated
linier multivariabel dengan knot
Menghampiri kurva komponen fungi kernel
Menyajikan model regresi campuran regresi spline truncated linier multivariabel dan kernel dalam bentuk matrik
Mendapatkan estimasi menggunakan metode Ordinary Least Square (OLS)
Menyelesaikan hasil optimasi menggunakan derivatif partial
Mendapatkan model estimasi campuran kernel dan regresi spline truncated linier multivariable
30
Gambar 3.2 Langkah-langkah Tahap Analisis untuk Tujuan Kedua
Diberikan data
Memilih titik knot dan bandwitdh optimal dengan metode GCV
Menetapkan model terbaik dari nilai GCV terkecil
Menghitung R2
Intrepretasi model dan kesimpulan
Memodelkan data menggunakan estimasi campuran kernel dan regresi spline truncated linier multivariabel
dengan satu sampai kombinasi tiga titik knot
Membuat Scatter Plot data antara variabel respon dengan masing-masing variabel prediktor.
31
BAB 4
HASIL DAN PEMBAHASAN
Berdasarkan tujuan penelitian, pada bahasan ini akan dilakukan estimasi
kurva regresi campuran kernel dan spline truncated linier multivariabel. Hasil
estimasi kemudian akan diterapkan pada Model Rata-Rata Lama Sekolah di
Provinsi Jawa Tengah tahun 2014.
4.1 Bentuk Model Regresi Campuran Kernel dan Spline Truncated
Multivariabel
Kajian mengenai regresi nonparametrik campuran kernel dan spline
truncated linier multivariabel pada data berpasangan 1 , , , ,i qi i ix x t y dengan
diasumsikan hubungan antar variabel prediktor 1 , , ,i qi ix x t dan variabel respon iy
mengikuti model regresi nonparametrik :
1( ,..., , )i i qi i iy x x t
( , )i i it x , (4.1)
dimana
1 2( , ,..., )i i i pix x xx .
Bentuk kurva regresi ( , )i it x pada persamaan (4.1) diasumsikan tidak
diketahui dan hanya diasumsikan bahwa kurva tersebut smooth dalam arti
kontinyu dan differensiabel. Error random i berdistribusi normal dengan
( ) 0iE dan 2( )iVar . Kurva regresi ( , )i it x diasumsikan bersifat additif,
sehingga dapat ditulis dalam bentuk :
1 2) ( ) ( ) ( )( , ) ( i i qi ii i f x f x g tt f x x
1
( )q
p pi ip
f x g t
(4.2)
dimana,
1 21
) ( ) ( )(q
p pi i i qip
f x f x f xf x
32
Bentuk pola hubungan variabel respon iy dengan masing-masing variabel
prediktor ix diasumsikan berubah-ubah pada sub-sub interval tertentu, sedangkan
bentuk pola hubungan variabel respon iy dengan variabel it diasumsikan tidak
diketahui. Dengan i = 1,2…,n secara teori 1
q
p pip
f x
merupakan komponen
variabel prediktor yang didekati kurva regresi spline truncated linier dengan
jumlah variabel sebanyak q variabel. ig t merupakan satu variabel prediktor
dengan kurva regresi kernel.
Komponen kurva regresi spline truncated linier ( )if x pada persamaan
(4.2) didefinisikan oleh :
0 1 1 1 1( )pi pi i q i r i rf x x x x x
0 0
,m r
jjp pi j ip jp
j jx x
dengan
,,0
mm i ri r
i ri r
xxxx
0 1, ,..., q dan 1 2, ,..., r merupakan parameter-parameter yang tidak
diketahui, sedangkan λ1, λ2,…λr merupakan titik-titik knot. Komponen kurva
regresi kernel ( )ig t didefinisikan oleh :
1
1
ˆ ;n
i ii
g t n W t y
1
1
,ii n
jj
K t tW t
n K t t
dimana :
1 .i
it tK t t K
K merupakan fungsi kernel yang dalam studi ini menggunakan fungsi kernel
gaussian.
33
4.2 Estimasi Kurva Regresi Campuran Kernel dan Spline Truncated Linier Multivariabel
Sejumlah q variabel prediktor, kurva regresinya dihampiri dengan regresi
spline truncated linier dengan titik knot λ1, λ2,…λr maka persamaan ditunjukkan
dengan model berikut :
0 0
( )i
m rj
jp pi j ip jpj j
f x x x
sehingga regresi spline truncated linier masing-masing variabel prediktor adalah :
1 1 01 11 1 11 1 11 21 1 21 1 1 1r rf x x x x x
2 2 02 12 2 12 2 12 22 1 22 2 2 2r rf x x x x x
0 1 1 1 2 2 .q q q q q q q q q q q rq q rqf x x x x x
Selanjutnya regresi spline truncated linier multivariabel adalah :
1 1 2 21
q
p pi i i q qip
f x f x f x f x
01 11 1 11 1 11 1 1 1
0 1 1 1 .r r
P P P q q q rq q rq
x x x
x x x
01 02 0 11 1 11 1 11
1 1 1 1 1 1 .p
r r q q q q q rq q rq
x x
x x x x
Sehingga diperoleh persamaan regresi spline linier q variabel sebagai berikut :
1
1 1 2 2
q
pi pi pip
i i q qi
f f x
f x f x f x
01 02 0 11 1 11 1 11 11 1 1
1 1 1
p i i i r
q qi q qi q rq qi rq
x x x
x x x
*0 11 1 11 1 11 21 1 21 1 1 1
1 1 1
i i i r i r
q qi q qi q rq qi rq
x x x x
x x x
34
*0 11 1 12 2 1 11 1 11
1 1 1 11 1 11 1 1
,
pi i i p pi i
r i r i q qi q
rq qi rq
f x x x x
x x x
x
(4.3)
dimana : *0 01 02 0 ,q
untuk i = 1, maka :
*1 0 11 11 12 21 1 1 11 11 11
1 11 1 11 11 11 1 1 1
1 ,
p p p
r r q q q
rq q rq
f x x x x
x x x
x
untuk i = 2, maka :
*2 0 11 12 12 22 1 2 11 12 11
1 12 1 11 12 11 1 2 1
2 ,
p p p
r r q q q
rq q rq
f x x x x
x x x
x
dan seterusnya sehingga untuk i = n :
*0 11 1 12 2 1 11 1 11
1 1 1 11 1 11 1 1
,
pn n n p pn n
r n r n q qn q
rq qn rq
f x x x x
x x x
x
sehingga persamaan Spline linier r knot di n wilayah observasi dapat disajikan
dalam bentuk matrik :
1 11 1 0 1111 11 11 1
2 12 2 11 2112 11 12 1
1 1 11 11 1 1
11 12 11
11
1
p qr
p qr
pn n qn q rn n r
r
f x xx x
f x xx x
f x xx x
x x
2 12
1 12 1 2 2n n r rx x
35
1 1 1 1
1
q q q rq q
rqqn q qn rq
x x
x x
Model matriks di atas dapat disajikan dalam bentuk Persamaan sebagai berikut:
0 1 1 1 2 2 21
( ) ,q
p pi q q qp
x
X X X Xf (4.4)
dengan :
1 11 1 0
2 12 2 110
1 1
11
( ) , ,
1
,
p q
p qp pi
pn n qn q
f x xf x x
x
f x x
Xf
11 11 11 1 11
1 1 1
1 11 1 1 1
, ,r
n n r r
x x
x x
X
11 12 11 2 12
2 2 2
1 12 1 2 2
, ,r
n n r r
x x
x x
X
1 1 1 1
1
, .q q q rq q
q q
qn q qn rq rq
q
x x
x x
X
Vektor ( )p pixf berukuran , vektor berukuran ( ) , vektor 1
berukuran , vektor 2 berukuran , vektor p berukuran , Matriks
1 1( )X berukuran ( ), Matriks 2 2( )X berukuran ( ), dan Matriks
( )q qX berukuran ( ).
Dari persaman (4.4) :
0 1 1 1 2 2 21
( )q
p pi q q qp
x
X X X X f
Dapat dituliskan dalam bentuk matrik :
36
10 1 1
1
( )q
p pi q qp
q
x
X X X
f
1
( )q
p pip
x
Zf (4.5)
dimana :
1
0 1 1 , .
q
P P dan
Z X X X
Dari persamaan (4.2), diberikan fungsi Kernel dengan bentuk :
1
1
ˆ ,n
i ii
g t n W t y
(4.6)
dimana :
1
1
1; .i ii in
jj
K t t t tW t K t t Kn K t t
Dari persamaan fungsi kernel diatas, berlaku untuk setiap t = t1, t =t2,…, t = tn
maka :
11
1 1 11 1 1 1 1
1 1 12 2 1 2 1 2
1
1 11 1
1
1
ˆˆ
ˆ
n
i ii
n nn
i i n ni
n n n n nn
i n ii
n W t yg t n W t y n W t yg t n W t y n W t y n W t y
g t n W t y n W t yn W t y
1 1 111 1 2 1 1
1 1 121 2 2 2 2
1 1 11 2
n
n
nn n n n
yn W t n W t n W tyn W t n W t n W t
yn W t n W t n W t
D y.
(4.7)
37
Dari persamaan (4.2), model regresi campuran spline linier dan kernel diberikan :
1
ˆ ( ) ˆq
p pip
x t
fy g
Z D y (4.8)
Estimator parameter dapat diperoleh dengan menggunakan metode Ordinary
Least Square (OLS) dari persamaan (4.8) yang menghasilkan persamaan :
Z D y y
D Z y y
I D Zy (4.9)
Selanjutnya jumlah kuadrat error dengan menggunakan teorema 2.5.1 bisa
didapatkan sebagai berikut :
2
1
nT
ii
Q
T
I D Z I D Zy y
'T TT I D Z I D Zy y
2 T TT T
TT
I D I D Z Z
I D Z Z
y y
y
2 T TT T
TT
I D Z I D Z
I D Z Z
y y
y
22 TT
TT
I D Z I D
Z Z
y y
(4.10)
Untuk mendapatkan estimator dari parameter , berdasarkan pada penggunaan
Teorema 2.5.2 dan Teorema 2.5.3 dilakukan derivatif parsial dari persamaan
(4.10) Q terhadap sebagai berikut:
38
2
2 T TT TQ
I D Z I D Z Zy y
ˆ2 2T T
Z I D Z Zy (4.11)
Apabila persamaan (4.11) disamakan dengan nol, maka akan diperoleh
persamaan:
ˆ 0.T T
Z Z Z I D y
Selanjutnya Persamaan dapat pula ditulis dalam bentuk :
ˆT T Z Z Z I D y,
sehingga estimator diberikan oleh:
1' '
Z Z Z I D y. (4.12)
Persamaan (4.12) dapat diringkas menjadi bentuk persamaan :
ˆ , C y, (4.13)
dimana :
1'
, .T
C Z Z Ζ Ι D
Sehingga didapatkan estimator kurva spline truncated linier multivariabel untuk
1
( )q
p pip
x
Z f diberikan oleh persamaan :
( )1
ˆ , ˆ( ) ( , )p
q
p
t
x Z f (4.14)
1' T
Z Z Z Z I D y,
sehingga :
1
( ) ,q
p pip
x
Af y, (4.15)
dengan matrik A adalah :
1
, .T T
A Z Z Z Z I D
39
Kemudian dari persamaan (4.7) menunjukkan estimator persamaan kernel :
,ˆ t Dg y,
sehingga didapatkan estimator campuran regresi spline linier dan kernel :
1
ˆ ˆˆ( , )q
i i p pi ip
t x t
x f g
, A D y y
, A D y
,B y, (4.16)
dimana matrik B adalah :
, , . B A D
Estimator campuran regresi Spline dan Kernel ,ˆ ,i it x sangat
bergantung kepada banyak dan letak titik knot 1 2( , ,..., )Tr dan parameter
bandwitdh . Untuk memperoleh estimator campuran Kernel dan regresi Spline
truncated linier multivariabel yang terbaik perlu dilakukan pemilihan titik knot
dan parameter bandwith yang optimal. Metode yang biasa digunakan adalah
Generalized Cross Validation (GCV). Fungsi GCV oleh Wahba (1990) adalah :
1 2,
21
ˆ|| ( , ) ||, .
, ( )i in t
GCVn trace
y x
I A D
(4.17)
Titik knot optimal 1( ) 2( ) ( )( , ,..., )Topt opt opt r opt dan parameter bandwdith
optimal opt diperoleh dari optimasi :
,( , ) { ( , )}.opt optG Min G
(4.18)
Titik knot dan parameter bandwith optimal diperoleh dari nilai GCV terkecil.
4.3 Aplikasi pada Model Rata-rata Lama Sekolah di Provinsi Jawa Tengah
Unit observasi yang digunakan dalam penelitian ini adalah 35
kabuapten/kota yang ada di Provinsi Jawa Tengah. Variabel respon yang
digunakan adalah Rata-rata Lama Sekolah (Y), sedangkan variabel prediktor
40
adalah Rata-rata Pengeluaran Perkapita (X1), Persentase Pengeluaran Pemerintah
Daerah (APBD) di Bidang Pendidikan (X2), Rasio jumlah murid dengan jumlah
sekolah SLTA (X3), dan Rasio jumlah murid dengan jumlah guru SLTA (X4),
Rata-rata banyaknya Anggota Rumah Tangga (t).
4.3.1 Analisis Dekriptif
Sebelum proses permodelan Regresi Campuran Kernel dan Spline
Truncated Multivariabel pada data Rata-rata Lama Sekolah di Provinsi Jawa
Tengah, perlu dilihat statistik deskriptif dari data masing-masing variabel seperti
ditunjukkan pada Tabel 4.1.
Tabel 4.1 Statistik Deskriptif Variabel Respon dan Variabel Prediktor
Variabel Jumlah Min Max Range Mean Standard Deviasi
(1) (2) (3) (4) (5) (6) (7)
Y 35 10,649 14,950 4,301 12,185 0,917
X1 35 457,200 1058,300 601,000 644,400 148,400
X2 35 30,210 56,130 25,920 44,366 5,783
X3 35 231,500 520,000 288,400 419,400 35,000
X4 35 7,910 15,385 7,475 11,430 35,000
t 35 3,400 4,300 0,900 3,7286 3,729
Statistik deskriptif yang ditampilakan pada Tabel 4.1 digunakan untuk
inisiasi titik-titik knot dan bandwidth. Untuk melihat pola hubungan antara
variabel respon dengan masing-masing variabel prediktor dapat dilihat dari grafik
scatter plot. Hasil scatter plot untuk masing-masing variabel respon dan variabel
prediktor adalah sebagai berikut :
41
11001000900800700600500400
15
14
13
12
11
kapita
RLS
Gambar 4.1 Scatter Plot antara Rata-rata Lama Sekolah (Y) dengan Rata-rata
Pengeluaran perkapita (X1).
Gambar 4.1 menggambarkan pola hubungan antara Rata-rata Lama
Sekolah dengan Rata-rata Pengeluaran perkapita cenderung naik tetapi
perilakunya berubah pada sub interval antara 620 dan 900. Pola hubungan yang
berubah perilakunya pada sub interval dapat didekati dengan regresi spline
truncated linier.
555045403530
15
14
13
12
11
Belanja_APBD_pnddkan
RLS
Gambar 4.2 Scatter Plot antara Rata-rata Lama Sekolah (Y) dengan Pesentase
Pengeluaran Pemerintah Daerah (APBD) di Bidang Pendidikan (X2).
Gambar 4.2 menunjukkan pola hubungan antara Rata-rata Lama Sekolah
dengan Pesentase Pengeluaran Pemerintah Daerah (APBD) di Bidang Pendidikan
cenderung mengalami perubahan perilaku pada sub interval antara 35 dan 45. Pola
hubungan yang berubah perilakunya pada sub interval dapat didekati dengan
regresi spline truncated linier.
42
550500450400350300250200
15
14
13
12
11
murid Vs Sklh
RLS
Gambar 4.3 Scatter Plot antara Rata-rata Lama Sekolah (Y) dengan Rasio Jumlah Murid
dengan jumlah Sekolah tingkat SLTA (X3).
Gambar 4.3 tampak pola hubungan antara Rata-rata Lama Sekolah dengan
Rasio Jumlah Murid dengan jumlah sekolah tingkat cenderung mengalami
perubahan perilaku pada sub interval antara 300 dan 370. Pola hubungan yang
berubah perilakunya pada sub interval dapat didekati dengan regresi spline
truncated linier.
16151413121110987
15
14
13
12
11
murid VS guru
RLS
Gambar 4.4 Scatter Plot antara Rata-rata Lama Sekolah (Y) dengan Rasio Jumlah Murid
dengan jumlah Guru tingkat SLTA (X4).
Gambar 4.4 menggambarkan pola hubungan antara Rata-rata Lama
Sekolah dengan Rasio Jumlah Murid dengan jumlah Guru tingkat SLTA
cenderung menurun tetapi mengalami perubahan perilaku pada sub interval antara
9 dan 12. Pola hubungan yang berubah perilakunya pada sub interval dapat
didekati dengan regresi spline truncated linier.
43
4.34.24.14.03.93.83.73.63.53.4
15
14
13
12
11
rata2 art
RLS
Gambar 4.5 Scatter Plot antara Rata-rata Lama Sekolah (Y) dengan Rata-rata Anggota
Rumah Tangga (t).
Gambar 4.5 menunjukkan hubungan antara Rata-rata Lama Sekolah
dengan Rata-rata Anggota Rumah Tangga tidak memiliki suatu pola yang jelas.
Pola hubungan yang tidak jelas dapat didekati dengan fungsi kernel.
Berdasar Gambar scatter plot yang mengambarkan pola hubungan antara
variabel respon dan prediktor, maka Model Estimasi Campuran Kernel dan Spline
truncated linier Multivariabel merupakan salah satu metode yang tepat, karena
ada pola hubungan variabel respon dan variabel prediktor yang tidak jelas dan
juga ada pola hubungan variabel respon dan variabel prediktor yang cenderung
berubah perilakunya pada sub interval. Variabel-variabel prediktor Rata-rata
Pengeluaran Perkapita (X1), Persentase Pengeluaran Pemerintah Daerah (APBD)
di Bidang Pendidikan (X2), Rasio jumlah murid dengan jumlah sekolah SLTA
(X3), dan Rasio jumlah murid dengan jumlah guru SLTA (X4) akan didekati
dengan regresi spline linier truncated, sedangkan variabel Rata-rata banyaknya
Anggota Rumah Tangga (t) akan didekati dengan fungsi kernel. Model Estimasi
Campuran Kernel dan Spline truncated linier Multivariabel akan dipilih dengan
melihat nilai GCV terkecil dari beberapa model yang menggunakan jumlah titik
knot dan bandwidth yang berbeda. Penelitian ini mengunakan titik knot dengan
jumlah yang sama pada setiap variabel prediktor antara satu sampai dengan tiga
titik knot. Proses perbandingan akan diperhitungkan dari semua titik kemungkinan
titik knot tetapi hanya akan ditampilkan sepuluh posisi titik knot yang berbeda
44
pada masing-masing bagian yang mendekati titik knot dan bandwidth optimum.
Sehingga setelah pengolahan data akan didapatkan nilai GCV yang terkecil dan R-
Square yang maksimal, titik knot dan bandwidth yang optimal serta nilai
parameter dari model terbaik.
4.3.2 Model Regresi Campuran Kernel dan Spline Truncated Linier Multivariabel Pemilihan Model Regresi Campuran Kernel dan Spline Truncated
Multivariabel terbaik diperoleh dari penentuan titik-titik knot dan bandwidth yang
optimal. Penentuan titik knot dan dan bandwidth yang optimal didapatkan dari
membandingkan nilai GCV beberapa titik knot dan bandwidth, dimulai dari satu
titik knot, dua titik knot dan tiga titik knot. Titik knot dan bandwidth yang optimal
ditunjukan dari nilai GCV yang terkecil.
4.3.2.1 Pemilihan Titik Knot dan Bandwidth Optimal dengan Satu Titik Knot Pemilihan titik knot dan bandwidth yang optimal diawali dengan
menggunakan satu titik knot pada masing-masing variabel prediktor spline dan
bandwidth secara bersama-sama. Berikut ini adalah model Regresi Campuran
Kernel dan Spline Truncated Linier Multivariabel dengan satu titik knot.
*0 11 1 12 2 13 3 14 4 11 1 11 12 2 12
113 3 13 14 4 14
11
1
ˆ ˆ ˆ ˆ ˆ ˆ ˆˆ
ˆ ˆ
i i i i i i
ni
i i ini
jj
y x x x x x x
K t tx x n y
n K t t
Nilai GCV yang dihasilkan dengan menggunakan satu titik knot ditunjukkan pada
Tabel 4.2.
45
Tabel 4.2 Nilai GCV dengan Satu Titik Knot
No Titik Knot Bandwidth
GCV x1 x2 x3 x4 α
1 535,7364 33,22 391,51 8,084167 12,437285 0,2477135
2 535,8607 33,22 391,51 8,084421 7,013215 0,2477298
3 555,778 30,37755 391,51 7,923009 6,906455 0,2526183
4 958,1474 33,22 391,51 8,146813 8,258792 0,2536875
5 535,8943 33,22 391,5113 8,084172 50,086936 0,2477013
6 682,0207 33,09796 391,5087 8,066426 20,01842 0,2541300
7 857,3226 33,21954 391,4687 8,124781 8,805228 0,2541810
8 682,02 30,56663 391,51 7,932973 212,1253 0,2543010
9 535,7915 31,22744 391,5101 18,28216 35,43942 0,2552030
10 535,6091 32,20571 391,51 15,39507 7,868713 0,2552310
Berdasarkan Tabel 4.2 dapat diketahui bahwa nilai GCV minimum yang
diperoleh dengan satu titik knot yaitu sebesar 0,247713, dimana titik knot
optimumnya pada masing-masing variabel prediktor yaitu sebagai berikut.
x1 = 535,7364 ; x2 = 33,22 ; x3 = 391,51 ; x4 = 8,084167 ; α = 12,437285
4.3.2.2 Pemilihan Titik Knot dan Bandwitdth Optimal dengan Dua Titik
Knot Setelah dilakukan pendekatan Regresi Campuran Kernel dan Spline
Truncated Linier Multivariabel dengan satu titik knot, selanjutnya dilakukan
pendekatan dengan dua titik knot. Regresi Campuran Kernel dan Spline
Truncated Linier Multivariabel dengan dua titik knot adalah sebagai berikut.
*0 11 1 12 2 13 3 14 4 11 1 11
21 1 21 12 2 12 22 2 22
13 3 13 23 3 23 14 4 14
124 4 24
11
1
ˆ ˆ ˆ ˆ ˆ ˆˆˆ ˆ ˆ
ˆ ˆ ˆ
ˆ
i i i i i
i i i
i i i
ni
i ini
jj
y x x x x x
x x x
x x x
K t tx n y
n K t t
46
Nilai GCV dari pemodelan dengan menggunakan dua titik knot ditunjukkan oleh
Tabel 4.3.
Tabel 4.3 Nilai GCV dengan Dua Titik Knot
No Titik Knot Bandwidth GCV x1 x2 x3 x4 α
1 549,6119 36,1600 279,6111 9,9698 15,393779
0,162737
858,5652 39,8194 391,5058 12,8300
2 549,2031 36,1600 279,5922 9,9700 25,07055
0,1626529
858,3215 39,8044 391,5101 12,8300
3 550,1292 36,1600 279,6147 9,9508 19,51373
0,161697
958,1087 39,8019 391,5175 12,8300
4 549,8865 36,1600 279,6253 9,9479 13,931829
0,1616504
958,1533 39,8353 391,5206 12,8300
5 549,6736 36,1600 279,6132 9,9487 19,087489
0,1615691
958,1051 39,7940 391,5099 12,8301
6 550,0339 36,1600 279,6149 9,9700 8,689574
0,1628829
858,5252 39,8562 391,5058 12,8303
7 550,2694 36,1600 279,6113 9,9700 11,705683
0,1629146
858,4142 39,8136 391,5019 12,8306
8 550,0595 34,1218 279,6169 10,1962 27,865185
0,1638126
656,2516 40,5161 391,6025 11,6200
9 554,5689 34,1457 279,6160 10,2561 19,150274
0,1641383
658,6488 40,6404 391,5374 11,6200
10 555,9803 34,4436 279,6068 10,4800 13,32498
0,1643609
658,3198 40,4213 389,2869 11,0404
Tabel 4.3 memberikan beberapa alternatif nilai knot untuk masing-masing
variabel prediktor. Nilai GCV minimum yang diperoleh dengan 2 titik knot yaitu
0,1615691. Titik-titik knot pada tiap variabel prediktor yang menghasilkan nilai
GCV minimum yaitu sebagai berikut.
Pada variabel x11 = 549,6736 dan x12 = 958,1051
47
Pada variabel x21 = 36,1600 dan x22 = 39,7940
Pada variabel x31 = 279,6132 dan x32= 391,5099
Pada variabel x41 = 9,9487 dan x42 = 12,8301
Bandwidth α = 19,087489
4.3.2.3 Pemilihan Titik Knot dan Bandwitdth Optimal dengan Tiga Titik Knot Setelah dilakukan pendekatan Regresi Campuran Kernel dan Spline
Truncated Linier Multivariabel dengan satu titik knot dan dua knot, selanjutnya
dilakukan pendekatan dengan tiga titik knot. Regresi Campuran Kernel dan Spline
Truncated Linier Multivariabel dengan tiga titik knot adalah sebagai berikut:
*0 11 1 12 2 13 3 14 4 11 1 11 21 1 21
31 1 31 12 2 12 22 2 22 32 2 32
13 3 13 23 3 23 33 3 33 14 4 14
24 4 24 34 4 34
ˆ ˆ ˆ ˆ ˆ ˆ ˆˆˆ ˆ ˆ ˆ
ˆ ˆ ˆ ˆ
ˆ ˆ
i i i i i i
i i i i
i i i i
i i
y x x x x x x
x x x x
x x x x
x x n
1
11
1
ni
ini
jj
K t ty
n K t t
Berikut ini merupakan nilai GCV yang didapatkan dengan pemodelan
menggunakan tiga titik knot.
Tabel 4.4 Nilai GCV dengan Tiga Titik Knot
No Knot α GCV MSE x1 x2 x3 x4
1 557,4217 34,5300 279,6133 10,4033 0,91 0,8294 0,0724 657,5933 38,8500 327,6867 11,6500 757,7650 43,1700 423,8333 12,8967
2 557,4217 34,5300 279,6133 9,1567 0,61 0,8294 0,0733 657,5933 38,8500 327,6867 10,4033 757,7650 43,1700 423,8333 12,8967
3 557,4217 34,5300 279,6133 10,4033 0,61 0,8294 0,0740 657,5933 38,8500 327,6867 11,6500 757,7650 43,1700 423,8333 12,8967
4 557,4217 34,5300 279,6133 9,1567 0,91 0,8294 0,0761 657,5933 38,8500 327,6867 10,4033 757,7650 43,1700 375,7600 12,8967
48
Tabel 4.4 Nilai GCV dengan Tiga Titik Knot (lanjutan)
No Knot α GCV MSE x1 x2 x3 x4
5 557,4217 34,5300 279,6133 10,4033 0,91 0,8294 0,0769 657,5933 38,8500 327,6867 11,6500 757,7650 43,1700 375,7600 12,8967
6 557,4217 34,5300 279,6133 9,1567 0,91 0,8294 0,0719 657,5933 38,8500 327,6867 10,4033 757,7650 43,1700 423,8333 12,8967
7 557,4217 34,5300 279,6133 9,1567 0,61 0,8294 0,0776 657,5933 38,8500 327,6867 10,4033 757,7650 43,1700 375,7600 12,8967
8 557,42170 34,53000 279,61330 10,40333 0,61 0,8294 0,0786 657,59330 38,85000 327,68670 11,65000 757,76500 43,17000 375,76000 12,89667
9 557,42170 34,53000 279,61330 9,15667 0,91 0,8294 0,0796 657,59330 38,85000 327,68670 10,40333 757,76500 43,17000 423,83330 11,65000
10 557,42170 34,53000 279,61330 10,40333 0,91 0,8294 0,0806 657,59330 38,85000 327,68670 11,65000 757,76500 43,17000 423,83330 12,89667
Tabel 4.4 menunjukkan bahwa nilai GCV minimum setiap kombinasi yang
didapatkan apabila menggunakan tiga titik knot sama besar yaitu sebesar 0,8294.
Titik-titik knot optimal pada tiap variabel prediktor yang menghasilkan nilai GCV
minimum yang sama ditentukan oleh nilai MSE terkecil yaitu nilai MSE 0,0719.
Titik-titik knot optimal tersebut diberikan sebagai berikut.
Pada variabel x11 = 557,4217, x12 = 657,5933 dan x13 = 757,765
Pada variabel x21 = 34,5300 , x22 = 38,8500 dan x23 = 43,1700
Pada variabel x31 = 279,6133, x32= 327,6867 dan x33 = 423,8333
Pada variabel x41 = 9,1567, x42 = 10,4033 dan x43 = 12,8967
Bandwidth α = 0,91
Perbandingan nilai GCV minimum yang diperoleh dengan menggunakan
satu knot, dua knot dan tiga knot ditunjukkan oleh Tabel 4.5.
49
Tabel 4.5 Perbandingan Nilai GCV Minimum
Model GCV
1 Knot 0,247713
2 Knot 0,1615691
3 Knot 0,8294
Berdasarkan Tabel 4.5 terlihat bahwa model Regresi Campuran Kernel dan
Spline Truncated Linier Multivariabel yang memiliki GCV minimum yaitu model
regresi dengan dua titik knot dengan nilai GCV sebesar 0,1615691. Hal ini
menunjukkan bahwa model Regresi Campuran Kernel dan Spline Truncated
Linier Multivariabel terbaik yaitu model regresi dengan dua titik knot sehingga
nilai yang akan digunakan pada pemodelan Rata-rata Lama Sekolah di Jawa
Tengah adalah nilai titik knot optimal dari GCV dengan dua titik knot.
4.3.3 Penaksiran Parameter Model Regresi Campuran Kernel dan Spline Truncated Linier Multivariabel Model Regresi Campuran Kernel dan Spline Truncated Linier Multivariabel
terbaik diperoleh dengan menggunakan titik knot yang optimal. Model Regresi
Campuran Kernel dan Spline Truncated Linier Multivariabel yang terbentuk
yaitu:
*0 11 1 12 2 13 3 14 4 11 1 11 21 1 21
12 2 12 22 2 22 13 3 13 23 3 23
114 4 14 24 4 24
11
1
ˆ ˆ ˆ ˆ ˆ ˆ ˆˆˆ ˆ ˆ ˆ
ˆ ˆ
i i i i i i
i i i i
ni
i i ini
jj
y x x x x x x
x x x x
K t tx x n y
n K t t
Estimasi parameter regresi dapat dilihat pada Tabel 4.6.
50
Tabel 4.6 Estimasi Parameter
Variabel Nilai Estimasi Parameter
*0 = -11,2983
x1 11 = 0,014419
11 = -0,01250
21 = 0,015746
x2 12 = 0,209579
12 = -0,50945
22 = 0,389786
x3 13 = 0,022518
13 = -0,03570
23 = 0,022471
x4 14 = -0,97061
14 = 1,206009
24 = -0,56388 bandwidth = 19,08749
Hasil estimasi parameter pada Tabel 4.6 membentuk persamaan model
Regresi Campuran Kernel dan Spline Truncated Linier Multivariabel dengan dua
titik knot sebagai berikut :
1 1
1 2 2
2 3 3
3 4
11.2983 0,014419 0,0125 549,67360,015746 958,1051 0,209579 0,50945 36,16000,389786 39,7940 0,022518 0,0357 61320,022471 0,97061 1,2
ˆ ( )( ) ( )( ) ( 279,
06)
( 391,5099) (009
y x xx x xx x xx x
4
35
4 351
1
9, )
0,05239
9487
19,0874890,56388 12,8301
19,0
03( ) ,
0,052390389
K874
i
ii j
j
x
t tKx y
t t
dengan K adalah fungsi kernel Gaussian.
Nilai R2 dari model ini sebesar 0,909313. Intrepretasi dari model tersebut
yaitu apabila variabel lain dianggap konstan, pada saat rata-rata pengeluaran
perkapita perbulan (X1) dibawah 549,6736, jika terjadi kenaikan rata-rata
51
pengeluaran perkapita perbulan tersebut seribu rupiah, maka rata-rata lama
sekolah menunjukkan pola meningkat. Kemudian pada saat pengeluaran perkapita
perbulan (X1) diantara 549,6736 dan 958,1051 jika terjadi kenaikan rata-rata
pengeluaran perkapita perbulan tersebut seribu rupiah, maka rata-rata lama
sekolah menunjukkan pola meningkat tetapi tidak setinggi pada saat rata-rata
pengeluaran perkapita perbulan (X1) dibawah 549,6736. Sedangkan pada saat
pengeluaran perkapita perbulan (X1) lebih dari 958,1051 jika terjadi kenaikan
rata-rata pengeluaran perkapita perbulan tersebut seribu rupiah, maka rata-rata
lama sekolah menunjukkan pola meningkat tetapi tidak setinggi pada saat rata-rata
pengeluaran perkapita perbulan (X1) dibawah 958,1051. Kemudian pada variabel
persentase belanja pendidikan di APBD (X2), apabila variabel lain dianggap
konstan, maka pada saat persentase belanja pendidikan di APBD di bawah 36,16
persen, apabila terjadi kenaikan satu persen belanja pendidikan di APBD, maka
maka rata-rata lama sekolah menunjukkan pola meningkat. Kemudian pada saat
persentase belanja pendidikan di APBD diantara 36,16 hingga 39,794 persen,
apabila terjadi kenaikan satu persen belanja pendidikan di APBD, maka maka
rata-rata lama sekolah menunjukkan pola menurun. Sedangkan saat saat
persentase belanja pendidikan di APBD lebih dari 39,794 persen, apabila terjadi
kenaikan satu persen belanja pendidikan di APBD, maka maka rata-rata lama
sekolah menunjukkan pola meningkat lagi. Kemudian pada variabel Rasio Jumlah
Murid dengan jumlah Sekolah (X3), apabila variabel lain dianggap konstan, maka
pada saat Rasio Jumlah Murid dengan jumlah Sekolah di bawah 279,6132, apabila
terjadi kenaikan satu Rasio Jumlah Murid dengan jumlah Sekolah, maka maka
Rata-rata lama sekolah menunjukkan pola meningkat. Kemudian pada saat Rasio
Jumlah Murid dengan jumlah Sekolah diantara 279,6132 hingga 391,5099,
apabila terjadi kenaikan satu Rasio Jumlah Murid dengan jumlah Sekolah, maka
maka rata-rata lama sekolah menunjukkan pola menurun. Sedangkan saat saat
Rasio Jumlah Murid dengan jumlah Sekolah lebih dari 391,5099, apabila terjadi
kenaikan satu Rasio Jumlah Murid dengan jumlah Sekolah, maka maka rata-rata
lama sekolah menunjukkan pola meningkat lagi. Kemudian pada variabel Rasio
Jumlah Guru dengan Murid (X4), apabila variabel lain dianggap konstan, maka
pada saat Rasio Jumlah Jumlah Guru dengan Murid di bawah 9,9487, apabila
52
terjadi kenaikan satu Rasio Jumlah Murid dengan jumlah Sekolah, maka maka
Rata-rata lama sekolah menunjukkan pola menurun. Kemudian pada saat Rasio
Jumlah Guru dengan Murid diantara 9,9487 hingga 12,8301, apabila terjadi
kenaikan satu Rasio Jumlah Guru dengan Murid, maka maka rata-rata lama
sekolah menunjukkan pola sedikit meningkat. Sedangkan saat saat Rasio Guru
dengan Murid lebih dari 12,8301, apabila terjadi kenaikan satu Rasio Jumlah
Guru dengan Murid, maka maka rata-rata lama sekolah menunjukkan pola
menurun lagi.
53
BAB 5
KESIMPULAN DAN SARAN
5.1 Kesimpulan
Kesimpulan yang didapatkan berdasarkan analisis dan pembahasan yang
telah dilakukan adalah sebagai berikut.
1. Diberikan model regresi campuran kernel dan spline truncated linier
multivariabel :
1( ,..., , )i i qi i iy x x t
,( , )i i it x
dimana,
1 2) ( ) ( ) ( )( , ) ( i i qi ii i f x f x g tt f x x
1
( )q
p pi ip
f x g t
Komponen kurva regresi spline truncated linier ( )p pif x didefinisikan
oleh:
0 1 1 1 1( )i i q i r i rf x x x x x
0 0
,m r
jjp pi j ip jp
j jx x
dengan :
,
,0i ri r
i ri r
xxx
x
Komponen kurva regresi kernel ( )ig t didefinisikan oleh :
1
1
ˆn
i ii
g t n W t y
dimana :
54
1
1
1;i ii in
jj
K t t t tW t K t t Kn K t t
K merupakan fungsi kernel yang dalam studi ini menggunakan fungsi
kernel gaussian. 2. Optimasi dengan metode Ordinary Least Square (OLS) menghasilkan
estimator regresi campuran kernel dan spline truncated linier
multivariabel sebagai berikut :
1
ˆ ( ) ˆq
p pip
x t
fy g
Z D y
Estimator parameter dapat diperoleh dengan menggunakan metode
Ordinary Least Square (OLS) yang menghasilkan persamaan :
ˆ ,C y
dimana :
1'
,T
C Z Z Ζ Ι D
3. Model terbaik berdasarkan ukuran kebaikan model yaitu Nilai R2 sebesar
0,909313. Model regresi campuran kernel dan spline truncated linier
multivariabel pada kasus data Rata-rata Lama Sekolah di Provinsi Jawa
Tengah tahun 2014 adalah sebagai berikut :
1 1
1 2 2
2 3 3
3 4
11.2983 0,014419 0,0125 549,67360,015746 958,1051 0,209579 0,50945 36,16000,389786 39,7940 0,022518 0,0357 61320,022471 0,97061 1,2
ˆ ( )( ) ( )( ) ( 279,
06)
( 391,5099) (009
y x xx x xx x xx x
4
35
4 351
1
9, )
0,05239
9487
19,0874890,56388 12,8301
19,0
03( ) .
0,052390389
K874
i
ii j
j
x
t tKx y
t t
55
5.2 Saran
Tindak lanjut dari penelitian ini, maka saran yang dapat diberikan
berdasarkan penelitian yang telah dilakukan adalah sebagai berikut.
1. Penentuan hubungan antara variabel respon dan variabel-variabel prediktor
pada penelitian ini hanya berdasar penelitan sebelumnya dan tampilan
scatter plot, sehingga untuk penelitian selanjutnya perlu dilakukan uji
statistik untuk melihat variabel-variabel prediktor yang memiliki pengaruh
signifikan terhadap variabel respon.
2. Metode yang digunakan dalam penelitian ini dengan asumsi setiap
variabel yang didekati dengan kurva spline mempunyai jumlah knot yang
sama sampai maksimal sebanyak tiga titik knot. Penelitian selanjutnya
dapat mengembangkan dengan lebih banyak titik knot dan kombinasi titik
knot yang berbeda untuk masing-masing variabel.
3. Penelitian ini hanya sampai pada penentuan nilai estimasi parameter.
Penelitian selanjutnya dapat menambahkan Pengujian signifikansi
parameter secara simultan maupun parsial.
4. Penelitian ini hanya untuk penentuan nilai estimasi titik. Penelitian
selanjutnya dapat menggunakan pendugaan Selang kepercayaan dalam
penentuan estimasi.
56
“Halaman ini sengaja dikosongkan”
63
LAMPIRAN
Lampiran 1. Data Regresi Campuran Kernel dan Spline Truncated Linier
Multivariabel
y t X1 X2 X3 X4
12,27 3,7 581,18 44,93 450,43 12,03
12,56 3,7 574,37 50,03 492,71 14,92
11,51 4,0 520,64 47,30 495,81 15,39
10,7 3,8 473,33 47,88 488,00 14,39
12,07 3,7 512,26 51,50 444,96 11,05
13,03 3,4 699,46 47,57 461,15 12,02
11,34 3,7 682,02 40,96 451,38 12,09
12,00 3,7 466,68 52,23 299,27 10,33
11,65 3,6 640,22 46,69 357,93 10,35
12,74 3,5 706,31 56,13 442,62 10,92
12,96 3,6 720,93 46,99 519,98 10,69
11,94 3,6 566,22 52,62 427,38 11,83
13,26 3,8 681,30 52,44 475,96 9,54
12,19 3,5 672,53 48,85 453,08 11,43
12,24 3,5 592,93 45,04 341,74 13,56
11,75 3,5 537,28 46,32 329,40 12,30
11,46 3,6 616,83 42,95 361,34 11,15
11,24 3,4 569,54 44,38 348,46 10,48
12,58 4 738,65 38,75 450,71 12,83
12,25 3,8 540,47 41,35 285,85 11,44
11,84 3,8 591,29 40,77 231,54 9,11
12,81 3,7 739,15 36,16 357,42 14,25
11,69 3,8 553,24 41,84 354,52 11,85
11,83 3,7 687,77 44,66 424,01 11,26
10,65 3,9 513,14 39,54 370,86 13,47
11,93 4,3 570,7 45,59 374,44 11,01
11,26 4 457,25 47,92 499,07 11,68
11,99 3,9 535,86 42,88 442,85 11,62
11,03 3,8 571,51 46,90 391,51 10,28
12,98 3,8 787,02 36,74 517,54 9,73
13,92 3,5 876,06 42,99 456,85 7,91
14,95 3,6 1058,28 35,49 506,24 9,97
13,97 3,8 1058,23 42,99 390,98 9,36
11,93 4 565,14 33,22 488,68 9,88
11,96 3,8 897,75 30,21 494,03 9,93
64
Lampiran 1. Data Regresi Campuran Kernel dan Spline Truncated Linier
Multivariabel (Lanjutan)
Keterangan :
Y : Rata-Rata Lama Sekolah
t : Rata-rata banyaknya anggota rumah tangga.
X1 : Pengeluaran Per kapita per bulan.
X2 : Persentase Anggaran Pendidikan di APBD.
X3 : Rasio jumlah murid dengan jumlah sekolah SLTA.
X4 : Rasio jumlah murid dengan jumlah guru SLTA.
65
Lampiran 2. Program Regresi Campuran Kernel dan Spline Truncated Linier
Multivariabel 1 Titik Knot Menggunakan Software R
library(pracma)
data=read.csv("dataali.csv")
y=data[,2]
xk=data[,3]
x=data[,c(4,5,6,7)]
n=nrow(x)
nx=ncol(x)
nk=1
int.k=5
int.s=4
GCVmin2 = function(r)
{
data=read.csv("dataali.csv")
y=data[,2]
xk=data[,3]
x=data[,c(4,5,6,7)]
n=nrow(x)
nx=ncol(x)
nk=1
matnn=matrix(1, nrow=n, ncol=n)
matn=matrix(1, nrow=n)
matiden=diag(1,n,n)
k=r[-5]
alpha=r[5]
X=0
x0=cbind(1,x)
X=x0
xx=0
for (i in 1:nx)
{
xx=cbind(pmax(0,x[,i]-k[i]))
X=cbind(X,xx)
}
X=as.matrix(X)
diag.xk=0
diag.xk=diag(xk)
tt=matnn %*% diag.xk
z=(t(tt)-tt)/alpha
K=1/sqrt(2*pi)*exp(-1/2*z^2)
Kt=(1/alpha)*K
sumKt=0
sumKt=diag(c((1/n)*Kt%*%matn))%*%matnn
D=0
D=1/n*Kt/sumKt
beta=0
C=pinv(t(X)%*%X)%*%t(X)%*%(matiden-D)
66
beta=C%*%y
A=X%*%C
B=A+D
yhat=B%*%y
SST=sum((y-mean(y))^2)
SSR=sum((yhat-mean(y))^2)
SSE=sum((y-yhat)^2)
MSR=SSR/(nx+nk)
MSE=SSE/(n)
R2=SSR/SST
e=y-yhat
GCV=(MSE)/(n^-1*sum(diag(matiden-A-D)^2))
GCV
}
GCVmin = function(r)
{
data=read.csv("dataali.csv")
y=data[,2]
xk=data[,3]
x=data[,c(4,5,6,7)]
n=nrow(x)
nx=ncol(x)
nk=1
matnn=matrix(1, nrow=n, ncol=n)
matn=matrix(1, nrow=n)
matiden=diag(1,n,n)
k=r[-5]
alpha=r[5]
X=0
x0=cbind(1,x)
X=x0
xx=0
for (i in 1:nx)
{
xx=cbind(pmax(0,x[,i]-k[i]))
X=cbind(X,xx)
}
X=as.matrix(X)
diag.xk=0
diag.xk=diag(xk)
tt=matnn %*% diag.xk
z=(t(tt)-tt)/alpha
K=1/sqrt(2*pi)*exp(-1/2*z^2)
Kt=(1/alpha)*K
sumKt=0
sumKt=diag(c((1/n)*Kt%*%matn))%*%matnn
D=0
D=1/n*Kt/sumKt
beta=0
67
C=pinv(t(X)%*%X)%*%t(X)%*%(matiden-D)
beta=C%*%y
A=X%*%C
B=A+D
yhat=B%*%y
SST=sum((y-mean(y))^2)
SSR=sum((yhat-mean(y))^2)
SSE=sum((y-yhat)^2)
MSR=SSR/(nx+nk)
MSE=SSE/(n)
R2=SSR/SST
e=y-yhat
GCV=(MSE)/(n^-1*sum(diag(matiden-A-D)^2))
list(gcv=GCV,Rsquare=R2,teta=beta,mse=MSE)
}
#matrix
matnn=matrix(1, nrow=n, ncol=n)
matn=matrix(1, nrow=n)
matiden=diag(1,n,n)
komx1=seq(0.01,max(xk)-min(xk)+0.01,(max(xk)-min(xk))/int.k)
selisih2=(max(x[,1])-min(x[,1]))/(int.s+2)
komx2=seq(min(x[,1])+selisih2,max(x[,1])-selisih2,selisih2)
selisih3=(max(x[,2])-min(x[,2]))/(int.s+2)
komx3=seq(min(x[,2])+selisih3,max(x[,2])-selisih3,selisih3)
selisih4=(max(x[,3])-min(x[,3]))/(int.s+2)
komx4=seq(min(x[,3])+selisih4,max(x[,3])-selisih4,selisih4)
selisih5=(max(x[,4])-min(x[,4]))/(int.s+2)
komx5=seq(min(x[,4])+selisih5,max(x[,4])-selisih5,selisih5)
nkom=(int.k+1)*((int.s+1)^nx)
k=matrix(1,1,5)
s=1
r=matrix(1,nkom,5)
for (a in 1:(int.s+1))
{
k[1]=komx2[a]
for (c in 1:(int.s+1))
{
k[2]=komx3[c]
for (e in 1:(int.s+1))
{
k[3]=komx4[e]
for (g in 1:(int.s+1))
{
k[4]=komx5[g]
for (l in 1:(int.k+1))
{
k[5]=komx1[l]
r[s,]=k
s=s+1
}}}}}
68
GCV=matrix(1,nkom,1)
R2=matrix(1,nkom,1)
#mencari GCV minimum
for (v in 1:nkom)
{
aa=GCVmin(r[v,])
GCV[v]=aa$gcv
R2[v]=aa$Rsquare
}
knot.alpha.GCV=cbind(r,GCV)
colnames(knot.alpha.GCV)=c("k11","k21","k31","k41","alpha","GCV")
gcv.sort=knot.alpha.GCV[order(knot.alpha.GCV[,6]),]
hasil=gcv.sort[1:50,1:6]
optimalsort=matrix(1,50,7)
aa=matrix(1,1,7)
optim=0
gcvopt=0
r2opt=0
for (i in 1:50)
{
opt = nlminb(gcv.sort[i,1:5],GCVmin2)
knotalpha.opt=opt$par
optim=GCVmin(knotalpha.opt)
gcvopt=optim$gcv
mseopt=optim$mse
aa[1:5]=knotalpha.opt
aa[6]=gcvopt[1]
aa[7]=mseopt[1]
optimalsort[i,]=aa
}
colnames(optimalsort)=c("k11","k21","k31","k41","alpha","GCV","MSE
")
optimalsort=optimalsort[order(optimalsort[,6]),]
optimalsort
optimal=GCVmin(optimalsort[1,1:5])
optimalsort[1,1:5]
optimalsort[1,6]
optimalsort[1,7]
optimal$Rsquare
optimal$teta
69
Lampiran 3. Program Regresi Campuran Kernel dan Spline Truncated Linier
Multivariabel 2 Titik Knot Menggunakan Software R
library(pracma)
data=read.csv("dataali.csv")
y=data[,2]
xk=data[,3]
x=data[,c(4,5,6,7)]
n=nrow(x)
nx=ncol(x)
nk=1
int.k=3
int.s=4
matnn=matrix(1, nrow=n, ncol=n)
matn=matrix(1, nrow=n)
matiden=diag(1,n,n)
GCVmin2 = function(r)
{
library(pracma)
data=read.csv("dataali.csv")
y=data[,2]
xk=data[,3]
x=data[,c(4,5,6,7)]
n=nrow(x)
nx=ncol(x)
nk=1
nn=10
u=r[-9]
k=matrix(u, nrow=2, ncol=4, byrow=FALSE)
alpha=r[9]
matnn=matrix(1, nrow=n, ncol=n)
matn=matrix(1, nrow=n)
matiden=diag(1,n,n)
X=0
x0=cbind(1,x)
X=x0
xx=0
for (i in 1:nx)
{
xx=cbind(pmax(0,x[,i]-k[1,i]),pmax(0,x[,i]-k[2,i]))
X=cbind(X,xx)
}
X=as.matrix(X)
diag.xk=0
diag.xk=diag(xk)
tt=matnn %*% diag.xk
z=(t(tt)-tt)/alpha
K=1/sqrt(2*pi)*exp(-1/2*z^2)
Kt=(1/alpha)*K
sumKt=0
sumKt=diag(c((1/n)*Kt%*%matn))%*%matnn
D=0
D=1/n*Kt/sumKt
70
beta=0
C=pinv(t(X)%*%X)%*%t(X)%*%(matiden-D)
beta=C%*%y
A=X%*%C
B=A+D
yhat=B%*%y
SST=sum((y-mean(y))^2)
SSR=sum((yhat-mean(y))^2)
SSE=sum((y-yhat)^2)
MSR=SSR/(nx+nk)
MSE=SSE/(n)
R2=SSR/SST
e=y-yhat
GCV=(MSE)/(n^-1*sum(diag(matiden-A-D)^2))
GCV
}
GCVmin = function(r)
{
library(pracma)
data=read.csv("dataali.csv")
y=data[,2]
xk=data[,3]
x=data[,c(4,5,6,7)]
n=nrow(x)
nx=ncol(x)
nk=1
nn=10
u=r[-9]
k=matrix(u, nrow=2, ncol=4, byrow=FALSE)
alpha=r[9]
matnn=matrix(1, nrow=n, ncol=n)
matn=matrix(1, nrow=n)
matiden=diag(1,n,n)
X=0
x0=cbind(1,x)
X=x0
xx=0
for (i in 1:nx)
{
xx=cbind(pmax(0,x[,i]-k[1,i]),pmax(0,x[,i]-k[2,i]))
X=cbind(X,xx)
}
X=as.matrix(X)
diag.xk=0
diag.xk=diag(xk)
tt=matnn %*% diag.xk
z=(t(tt)-tt)/alpha
K=1/sqrt(2*pi)*exp(-1/2*z^2)
Kt=(1/alpha)*K
sumKt=0
71
sumKt=diag(c((1/n)*Kt%*%matn))%*%matnn
D=0
D=1/n*Kt/sumKt
beta=0
C=pinv(t(X)%*%X)%*%t(X)%*%(matiden-D)
beta=C%*%y
A=X%*%C
B=A+D
yhat=B%*%y
SST=sum((y-mean(y))^2)
SSR=sum((yhat-mean(y))^2)
SSE=sum((y-yhat)^2)
MSR=SSR/(nx+nk)
MSE=SSE/(n)
R2=SSR/SST
e=y-yhat
GCV=(MSE)/(n^-1*sum(diag(matiden-A-D)^2))
list(gcv=GCV,Rsquare=R2,teta=beta,mse=MSE)
}
komx1=seq(0.01,max(xk)-min(xk)+0.01,(max(xk)-min(xk))/int.k)
selisih2=(max(x[,1])-min(x[,1]))/(int.s+2)
komx2=seq(min(x[,1])+selisih2,max(x[,1])-selisih2,selisih2)
selisih3=(max(x[,2])-min(x[,2]))/(int.s+2)
komx3=seq(min(x[,2])+selisih3,max(x[,2])-selisih3,selisih3)
selisih4=(max(x[,3])-min(x[,3]))/(int.s+2)
komx4=seq(min(x[,3])+selisih4,max(x[,3])-selisih4,selisih4)
selisih5=(max(x[,4])-min(x[,4]))/(int.s+2)
komx5=seq(min(x[,4])+selisih5,max(x[,4])-selisih5,selisih5)
a=int.s
c=0
for (j in 1:(int.s-1))
{
b=0
a=a-j
for (i in 1:(int.s-j))
{
b=b+a
a=a-1
}
a=int.s
c=c+b
}
nkom=(int.k+1)*(c^nx)
k=matrix(1,1,9)
s=1
r=matrix(1,nkom,9)
for (a in 1:(int.s))
{
k[1]=komx2[a]
for (b in (a+1):(int.s+1))
72
{
k[2]=komx2[b]
for (c in 1:int.s)
{
k[3]=komx3[c]
for (d in (c+1):(int.s+1))
{
k[4]=komx3[d]
for (e in 1:int.s)
{
k[5]=komx4[e]
for (f in (e+1):(int.s+1))
{
k[6]=komx4[f]
for (g in 1:int.s)
{
k[7]=komx5[g]
for (h in (g+1):(int.s+1))
{
k[8]=komx5[h]
for (l in 1:(int.k+1))
{
k[9]=komx1[l]
r[s,]=k
s=s+1
}}}}}}}}}
GCV=matrix(1,nkom,1)
R2=matrix(1,nkom,1)
#mencari GCV minimum
for (v in 1:nkom)
{
aa=GCVmin(r[v,])
GCV[v]=aa$gcv
}
knot.alpha.GCV=cbind(r,GCV)
colnames(knot.alpha.GCV)=c("k11","k12","k21","k22","k31","k32","k4
1","k42","alpha","GCV") #memberi nama variabel
gcv.sort=knot.alpha.GCV[order(knot.alpha.GCV[,10]),]
#mengurutkan nilai GCV minimum
hasil=gcv.sort[1:50,1:10]
optimalsort=matrix(1,50,11)
aa=matrix(1,1,11)
optim=0
gcvopt=0
for (i in 1:50)
{
opt = nlminb(gcv.sort[i,1:9],GCVmin2)
knotalpha.opt=opt$par
optim=GCVmin(knotalpha.opt)
gcvopt=optim$gcv
mseopt=optim$mse
aa[1:9]=knotalpha.opt
aa[10]=gcvopt[1]
aa[11]=mseopt[1]
73
optimalsort[i,]=aa
}
colnames(optimalsort)=c("k11","k12","k21","k22","k31","k32","k41",
"k42","alpha","GCV","MSE")
optimalsort=optimalsort[order(optimalsort[,10]),]
optimalsort
optimal=GCVmin(optimalsort[1,1:9])
optimalsort[1,1:9]
optimalsort[1,10]
optimalsort[1,11]
optimal$Rsquare
optimal$teta
74
Lampiran 4. Program Regresi Campuran Kernel dan Spline Truncated Linier
Multivariabel 3 Titik Knot Menggunakan Software R
library(pracma)
data=read.csv("dataali.csv")
y=data[,2]
xk=data[,3]
x=data[,c(4,5,6,7)]
n=nrow(x)
nx=ncol(x)
nk=1
int.k=3
int=int.k-1
int.s=4
GCVmin2 = function(r)
{
library(pracma)
data=read.csv("dataali.csv")
y=data[,2]
xk=data[,3]
x=data[,c(4,5,6,7)]
n=nrow(x)
nx=ncol(x)
nk=1
matnn=matrix(1, nrow=n, ncol=n)
matn=matrix(1, nrow=n)
matiden=diag(1,n,n)
u=r[-13]
k=matrix(u, nrow=3, ncol=4, byrow=FALSE)
alpha=r[13]
X=0
x0=cbind(1,x)
X=x0
xx=0
for (i in 1:nx)
{
xx=cbind(pmax(0,x[,i]-k[1,i]),pmax(0,x[,i]-
k[2,i]),pmax(0,x[,i]-k[3,i]))
X=cbind(X,xx)
}
X=as.matrix(X) #matrix Z(lambda)
diag.xk=0
diag.xk=diag(xk)
tt=matnn %*% diag.xk
z=(t(tt)-tt)/alpha
K=1/sqrt(2*pi)*exp(-1/2*z^2)
Kt=(1/alpha)*K
sumKt=0
sumKt=diag(c((1/n)*Kt%*%matn))%*%matnn
D=0
D=1/n*Kt/sumKt #kernel
75
beta=0
C=pinv(t(X)%*%X)%*%t(X)%*%(matiden-D)
beta=C%*%y
A=X%*%C
B=A+D
yhat=B%*%y
SST=sum((y-mean(y))^2)
SSR=sum((yhat-mean(y))^2)
SSE=sum((y-yhat)^2)
MSR=SSR/(nx+nk)
MSE=SSE/(n)
R2=SSR/SST
e=y-yhat
GCV[v]=(MSE)/(n^-1*sum(diag(matiden-A-D)^2))
GCV
}
GCVmin = function(r)
{
library(pracma)
data=read.csv("dataali.csv")
y=data[,2]
xk=data[,3]
x=data[,c(4,5,6,7)]
n=nrow(x)
nx=ncol(x)
nk=1
matnn=matrix(1, nrow=n, ncol=n)
matn=matrix(1, nrow=n)
matiden=diag(1,n,n)
u=r[-13]
k=matrix(u, nrow=3, ncol=4, byrow=FALSE)
alpha=r[13]
X=0
x0=cbind(1,x)
X=x0
xx=0
for (i in 1:nx)
{
xx=cbind(pmax(0,x[,i]-k[1,i]),pmax(0,x[,i]-
k[2,i]),pmax(0,x[,i]-k[3,i]))
X=cbind(X,xx)
}
X=as.matrix(X)
diag.xk=0
diag.xk=diag(xk)
tt=matnn %*% diag.xk
z=(t(tt)-tt)/alpha
K=1/sqrt(2*pi)*exp(-1/2*z^2)
Kt=(1/alpha)*K
sumKt=0
76
sumKt=diag(c((1/n)*Kt%*%matn))%*%matnn
D=0
D=1/n*Kt/sumKt #kernel
beta=0
C=pinv(t(X)%*%X)%*%t(X)%*%(matiden-D)
beta=C%*%y
A=X%*%C
B=A+D
yhat=B%*%y
SST=sum((y-mean(y))^2)
SSR=sum((yhat-mean(y))^2)
SSE=sum((y-yhat)^2)
MSR=SSR/(nx+nk)
MSE=SSE/(n)
R2=SSR/SST
e=y-yhat
GCV[v]=(MSE)/(n^-1*sum(diag(matiden-A-D)^2))
list(gcv=GCV,Rsquare=R2,teta=beta,mse=MSE)
}
matnn=matrix(1, nrow=n, ncol=n)
matn=matrix(1, nrow=n)
matiden=diag(1,n,n)
komx1=seq(0.01,max(xk)-min(xk)+0.01,(max(xk)-min(xk))/int.k)
selisih2=(max(x[,1])-min(x[,1]))/(int.s+2)
komx2=seq(min(x[,1])+selisih2,max(x[,1])-selisih2,selisih2)
selisih3=(max(x[,2])-min(x[,2]))/(int.s+2)
komx3=seq(min(x[,2])+selisih3,max(x[,2])-selisih3,selisih3)
selisih4=(max(x[,3])-min(x[,3]))/(int.s+2)
komx4=seq(min(x[,3])+selisih4,max(x[,3])-selisih4,selisih4)
selisih5=(max(x[,4])-min(x[,4]))/(int.s+2)
komx5=seq(min(x[,4])+selisih5,max(x[,4])-selisih5,selisih5)
a=int.s
c=0
for (j in 1:(int.s-1))
{
b=0
a=a-j
for (i in 1:(int.s-j))
{
b=b+a
a=a-1
}
a=int.s
c=c+b
}
nkom=(int.k+1)*(c^nx)
k=matrix(1,1,13)
s=1
r=matrix(1,nkom,13)
for (a in 1:int)
{
77
k[1]=komx2[a]
for (b in (a+1):(int+1))
{
k[2]=komx2[b]
for (c in (b+1):(int+2))
{
k[3]=komx2[c]
for (d in 1:int)
{
k[4]=komx3[d]
for (e in (d+1):(int+1))
{
k[5]=komx3[e]
for (f in (e+1):(int+2))
{
k[6]=komx3[f]
for (g in 1:int)
{
k[7]=komx4[g]
for (h in (g+1):(int+1))
{
k[8]=komx4[h]
for (p in (h+1):(int+2))
{
k[9]=komx4[p]
for (l in 1:int)
{
k[10]=komx5[l]
for (m in (l+1):(int+1))
{
k[11]=komx5[m]
for (o in (m+1):(int+2))
{
k[12]=komx5[o]
for (p in 1:(int.k+1))
{
k[13]=komx1[p]
r[s,]=k
s=s+1
}}}}}}}}}}}}}
GCV=matrix(1,nkom,1)
R2=matrix(1,nkom,1)
for (v in 1:nkom)
{
aa=GCVmin(r[v,])
GCV[v]=aa$gcv
}
knot.alpha.GCV=cbind(r,GCV)
colnames(knot.alpha.GCV)=c("k11","k12","k13","k21","k22","k23","k3
1","k32","k33","k41","k42","k43","alpha","GCV") #memberi nama
variabel
gcv.sort=knot.alpha.GCV[order(knot.alpha.GCV[,14]),]
hasil=gcv.sort[1:50,1:14]
78
optimalsort=matrix(1,50,15)
aa=matrix(1,1,15)
optim=0
gcvopt=0
for (i in 1:50)
{
opt = nlminb(gcv.sort[i,1:13],GCVmin2)
knotalpha.opt=opt$par
optim=GCVmin(knotalpha.opt)
gcvopt=optim$gcv
mseopt=optim$mse
aa[1:13]=knotalpha.opt
aa[14]=gcvopt[1]
aa[15]=mseopt[1]
optimalsort[i,]=aa
}
colnames(optimalsort)=c("k11","k12","k13","k21","k22","k23","k31",
"k32","k33","k41","k42","k43","alpha","GCV","MSE")
optimalsort=optimalsort[order(optimalsort[,14]),]
optimalsort
optimal=GCVmin(optimalsort[1,1:13])
optimalsort[1,1:13]
optimalsort[1,14]
optimalsort[1,15]
optimal$Rsquare
optimal$teta
#optimal=GCVmin(optimalsort[24,1:13])
#optimalsort[24,1:13]
#optimalsort[24,14]
#optimalsort[24,15]
#optimal$Rsquare
#optimal$teta
79
Lampiran 5. Output Hasil Program Regresi Campuran Kernel dan Spline
Truncated Linier Multivariabel 1 Titik Knot Menggunakan
Software R
> optimalsort
k11 k21 k31 k41 alpha GCV MSE
[1,] 535.8943 33.22000 391.5113 8.084172 50.086936 0.2477013 0.1558662
[2,] 535.7364 33.22000 391.5100 8.084167 12.437285 0.2477135 0.1558741
[3,] 535.8607 33.22000 391.5100 8.084421 7.013215 0.2477298 0.1558772
[4,] 555.7780 30.37755 391.5100 7.923009 6.906455 0.2526183 0.1585941
[5,] 958.1474 33.22000 391.5100 8.146813 8.258792 0.2536875 0.1604852
[6,] 682.0207 33.09796 391.5087 8.066426 20.018422 0.2541299 0.1594032
[7,] 857.3226 33.21954 391.4687 8.124781 8.805228 0.2541809 0.1605043
[8,] 682.0200 30.56663 391.5100 7.932973 212.125336 0.2543013 0.1594186
[9,] 535.7915 31.22744 391.5101 18.282163 35.439419 0.2552031 0.1610411
[10,] 535.6091 32.20571 391.5100 15.395069 7.868713 0.2552313 0.1610564
[11,] 535.1684 32.16967 391.5100 15.407839 7.316283 0.2552514 0.1610745
[12,] 758.0194 33.17864 391.5100 8.082365 31.046347 0.2553653 0.1606456
[13,] 757.3535 33.22000 391.5100 8.084176 11.759194 0.2553792 0.1606506
[14,] 541.0707 30.46932 391.6116 5.355951 6.886232 0.2561423 0.1615952
[15,] 535.8600 33.21788 391.5100 9.035653 8.051695 0.2576480 0.1558433
[16,] 535.8560 31.44329 391.5100 8.561819 6.907826 0.2576580 0.1558476
[17,] 549.5526 30.44997 391.5100 5.825414 4.916952 0.2583242 0.1629121
[18,] 549.7114 30.44345 391.5168 6.003857 6.004102 0.2583429 0.1629269
[19,] 512.2592 32.91305 391.5100 8.771358 23.824724 0.2590383 0.1569214
[20,] 672.5775 33.15861 391.4540 15.982303 35.486546 0.2597030 0.1633794
[21,] 658.8065 30.45328 391.5100 5.688094 4.929969 0.2600847 0.1636084
[22,] 757.8576 30.46542 391.5100 5.956688 4.969566 0.2618197 0.1652501
[23,] 757.8785 31.26090 391.5100 15.475421 4.339437 0.2618312 0.1652533
[24,] 757.8483 30.57420 391.5100 5.976759 4.341043 0.2618313 0.1652532
[25,] 958.1275 30.48864 391.5100 6.325241 7.844184 0.2620956 0.1659529
[26,] 958.0966 30.55334 391.5100 4.820189 5.234111 0.2621168 0.1659597
[27,] 958.1269 30.48740 391.5100 5.213158 4.583151 0.2621285 0.1659635
[28,] 958.1072 31.41227 391.5100 6.245452 4.375458 0.2621333 0.1659651
[29,] 857.9576 30.50519 391.5100 6.742270 7.389239 0.2621464 0.1658998
[30,] 857.9819 30.90976 391.5100 5.920550 6.468064 0.2621521 0.1659017
[31,] 857.9481 31.25915 391.5100 15.479923 4.414744 0.2621797 0.1659102
[32,] 857.9801 30.79965 391.5100 5.704722 4.335051 0.2621817 0.1659109
[33,] 657.6126 30.37877 376.1881 7.921114 6.810096 0.2642453 0.1657797
[34,] 658.2808 32.87719 391.5100 9.001321 14.074662 0.2643958 0.1596154
[35,] 658.1714 32.71849 391.5100 9.035694 6.976654 0.2644154 0.1596224
[36,] 658.0658 31.31694 391.5100 9.008470 4.300701 0.2644542 0.1596353
[37,] 958.0895 32.87811 391.5100 8.977131 18.139633 0.2649585 0.1604750
[38,] 857.7771 31.34435 391.5004 9.109462 29.927306 0.2649592 0.1604762
[39,] 958.0735 32.15814 391.5100 9.106547 9.277416 0.2649688 0.1604785
[40,] 857.4030 31.34688 391.4549 9.049894 17.313920 0.2649694 0.1604827
[41,] 958.0795 31.65404 391.5100 8.857268 5.014021 0.2650028 0.1604900
[42,] 857.9584 33.07496 391.5100 9.102971 4.609518 0.2650131 0.1604937
[43,] 758.0068 33.21907 391.5100 9.039636 5.587791 0.2653779 0.1606108
[44,] 757.9503 32.22964 391.5100 9.007438 4.512226 0.2653994 0.1606181
[45,] 757.9676 31.29273 391.5100 8.984189 4.460273 0.2654006 0.1606185
[46,] 658.5395 32.56949 391.5100 14.920009 13.541814 0.2654611 0.1598833
[47,] 757.7603 32.99288 391.5100 14.944405 5.076935 0.2676394 0.1617411
[48,] 958.0988 31.57331 377.1489 15.357494 2.194997 0.2695091 0.1706636
[49,] 857.9360 31.53097 375.9306 15.357447 1.589009 0.2713144 0.1716767
[50,] 958.1083 31.53603 375.9473 15.357486 2.147826 0.2797065 0.1696129
> optimal=GCVmin(optimalsort[1,1:5])
> optimalsort[1,1:5]
k11 k21 k31 k41 alpha
535.894335 33.219999 391.511280 8.084172 50.086936
> optimalsort[1,6]
GCV
0.2477013
> optimalsort[1,7]
MSE
0.1558662
> optimal$Rsquare
[1] 0.809154
> optimal$teta
[,1]
80
[1,] -0.572211867
[2,] 0.010035931
[3,] 0.509235773
[4,] -0.007111473
[5,] -2.520642087
[6,] -0.004429976
[7,] -0.472904208
[8,] 0.013912435
[9,] 2.528265404
81
Lampiran 6. Output Hasil Program Regresi Campuran Kernel dan Spline
Truncated Linier Multivariabel 2 Titik Knot Menggunakan
Software R > optimalsort
k11 k12 k21 k22 k31 k32 k41 k42
[1,] 549.6736 958.1051 36.16000 39.79404 279.6132 391.5099 9.948690 12.83006
[2,] 549.8865 958.1533 36.16000 39.83532 279.6253 391.5206 9.947921 12.83000
[3,] 550.1292 958.1087 36.16000 39.80192 279.6147 391.5175 9.950786 12.83002
[4,] 549.2031 858.3215 36.16000 39.80437 279.5922 391.5101 9.970000 12.83002
[5,] 549.6119 858.5652 36.16000 39.81943 279.6111 391.5058 9.969836 12.83001
[6,] 550.0339 858.5252 36.16000 39.85623 279.6149 391.5058 9.969998 12.83030
[7,] 550.2694 858.4142 36.16000 39.81358 279.6113 391.5019 9.970000 12.83063
[8,] 550.0595 656.2516 34.12180 40.51613 279.6169 391.6025 10.196157 11.62000
[9,] 554.5689 658.6488 34.14567 40.64042 279.6160 391.5374 10.256060 11.62000
[10,] 555.9803 658.3198 34.44360 40.42131 279.6068 389.2869 10.480000 11.04043
[11,] 529.7117 876.9929 35.08384 39.56260 278.0914 395.2119 9.977198 12.82816
[12,] 542.9975 657.8427 34.35430 39.54000 279.6244 391.5098 10.062887 12.86369
[13,] 541.7122 656.4611 34.34187 39.54000 279.6725 391.5505 10.053209 12.89351
[14,] 535.4734 777.6652 34.35367 40.61059 279.8555 395.1236 10.137679 11.64306
[15,] 545.5732 658.2050 34.36745 39.54000 279.6857 393.0187 10.063844 12.85372
[16,] 549.2277 649.1536 34.37695 39.54170 281.0177 391.5544 10.067039 12.87737
[17,] 549.1950 658.0581 34.37714 39.54000 279.6138 391.8665 10.065178 12.88478
[18,] 535.8530 800.3649 34.78464 39.69527 278.5372 396.2038 9.996131 12.83000
[19,] 552.1171 760.3266 34.32657 40.94944 279.6079 393.4726 10.149988 11.62000
[20,] 535.8071 766.3171 34.63971 39.64736 279.5487 389.7076 10.035929 12.82999
[21,] 557.3730 958.1083 35.36983 40.95860 279.6134 375.9215 10.056448 11.62000
[22,] 557.3740 958.1083 35.37282 40.95967 279.6133 375.9180 10.074858 11.62000
[23,] 557.4040 657.6180 34.38883 40.91440 279.6133 376.0900 10.280000 11.01954
[24,] 557.3783 857.9395 35.20843 40.86692 279.6133 375.9022 10.097974 11.62000
[25,] 547.9104 760.1717 34.67270 39.80472 279.6100 391.5601 10.026421 12.83000
[26,] 557.2361 958.1083 36.16000 39.86252 279.6134 376.1593 9.893210 12.99834
[27,] 548.0905 760.0825 34.66487 39.75272 279.6114 391.6266 10.035713 12.83000
[28,] 557.3805 857.9394 35.24275 40.95609 279.6133 375.9036 10.090714 11.62000
[29,] 541.3308 640.1599 32.08511 40.30021 279.8250 391.5124 8.060986 14.03852
[30,] 557.3680 657.5768 34.40652 40.42091 423.7400 471.8969 8.273137 11.62020
[31,] 542.1509 640.2219 33.92259 39.55393 279.6560 391.6848 9.036878 13.29196
[32,] 539.7998 650.0017 33.87635 39.63440 279.6321 391.5100 9.202630 13.81461
[33,] 557.3709 657.5798 34.42454 40.27309 423.7506 471.8978 8.276027 11.40170
[34,] 543.8357 958.1113 36.16000 39.94604 279.6221 389.2219 9.147517 13.21890
[35,] 535.9462 958.0867 35.52979 39.54000 279.5368 332.9757 10.119994 12.98928
[36,] 544.3333 958.1110 36.16000 39.89826 279.6016 389.0992 9.176799 13.19611
[37,] 535.8606 662.9021 34.90507 39.54000 279.6020 350.6178 10.132079 13.08154
[38,] 543.9098 858.0552 35.61749 39.54000 279.6150 334.7923 10.121179 13.03760
[39,] 545.1995 958.0547 35.63568 39.54000 279.6095 335.9023 10.085067 13.05340
[40,] 543.0260 640.2200 33.99603 40.36254 279.6136 387.6208 9.123303 -18.41784
[41,] 548.5451 657.2556 33.72520 40.79393 279.6147 391.5131 9.136862 12.02000
[42,] 552.3246 659.2889 35.07011 39.53993 279.6111 327.5355 10.280000 12.85716
[43,] 547.5863 657.7905 35.10134 39.43668 279.7662 325.3141 10.280000 12.89537
[44,] 544.8005 762.9296 35.33728 39.54000 279.6156 335.1547 10.226560 13.07567
[45,] 535.8589 858.0792 34.31901 40.01379 279.6118 391.5100 9.183066 13.11122
[46,] 546.7574 759.0881 35.33770 39.54000 279.6439 335.5287 10.274730 12.97342
[47,] 535.8598 858.0608 34.30844 40.09918 279.6149 391.5100 9.137273 13.90788
[48,] 557.3595 657.5804 34.60821 39.75906 423.7472 471.8966 8.258826 12.70990
[49,] 557.3476 657.5773 34.61268 39.83592 423.7276 471.8917 8.258818 12.71216
[50,] 557.3446 857.9368 35.58405 39.54000 279.6134 327.7273 10.207755 12.83000
alpha GCV MSE
[1,] 19.087489 0.1615691 0.07406855
[2,] 13.931829 0.1616504 0.07409359
[3,] 19.513730 0.1616970 0.07411741
[4,] 25.070550 0.1626529 0.07433129
[5,] 15.393779 0.1627370 0.07436364
[6,] 8.689574 0.1628829 0.07441495
[7,] 11.705683 0.1629146 0.07444140
[8,] 27.865185 0.1638126 0.07403796
[9,] 19.150274 0.1641383 0.07402201
[10,] 13.324980 0.1643609 0.07387006
[11,] 160.971539 0.1653923 0.07598936
[12,] 44.366151 0.1670376 0.07579161
[13,] 28.767968 0.1670895 0.07584630
82
[14,] 15.885732 0.1673596 0.07642625
[15,] 27.581677 0.1675841 0.07598569
[16,] 29.674155 0.1677344 0.07598208
[17,] 38.441499 0.1679067 0.07611188
[18,] 28.668988 0.1684645 0.07723483
[19,] 20.742396 0.1704901 0.07761078
[20,] 31.998952 0.1710102 0.07837239
[21,] 2.664828 0.1729806 0.07906494
[22,] 1.823313 0.1734911 0.07924288
[23,] 1.790316 0.1736255 0.07826031
[24,] 2.573632 0.1738098 0.07927406
[25,] 20.320448 0.1739821 0.07961737
[26,] 2.690908 0.1739881 0.07994994
[27,] 36.035584 0.1740501 0.07964822
[28,] 1.811982 0.1742896 0.07944900
[29,] 32.033328 0.1785419 0.08658762
[30,] 1.515972 0.1840536 0.08594233
[31,] 36.818034 0.1842310 0.08470344
[32,] 10.176374 0.1842503 0.08506782
[33,] 1.911180 0.1869823 0.08746265
[34,] 21.153612 0.1880050 0.08735915
[35,] 37.709154 0.1880590 0.08712241
[36,] 24.052573 0.1880673 0.08739683
[37,] 62.708103 0.1888386 0.08603355
[38,] 27.513652 0.1890204 0.08736345
[39,] 34.159326 0.1891592 0.08765649
[40,] 20.258686 0.1892284 0.09426656
[41,] 14.783870 0.1900981 0.08707749
[42,] 11.344262 0.1915617 0.08716125
[43,] 22.442039 0.1916731 0.08732208
[44,] 58.223369 0.1924414 0.08856119
[45,] 27.844291 0.1927884 0.08968885
[46,] 26.896339 0.1929014 0.08861007
[47,] 37.123138 0.1929311 0.09011835
[48,] 1.936414 0.1932682 0.09034093
[49,] 1.514284 0.1937990 0.09053972
[50,] 1.349057 0.1961448 0.09031165
> optimal=GCVmin(optimalsort[1,1:9])
> optimalsort[1,1:9]
k11 k12 k21 k22 k31 k32 k41 k42
549.67361 958.10510 36.16000 39.79404 279.61319 391.50989 9.94869 12.83006
alpha
19.08749
> optimalsort[1,10]
GCV
0.1615691
> optimalsort[1,11]
MSE
0.07406855
> optimal$Rsquare
[1] 0.9093134
> optimal$teta
[,1]
[1,] -11.29827455
[2,] 0.01441857
[3,] 0.20957879
[4,] 0.02251787
[5,] -0.97060934
[6,] -0.01250332
[7,] 0.01574579
[8,] -0.50944848
[9,] 0.38978604
[10,] -0.03569924
[11,] 0.02247054
[12,] 1.20600882
[13,] -0.56388035
83
Lampiran 7. Output Hasil Program Regresi Campuran Kernel dan Spline
Truncated Linier Multivariabel 3 Titik Knot Menggunakan
Software R > optimalsort
k11 k12 k13 k21 k22 k23 k31 k32 k33
[1,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 327.6867 375.7600
[2,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 327.6867 375.7600
[3,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 327.6867 375.7600
[4,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 327.6867 375.7600
[5,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 327.6867 375.7600
[6,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 327.6867 375.7600
[7,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 327.6867 375.7600
[8,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 327.6867 375.7600
[9,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 327.6867 375.7600
[10,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 327.6867 375.7600
[11,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 327.6867 375.7600
[12,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 327.6867 375.7600
[13,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 327.6867 375.7600
[14,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 327.6867 375.7600
[15,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 327.6867 375.7600
[16,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 327.6867 375.7600
[17,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 327.6867 423.8333
[18,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 327.6867 423.8333
[19,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 327.6867 423.8333
[20,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 327.6867 423.8333
[21,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 327.6867 423.8333
[22,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 327.6867 423.8333
[23,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 327.6867 423.8333
[24,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 327.6867 423.8333
[25,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 327.6867 423.8333
[26,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 327.6867 423.8333
[27,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 327.6867 423.8333
[28,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 327.6867 423.8333
[29,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 327.6867 423.8333
[30,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 327.6867 423.8333
[31,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 327.6867 423.8333
[32,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 327.6867 423.8333
[33,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 375.7600 423.8333
[34,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 375.7600 423.8333
[35,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 375.7600 423.8333
[36,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 375.7600 423.8333
[37,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 375.7600 423.8333
[38,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 375.7600 423.8333
[39,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 375.7600 423.8333
[40,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 375.7600 423.8333
[41,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 375.7600 423.8333
[42,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 375.7600 423.8333
[43,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 375.7600 423.8333
[44,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 375.7600 423.8333
[45,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 375.7600 423.8333
[46,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 375.7600 423.8333
[47,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 375.7600 423.8333
[48,] 557.4217 657.5933 757.765 34.53 38.85 43.17 279.6133 375.7600 423.8333
[49,] 557.4217 657.5933 757.765 34.53 38.85 43.17 327.6867 375.7600 423.8333
[50,] 557.4217 657.5933 757.765 34.53 38.85 43.17 327.6867 375.7600 423.8333
k41 k42 k43 alpha GCV MSE
[1,] 9.156667 10.40333 11.65000 0.01 0.8294373 0.15990037
[2,] 9.156667 10.40333 11.65000 0.31 0.8294373 0.09008858
[3,] 9.156667 10.40333 11.65000 0.61 0.8294373 0.08284138
[4,] 9.156667 10.40333 11.65000 0.91 0.8294373 0.08142125
[5,] 9.156667 10.40333 12.89667 0.01 0.8294373 0.15500769
[6,] 9.156667 10.40333 12.89667 0.31 0.8294373 0.08515860
[7,] 9.156667 10.40333 12.89667 0.61 0.8294373 0.07758328
[8,] 9.156667 10.40333 12.89667 0.91 0.8294373 0.07608145
[9,] 9.156667 11.65000 12.89667 0.01 0.8294373 0.17504383
[10,] 9.156667 11.65000 12.89667 0.31 0.8294373 0.09601976
[11,] 9.156667 11.65000 12.89667 0.61 0.8294373 0.08685108
[12,] 9.156667 11.65000 12.89667 0.91 0.8294373 0.08500785
[13,] 10.403333 11.65000 12.89667 0.01 0.8294373 0.16633356
84
[14,] 10.403333 11.65000 12.89667 0.31 0.8294373 0.08738196
[15,] 10.403333 11.65000 12.89667 0.61 0.8294373 0.07862461
[16,] 10.403333 11.65000 12.89667 0.91 0.8294373 0.07691274
[17,] 9.156667 10.40333 11.65000 0.01 0.8294373 0.16000471
[18,] 9.156667 10.40333 11.65000 0.31 0.8294373 0.08682738
[19,] 9.156667 10.40333 11.65000 0.61 0.8294373 0.08066613
[20,] 9.156667 10.40333 11.65000 0.91 0.8294373 0.07959493
[21,] 9.156667 10.40333 12.89667 0.01 0.8294373 0.15632655
[22,] 9.156667 10.40333 12.89667 0.31 0.8294373 0.08090982
[23,] 9.156667 10.40333 12.89667 0.61 0.8294373 0.07334687
[24,] 9.156667 10.40333 12.89667 0.91 0.8294373 0.07192595
[25,] 9.156667 11.65000 12.89667 0.01 0.8294373 0.17495801
[26,] 9.156667 11.65000 12.89667 0.31 0.8294373 0.09410503
[27,] 9.156667 11.65000 12.89667 0.61 0.8294373 0.08502501
[28,] 9.156667 11.65000 12.89667 0.91 0.8294373 0.08327302
[29,] 10.403333 11.65000 12.89667 0.01 0.8294373 0.16791764
[30,] 10.403333 11.65000 12.89667 0.31 0.8294373 0.08244739
[31,] 10.403333 11.65000 12.89667 0.61 0.8294373 0.07395416
[32,] 10.403333 11.65000 12.89667 0.91 0.8294373 0.07238105
[33,] 9.156667 10.40333 11.65000 0.01 0.8294373 0.17181822
[34,] 9.156667 10.40333 11.65000 0.31 0.8294373 0.09228771
[35,] 9.156667 10.40333 11.65000 0.61 0.8294373 0.08338463
[36,] 9.156667 10.40333 11.65000 0.91 0.8294373 0.08166671
[37,] 9.156667 10.40333 12.89667 0.01 0.8294373 0.17449306
[38,] 9.156667 10.40333 12.89667 0.31 0.8294373 0.09406192
[39,] 9.156667 10.40333 12.89667 0.61 0.8294373 0.08364949
[40,] 9.156667 10.40333 12.89667 0.91 0.8294373 0.08155254
[41,] 9.156667 11.65000 12.89667 0.01 0.8294373 0.19141014
[42,] 9.156667 11.65000 12.89667 0.31 0.8294373 0.10566719
[43,] 9.156667 11.65000 12.89667 0.61 0.8294373 0.09389925
[44,] 9.156667 11.65000 12.89667 0.91 0.8294373 0.09150594
[45,] 10.403333 11.65000 12.89667 0.01 0.8294373 0.18377354
[46,] 10.403333 11.65000 12.89667 0.31 0.8294373 0.09328691
[47,] 10.403333 11.65000 12.89667 0.61 0.8294373 0.08267333
[48,] 10.403333 11.65000 12.89667 0.91 0.8294373 0.08057470
[49,] 9.156667 10.40333 11.65000 0.01 0.8294373 0.18932155
[50,] 9.156667 10.40333 11.65000 0.31 0.8294373 0.10652264
> optimal=GCVmin(optimalsort[1,1:13])
> optimalsort[1,1:13]
k11 k12 k13 k21 k22 k23 k31
557.421667 657.593333 757.765000 34.530000 38.850000 43.170000 279.613333
k32 k33 k41 k42 k43 alpha
327.686667 375.760000 9.156667 10.403333 11.650000 0.010000
> optimalsort[1,14]
GCV
0.8294373
> optimalsort[1,15]
MSE
0.1599004
> optimal$Rsquare
[1] 0.938735
> optimal$teta
[,1]
[1,] -31.725978959
[2,] 0.008140908
[3,] 0.499412060
[4,] 0.031795165
[5,] 0.353629404
[6,] -0.011902813
[7,] 0.016713860
[8,] -0.010366091
[9,] -0.726019496
[10,] 0.288915938
[11,] -0.028246703
[12,] -0.060113493
[13,] 0.033932236
[14,] -0.003224124
[15,] -1.261164349
[16,] 1.345014627
[17,] -0.490184573
> #optimal=GCVmin(optimalsort[24,1:13])
> #optimalsort[24,1:13]
85
> #optimalsort[24,14]
> #optimalsort[24,15]
> #optimal$Rsquare
> #optimal$teta
>
> optimal=GCVmin(optimalsort[24,1:13])
> optimalsort[24,1:13]
k11 k12 k13 k21 k22 k23 k31
557.421667 657.593333 757.765000 34.530000 38.850000 43.170000 279.613333
k32 k33 k41 k42 k43 alpha
327.686667 423.833333 9.156667 10.403333 12.896667 0.910000
> optimalsort[24,14]
GCV
0.8294373
> optimalsort[24,15]
MSE
0.07192595
> optimal$Rsquare
[1] 0.9133348
> optimal$teta
[,1]
[1,] -28.754153897
[2,] 0.012896332
[3,] 0.569669129
[4,] 0.022853431
[5,] -0.262947904
[6,] -0.013445618
[7,] 0.011505785
[8,] -0.006533385
[9,] -0.971907676
[10,] 0.616591578
[11,] -0.141452997
[12,] -0.054295541
[13,] 0.029905589
[14,] 0.009104511
[15,] -0.249475486
[16,] 0.911724932
[17,] -0.822492074
86
“Halaman ini sengaja dikosongkan”
57
DAFTAR PUSTAKA
Aljuhani, K. H. & Al turk, L. I. (2014). Modification of the Adaptive Nadaraya-
Watson Kernel Regression Estimator. AcademicJournal. Vol. 9(22), pp.
966-971.
Amato, U., Antoniadis, A. & de Feis, I. (2002). Fourier Series Approximation of
Separable Models, Journal of Computational and Applied Mathematics,
146, 459-479.
Amato, U. & De-Canditiis, D. (2001). Convergenee in Probability of Mallows and
GCV Wavelet and Fourier Regularization Methods, Statistics &
Probability Letters, 54, 325-329.
Antoniadis, A., Bigot, J. & Sapatinas, Y. (2001). Wavelet Estimators in
Nonparametric Regression: A Comparative Simulation Study, Journal of
Statistical Software, 6, 1-83.
Badan Pusat Statistik (2011), Ensiklopedia Indikator Ekonomi dan Sosial,
Publikasi Badan Pusat Statistik, Jakarta.
Badan Pusat Statistik Provinsi Jawa Tengah (2015), Jawa Tengah Dalam Angka
2015, Badan Pusat Statistik Provinsi Jawa Tengah, Semarang.
__________________________________, (2015), Indikator Kesejahteraan
Rakyat Jawa Tengah 2014, Publikasi Badan Pusat Statistik Provinsi Jawa
Tengah, Semarang.
Becher, H., Kauermann, G., Khomski, P., & Kouyate, B. (2009), Using Penalized
Splines to Model Age and Season of Birth Dependent Effects of Childhood
Mortality Risk Fabtors in Rural Burkina Faso, Biometrical Journal, 51,
110-122.
Budiantara, I.N. (2006), Regresi Nonparametrik Dalam Statistika, Makalah
Pembicara Utama pada Seminar Nasional Matematika, Jurusan
Matematika, FMIPA, Universitas Negeri Makasar (UNM), Makasar.
Budiantara, I.N. (2009), Spline Dalam Regresi Nonparametrik dan
Semiparametrik: Sebuah Pemodelan Statistika Masa Kini dan Masa
Mendatang, ITS Press, Surabaya.
58
Budiantara, I.N. (2011), Penelitian Bidang Regresi Spline Menuju Terwujudnya
Penelitian Statistika yang Mandiri dan Berkarakter. Prosiding Seminar
Nasional FMIPA Undiksha, 9-28.
Budiantara, I.N., Lestari, B., dan Islamiyati (2010). Estimator Spline Terbobot
dalam Regresi Nonparametrik dan Semiparametrik Heterokesdastik untuk
Data Longitudinal. Laporan Penelitian Hibah Kompetensi, DP2M-DIKTI,
Jakarta.
Budiantara, I.N. dan Mulianah (2007). Pemilihan Banwidth Optimal Dalam
Regresi Semiparametrik Kernel dan Aplikasinya, Journal Sains dan
Teknologi SIGMA, 10 : 159-166.
Budiantara, I.N., Ratnasari, V., Ratna, M. and Zain, I. (2015), The Combination of
Spline and Kernel estimator for Nonparametrik Regression and Its
Properties, Applied Mathematical Science, 9, No 122, 6083-6094.
Budiantara, I. N., Ratna, M., Zain, I., Wibowo, W. (2012). Modeling the
Percentage of Poor People in Indonesia Using Spline Nonparametric
Regression Approach. International Journal of Basic & Applied Sciences
IJBAS-IJENS vol:12 No:06, 119-124.
Connelly, R. & Zheng, Z. (2003), “Determinants of School Enrollment and
Completion of 10 to 18 Year Olds in China”, Economics of Education
Review, No. 22, 379–388.
Craven, P. & Wahba, G. (1979), Smoothing Noisy Data with Spline Functions,
Numerische Mathematics, 31, 377-403.
Darmawi, H. & Otok, B.W. (2014). Bootstrap Pada Regresi Linier dan Spline
Truncated. Statistika: Forum Teori dan aplikasi Statistika.
Du, P., Parmeter, C. F. and Racine, J.S. (2012). Nonparametric Kernel Regression
with Multiple Predictors and Multiple Shape Constraints. Department Of
Economics Working Paper Series. McMaster University. Canada.
Eubank, R.L., (1999), Nonparametrik Regression and Spline Smoothing,
MarcelDeker : New York.
Faber, D., Douglas, C.Y., Susan K.S. & Stuart, C.W. (2004). Fourier and Wavelet
Analyses of Dental Radiographs Detect Trabucelar Changes in
Osteoporosis, Bone, 35, 403-411.
59
Galtchouk, L. & Pergamenshchikov, S. (2009). Adaptive Asymptotically Efficient
Estimation in Heteroscedastic Nonparametric Regression, Journal of the
Korean Statistical Society, 38, 305-322.
Guidoum, A. C. (2015). Kernel Estimator and Bandwidth selection for Density
and its Derivatives. Working Paper. Faculty of Mathematics. University of
Science and Technology Houari Boumadiene., Algeria.
Hadijati, M. (2004). Estimasi Kernel dalam Regresi Nonparametrik dengan Error
Berkorelasi, Tesis, ITS, Surabaya.
Hardle, W. (1990), Applied Non-parametrik Regression, Cambridge University
Press, Cambridge.
He, H. & Huang, L-S. (2009). Double Smoothing for Bias Reduction in Local
Linier Regression, Journal of Statistical Planning and Inference, 139,
1056-1072.
Hong, S.Y. (1999). Automatic Bandwith Choice in a Semiparametrik Regression
Model, Statistica Sinica, 9 : 775-794.
Huang, J. Z., & Liu, L. (2006), Polynomial Spline Estimation and Inference of
Proportional Hazards Regression Models with Flexible Relative Risk
Form, Biometrics, 62, 793-802.
Huisman, J., Rani, U., Smits, J. (2010), School Characteristics, Socio-Economic
Status and Culture as Determinants of Primary school Enrolment in India,
Nice Working Paper 10-109. Institute for Management research radboud
Univerty Nijmegen, the Netherland.
http://www.djpk.kemenkeu.go.id/ diakses hari minggu tanggal 22 Nopember 2015
pukul 11.09
Kayri, M. and Gu, C. (2004). Smoothing Spline Gaussian Regression: More
Sealable Computation Via Efficient Approximation. Royal Statistical
Society. Series B, 66 (2), 337-356.
Kayri, M. and Zirhlioglu, G. (2009). Kernel Smoothing Function and Choosing
Bandwitdh for Nonparametric Regression Methods, Ozean Journal of
Applied Sciences, 2, 49-54.
60
Martins-Filho, C. & Yao, F. (2009). Nonparametric Regression Estimation With
General Parametric Error Covariance, Journal of Multivariate Analysis,
100, 309-333.
Melliana, A. (2013). Analisis Statistika Faktor Yang Mempengaruhi Indeks
Pembangunan Manusia Di Kabupaten/Kota Provinsi Jawa Timur dengan
Menggunakan Regresi Panel. Tugas Akhir, Institut Teknologi Sepuluh
Nopember Surabaya, Surabaya.
Montgomery, C.D. & Hines, W.W. (1972). Probability and Statistics in
Engineering and Management science (second edition). John Willey &
Sons, New York.
Nadaraya, E.A. (1964), On Estimating Regression. Theory of Probability and its
Applications 9(1): 141+2. 141-142.
Okumura, H. and Naito, K. (2006), Non-Parametrik Kernel Regression for
Multinomial Data, Journal of Multivariate Analysis, 97, 2009-2022.
Otok, B.W. (2006). Optimize Knot and Basic Function At Truncated Spline and
Mltivariate Adapative Regression Spline. Proceedings of the first
international conference on mathematics and statistics ICOMS 1 june 19-
21 2006 Bandung West Java. Indonesia.
Parikh, A. and Sadoulet, E. (2005), “The Effect of Parents’ Occupation on Chil
Labor and School Attendance in Brazil”.
Qingguo, T. (2010), L1-Estimation in Semiparametric Model with Longitudinal
Data, Journal of Statistical Planning and Inference, 140, 393-405.
Rakotomamonjy, K., Mary, X. & Canu, S. (2005). Nonparametric Regression
with Wavelet Kernels. Appl. Statistic Models in Business and Industry.,
21: 153-163. 10.1002/asmb.533.
Ratnasari, V., Budiantara, I. N., Zain, I. Ratna, M. & Mariati, N. P .A . M.
(2015). Comparison Truncated Spline and Fourier Series in Multivariable
Nonparametric Regresssion Model (Application: Data of Poverty in Papua,
Indonesia). International Journal of Basic & Applied Sciences IJBAS-
IJENS Vol : 15 N0:04, 9-14.
Rencher, A. and Schaalje, G. (2008), Linear Models in Statistics, 2nd Edition,
John Willey and Sons Inc., New Jersey.
61
Santoso, B. (2009), Pendekatan Spline Multivariabel dan MARS Untuk
Memodelkan Lama sekolah pada Penduduk Usia sekolah di Provinsi
Papua. Tesis, Institut Teknologi Sepuluh Nopember Surabaya, Surabaya.
Setyawan, N.A.D. (2011), Pendekatan Regresi Nonparametrik Birespon Spline
Untuk Memodelkan Determinan Tingkat Pendidikan di Pulau Papua.
Tesis, Institut Teknologi Sepuluh Nopember Surabaya, Surabaya.
Solikhah, A. (2009), Analisis Rata-rata Lama Sekolah di Pulau Kalimantan
Menggunakan Model Spatial Conditional Autoregression (CAR). Tesis,
Institut Teknologi Sepuluh Nopember Surabaya, Surabaya.
Su, L. & Ullah, A. (2008). Local Polynomial Estimation Of Nonparametric
Simultaneous Equations Models, Journal of Econometrics, 144, 193-218.
Sudiarsa, I. W., Budiantara, I. N., Suhartono, Purnami, S.W. (2015), Combined
Estimator Fourier Series and Spline Truncated in Multivariabel
Nonparametrik Regression, Applied Mathematical Science, Vol.9, 2015,
no. 100, 4997-5010, HIKARI Ltd.
Taylor, L. W. (2009). Using the Haar Wavelet Transform in the Semiparametric
Specification of Time Series, Economic Modeling, 26, 392-403.
Tripena, A. & Budiantara, I. N. (2007). Fourier Estimator in Nonparametric
Regression, Prociding International Conference on Natural Sciences and
Applied Natural Sciences, Ahmad Dahlan University, Yogyakarta.
UNDP. (2014), Human Development Report 2014, UNDP, Washington DC, USA.
Wahba G. (1990), Spline Models for Observational Data, SIAM Pensylvania.
Watson. G.S. (1964), Smooth Regression Analysis. Sankhya: The Indian Journal
of Statistic, series A 26 (4), 359-372.
Welsh, A. H. & Yee, T. W. (2006). Lokal Regression for Vector Responses.
Journal of Statistical Planning and Inference, 136, 3007-3031.
Yao, F. (2007), Asymptotic Distribution of Nonparametrik Regression Estimators
for Longitudinal or Fuctional Data, Journal of Multivariate Analysis, 98,
40-56.
Zhao, M. and Glewwe, P. (2009), What Determines Basic School Attainment In
Developing Countries? Evidence From Rural China, Economics of
Education review, University of Pennsylvania.
62
“Halaman ini sengaja dikosongkan”
87
BIOGRAFI PENULIS
Bernama lengkap Ali Akbar Sanjaya Ilham Purnomo,
lahir di Manado tanggal 1 Juli 1977. Penulis
merupakan anak ke tiga dari lima bersaudara dari
pasangan suami istri, Purnomo Ilham Suhadi (Alm)
dan Ade Dedeh Rukiyati. Berdomisili di Kota
Buntok, Kalimantan Tengah penulis didampingi
kekasih hati istri tercinta: Dewi Yanti, dan tiga
permata hati : Adam Surya Permana, Adinda Alya
Putri dan Dimas Muhammad Ilham. Pendidikan
formal yang telah ditempuh penulis adalah SDN 22
Carangan, Baluwarti-Solo, SMP Negeri 6 Surakarta,
SMA Negeri 2 Surakarta. Pada tahun 1995 penulis melanjutkan pendidikan di
sekolah kedinasan di bawah naungan Badan Pusat Statistik (BPS), yaitu Akademi
Ilmu Statistik (AIS) dan lulus tahun1999 langsung bekerja di Kantor Statistik
Kabupaten Barito Selatan, Provinsi Kalimantan Tengah. Pada Tahun 2001 penulis
melanjutkan pendidikan D-IV Statistika di Sekolah Tinggi Ilmu Statistik (STIS)
dengan peminatan jurusan Statistik Ekonomi. Setelah menyelesaikan pendidikan
di STIS, pada tahun 2002 penulis kembali bertugas di seksi Statistik Sosial BPS
Kabupaten Barito Selatan. Sejak tahun 2012 penulis mutasi ke Seksi Statistik
Kesejahteraan Rakyat BPS Provinsi Kalimantan Tengah. Pada tahun 2014,
penulis mendapatkan kesempatan untuk melanjutkan studi S2 di Jurusan
Statistika, Fakultas Matematika dan Ilmu Pengetahuan Alam, Institut Teknologi
Sepuluh Nopember, Surabaya.
Surabaya, Januari 2016