BAB
IV
1. REGRESI LINIER BERGANDA
Pengertian Regresi linier Berganda
Pada bab sebelumnya telah
dibahas tentang regresi linier dengan 2 (dua) variabel (yaitu variabel Y dan X)atau
biasa disebut dengan single linier regression. Pada bab ini jumlah variabel yang digunakan akan ditambah
menjadi lebih banyak, yaitu satu variabel Y dan
jumlah variabel X nya lebih dari 1 (satu)
variabel. Artinya, variabel X bisa berjumlah
2, 3, atau lebih. Jumlah X yang lebih dari
satu tersebut terkenal dengan istilah Regresi Linier
Berganda atau multiple linier regression. Bertambahnya jumlah variabel X
hingga lebih dari satu sangat memungkinkan, karena dalam keilmuan social semua
faktor-vaktor atau variabel-variabel saling berkaitan satu dengan lainnya. Sebagai
misal, munculnya inflasi tentu tidak hanya dipengaruhi oleh bunga deposito
(budep), tetapi sangat mungkin dipengaruhi oleh faktor lain seperti perubahan
nilai tukar (kurs), jumlah uang beredar, kelangkaan barang, dan lain-lain.
Sebagaimana dalam teori inflasi, inflasi dapat digolongkan sebagai inflasi
karena tarikan permintaan dan inflasi desakan biaya. Inflasi tarikan permintaan
terjadi apabila masyarakat banyak memegang uang. Tentu secara singkat dapat
diartikan bahwa terdapat jumlah kelebihan jumlah uang beredar yang ada di
masyarakat. Inflasi desakan biaya mempunyai sebab yang hampir serupa. Inflasi
jenis ini terjadi akibat melonjaknya harga-harga faktor produksi. Kalau
ditelusuri, melonjaknya hargaharga faktor. Produksi dapat disebabkan banyak hal
seperti semakin langkanya jenis barang, tuntutan kenaikan gaji pekerja, semakin
mahalnya ongkos transportasi, atau bisa juga disebabkan oleh adanya perubahan
nilai tukar mata uang juga. Dari uraian singkat ini dapat disimpulkan bahwa
pemicu terjadinya inflasi desakan biaya karena perubahan pada sisi supply,
sedang inflasi tarikan permintaan disebabkan perubahan pada sisi demand.
Maka untuk semakin memperjelas perihal terjadinya inflasi, dapat dicoba
menambah satu variabel penduga (X) Karena jumlah variabel X tidak lagi satu
melainkan sudah dua, maka analisa yang akan digunakan adalah analisa regresi
linier berganda. Perubahan model dari bentuk single ke dalam bentuk multiple
mengalami beberapa perubahan, meliputi: 1)jumlah variabel penjelasnya
bertambah, sehingga spesifikasi model dan data terjadi penambahan. 2) rumus
penghitungan nilai b mengalami perubahan, 3) jumlah degree of freedom dalam
menentukan nilai t juga berubah.
Model Regresi Linier
Berganda
Penulisan model regresi
linier berganda merupakan pengembangan dari model regresi linier tunggal. Perbedaannya hanya terdapat pada jumlah variabel X
saja.Dalam regresi linier tunggal hanya satu X, tetapi dalam regresi linier berganda variabel X lebih dari satu. Model
regresi linier umumnya dituliskan sebagai berikut:
Populasi: Y = A + B1X1+ B2X2+ B3X3+ ………+BnXn+ e
Atau Y = B0+ B1X1+
B2X2+ B3X3+ ………+BnXn+ e
Sampel : Y = a + b1X1+ B2X2+ B3X3………+BnXn+ e
Atau Y = B0+ B1X1+
B2X2+ B3X3+ ………+BnXn+ e
Perlu diingat bahwa
penulisan model sangat beragam. Hal ini dapat dimengerti karena penulisan model
sendiri hanya bertujuan sebagai teknik anotasi untuk memudahkan interpretasi.
Penulisan cara di atas adalah bentuk model yang sering dijumpai dalam beberapa
literatur. Notasi model seperti itu tentu berbeda dengan notasi model Yale.
maka notasi model menjadi seperti
berikut:
Populasi: Y = B1.23+ B12.3X2i+B13.2 X3i + e
Sampel : Y = b1.23+ b12.3X2i+ b13.213.2X3i+ e
Notasi model Yale ini
mempunyai spesifikasi dalam menandai variabel terikat yang selalu dengan angka
1.Untuk variabel bebas notasinya dimulai dari angka 2, 3, 4, dan seterusnya. Notasi b1.23
berarti nilai perkiraan Y kalau X2dan X3 masing-masing
sama dengan 0 (nol).
Notasi b12.3
berarti besarnya pengaruh X2 terhadap Y jika X3 tetap.
Notasi b13..2berarti
besarnya pengaruh X3 terhadap
Y jikaX2 tetap.
Penulisan model dengan
simbol Y untuk variable dependen, dan X untuk variabel independen, saat ini
mulai ada penyederhanaan lagi, yang intinya untuk semakin memudahkan
interpretasi. Berdasar pada keinginan mempermudah dalam mengingat variabel yang
akan dibahas, maka notasi model dapat pula ditulis sebagai berikut:
Inflasi = b0+
b1Budep + b2Kurs + e
Penghitungan Nilai
Parameter
Penggunaan
metode OLS dalam regresi linier berganda dimaksudkan untuk mendapatkan aturan dalam mengestimasi parameter yang tidak diketahui. Prinsip
yang terkandung dalam OLS sendiri adalah untuk
meminimalisasi perbedaan jumlah kuadrat kesalahan (sumof
square) antara nilai observasi Y dengan Yˆ . Secara
matematis, fungsi minimalisasi sum of square.
å e 2
(b0, b1,b2) = å (Y - Yˆ ) 2
= å (Y - b0- b1 X 1- b2
|
X
Telah
dikemukaan di
atas bahwa pencarian nilai
b pada single linier berbeda
dengan multiple linier.
Perbedaan ini muncul karena jumlah variabel
penjelasnya
bertambah.
Semakin
banyaknya variabel X
ini maka kemungkinan-kemungkinan
yang
menjelaskan model juga
Mengalami pertambahan. Dalam single linier kemungkinan perubahan variabel lain tidak terjadi,
tetapi
dalam
multiple linier hal itu terjadi. Misalnya, Jika terjadi
perubahan pada X1, meskipun X2 konstan, akan mampu
merubah nilai harapan
dari
Y. Begitu
pula, perubahan
pada X2, meskipun
X1 konstan, akan mampu merubah nilai harapan
dari
Y. Perubahan yang terjadi
pada X1 atau
X2 tentu mengakibatkan perubahan nilai harapan Y atau E(Y/X1,X2) yang berbeda. Oleh karena itu pencarian nilai
b mengalami perubahan.
Guna
mengetahui seberapa
besar kontribusi X1 terhadap perubahan Y, tentu perlu untuk melakukan kontrol pengaruh dari X2. Begitu pula, untuk mengetahui
kontribusi X2, maka perlu juga melakukan kontrol
terhadap X1. Dari sini dapat timbul
pertanyaan, bagaimana caranya mengontrolnya? Untuk menjawabnya,
perlu ilustrasi secara konkrit agar mudah dipahami.
Misalnya kita hendak mengontrol pengaruh
linier X2 ketika melakukan
pengukuran
dampak dari perubahan X1 terhadap Y,
maka dapat melakukan langkah-langkah sebagai berikut:
Tahap pertama: lakukan regresi Y terhadap X2.
Y =
b0 +
b2 X2 +
e1
Dimana
e1 merupakan residual, yang besarnya:
e1 =
Y –
b0 – b2X2
= Y- Yˆ
Tahap
kedua:
lakukan
regresi X1 terhadap
X2
X1 =
b0 + b2 X2 + e2
Dimana
e1 merupakan residual, yang besarnya:
e2 =
X1 – b0 –
b2X2
= X1- Xˆ
Tahap ketiga: lakukan regresi e1 terhadap e2
e1 =
a0 +
a1e2 +e3
Besarnya a1 pada tahap ketiga inilah yang
merupakan nilai
pasti atau net effect dari perubahan satu
unit X1 terhadap Y, atau
menunjukkan
kemiringan (slope) garis Y atas variabel X1. Logika dari teori tersebut yang mendasari rumus yang dapat digunakan untuk menentukan
koefisien regresi
parsial (partial regression coefficients) (baca: b1,
b2). Dengan memanfaatkan data yang telah
tersedia, kita dapat pula menentukan
nilai b1 variabel Budep maupun b2 variabel Kurs. Pencarian koefisien
regresi tersebut dapat dilakukan dengan
menggunakan
rumus-rumus yang telah ditentukan
di atas.
Guna mempermudah dalam
memasukkan angka-angka ke dalam rumus,
maka
data yang ada perlu diekstensifkan sesuai dengan kebutuhan
rumus tersebut. Nilai dari parameter b1 dan b2 merupakan nilai dari
suatu sampel. Nilai
b1 dan b2 tergantung pada jumlah sampel yang ditarik. Penambahan atau pengurangan akan mengakibatkan
perubahan rentangan nilai
b. Perubahan rentang nilai b1 dan b2 diukur dengan standar error. Semakin besar
standar error
mencerminkan nilai b sebagai penduga
populasi semakin kurang representatif. Sebaliknya, semakin kecil standar error maka keakuratan
daya penduga
nilai b terhadap populasi semakin tinggi. Perbandingan antara nilai b
dan standar error ini memunculkan nilai t,
Koefisien
Determinasi (R2)
Disamping menguji
signifikansi dari
masing-
masing variabel, kita dapat
pula menguji determinasi
seluruh variabel penjelas yang ada dalam model regresi. Pengujian
ini
biasanya disimbolkan
dengan
koefisien regresi yang biasa disimbolkan dengan R2.
Uraian tentang
koefisien
determinasi sedikit banyak
telah
disinggung pada
single
linier regression. Pada
sub bahasan ini hanya
menambah penjelasan-penjelasan agar menjadi lebih lengkap saja.
Koefisien
determinasi
pada dasarnya digunakan
untuk mengkur goodness of fit dari persamaan regresi,
melalui hasil pengukuran dalam bentuk prosentase yang
menjelaskan determinasi
variabel penjelas (X) terhadap variabel yang dijelaskan (Y). Koefisien determinasi dapat
dicari melalui hasil bagi dari total sum of square (TSS)
atau
total
variasi
Y terhadap explained
sum
of square (ESS) atau
variasi yang dijelaskan Y. Dengan
demikian kita dapat mendefinisikan lagi R2 dengan arti rasio antara
variasi yang dijelaskan Y dengan total variasi Y. Rumus
tersebut adalah sebagai berikut:
R 2 ESS
TSS
Total variasi Y (TSS) dapat
diukur menggunakan derajat deviasi dari
masing-masing observasi nilai Y dari rata-ratanya. Hasil pengukuran ini kemudian dijumlahkan
hingga mencakup seluruh observasi.
Uji F
Seperti telah dikemukakan di atas, bahwa dalam
regresi linier berganda
variabel penjelasnya selalu
berjumlah lebih
dari satu. Untuk
itu, maka pengujian
tingkat
signifikansi variabel
tidak
hanya dilakukan secara
individual saja, seperti dilakukan dengan uji t,
tetapi dapat
pula dilakukan pengujian signifikansi semua variabel
penjelas
secara serentak atau bersama-sama. Pengujian
secara serentak tersebut dilakukan
dengan teknik analisis of variance (ANOVA) melalui pengujian nilai F
hitung
yang dibandingkan dengan nilai F tabel. Oleh karena
itu disebut pula dengan uji F.
Pada
prinsipnya, teknik
ANOVA
digunakan untuk
menguji distribusi
atau
variansi
means dalam variable
penjelas apakah secara proporsional telah signifikan
menjelaskan variasi dari variabel yang dijelaskan. Untuk memastikan jawabannya, maka perlu dihitung rasio antara
variansi means (variance between means) yang dibandingkan dengan variansi
di dalam kelompok
variabel (variance between
group). Hasil pembandingan keduanya itu (rasio antara variance between means terhadap variance
between group) menghasilkan nilai F
hitung, yang kemudian dibandingkan
dengan nilai F tabel.
Jika nilai F hitung lebih besar dibanding nilai F tabel, maka secara serentak seluruh variabel penjelas yang ada
dalam
model signifikan mempengaruhi variabel terikat Y. Sebaliknya, jika nilai F hitung lebih
kecil dibandingkan dengan nilai F
tabel, maka tidak secara serentak seluruh variabel penjelas yang ada dalam
model signifikan mempengaruhi variabel terikat Y.
2. Kesimpulan:
·
Di dalam regresi linear
berganda terdapat 3 (tiga) variabel yaitu satu variabel Y dan jumlah variabel X
nya lebih dari 1 (satu) variabel. Artinya, variabel X bisa berjumlah 2, 3, atau
lebih. Jumlah X yang lebih dari satu tersebut terkenal dengan istilah Regresi
Linier Berganda atau multiple linier regression. Model dari regresi
linear berganda yaitu sebagai berikut :
Populasi: Y = A + B1X1
+ B2X2 + B3X3 + ………+ BnXn + e Atau Y = B0 + B1X1 + B2X2 + B3X3 + ………+ BnXn + e
Sampel : Y = a + b1X1 +
b 2X2 + b 3X3 + ………+ b nXn + e Atau Y = b0 + b1X1 + b 2X2 + b 3X3 + ………+ bnXn +
e
·
Koefisien determinasi
pada dasarnya digunakan untuk mengkur goodness of fit dari persamaan
regresi, melalui hasil pengukuran dalam bentuk prosentase yang menjelaskan
determinasi variabel penjelas (X) terhadap variabel yang dijelaskan (Y).
Koefisien determinasi dapat dicari melalui hasil bagi dari total sum of
square (TSS) atau total variasi Y terhadap explained sum of square
(ESS) atau variasi yang dijelaskan Y. Dengan rumus sbb :
·
Pengujian
secara (Uji F) serentak dilakukan dengan teknik analisisof variance (ANOVA)
melalui pengujian nilai F hitung yang dibandingkan dengan nilai F tabel. Oleh
karena itu disebut pula dengan uji F. Pada prinsipnya, teknik ANOVA digunakan
untuk menguji distribusi atau variansi means dalam variabel penjelas
apakah secara proporsional telah signifikan menjelaskan variasi dari variabel
yang dijelaskan
3.
a. Regresi linear berganda adalah hubungan
secara linear antara dua atau lebih variabel independen (X1, X2,….Xn)
dengan variabel dependen (Y). Analisis ini untuk mengetahui arah hubungan
antara variabel independen dengan variabel dependen apakah masing-masing
variabel independen berhubungan positif atau negatif dan untuk memprediksi
nilai dari variabel dependen apabila nilai variabel independen mengalami
kenaikan atau penurunan. Data yang digunakan biasanya berskala interval atau
rasio.
b. Model dari regresi linear berganda yaitu sebagai berikut :
Populasi: Y = A + B1X1
+ B2X2 + B3X3 + ………+ BnXn + e Atau Y = B0 + B1X1 + B2X2 + B3X3 + ………+ BnXn + e
Sampel : Y = a + b1X1 +
b 2X2 + b 3X3 + ………+ b nXn + e Atau Y = b0 + b1X1 + b 2X2 + b 3X3 + ………+ bnXn +
e
c. Y’ = Variabel
dependen (nilai yang diprediksikan)
X1 dan
X2 = Variabel
independen
a = Konstanta
(nilai Y’ apabila X1, X2…..Xn = 0)
b
= Koefisien regresi (nilai peningkatan ataupun
penurunan)
d. Konstanta
menunjukkan titik potong regresi pada sumbu Y. Konstanta bertanda + (positif)
titik potongnya berada di sebelah atas titik origin (0), sedangkan konstanta
yang bertanda – (negatif) titik potongnya di sebelah bawah titik origin.
e. *Pada single
linier regression terdapat dua variabel yaitu (variabel X dan Y),
sedangkan multiple linier regression satu variabel Y dan variabel X nya
lebih dari satu variabel
*Pencarian nilai b pada single linier berbeda
dengan multiple linier. Dalam single linier kemungkinan perubahan
variabel lain tidak terjadi tetapi dalam multiple linier terjadi
perubahan
*Pencarian nilai t mempunyai kesamaan dengan
model regresi linier sederhana, hanya saja pencarian Sb nya yang
berbeda
f. Analisis regresi
linear sederhana hanya melibatkan dua variabel saja yaitu satu variabel
dependen atau variabel tergantung dan satu variabel independen atau variabel
bebas. Sedangkan, analisis linear berganda melibatkan lebih dari dua variabel
independen atau bebas.
g. Rumus untuk mencari
nilai b pada model regresi linier berganda berbeda dengan model regresi linier
sederhana, Karena jumlah variabel penjelasnya bertambah. Semakin banyaknya
variabel X maka kemungkinan-kemungkinan menjelaskan model juga mengalami
pertambahan. Dalam single linier kemungkinan perubahan variabel lain tidak
terjadi, tetapi dalam multiple linier hal itu terjadi. Misalnya, Jika
terjadi perubahan pada X1, meskipun X2 konstan, akan mampu merubah nilai
harapan dari Y. Begitu pula, perubahan pada X2, meskipun X1 konstan, akan mampu
merubah nilai harapan dari Y. Perubahan yang terjadi pada X1 atau X2 tentu
mengakibatkan perubahan nilai harapan Y atau E(Y/X1,X2) yang berbeda.
h. Pencarian nilai t tidak
mengalami perubahan karena karena nilai t merupakan hasil bagi antara b dengan
Sb.
i. Derajat
signifikansi yang digunakan adalah 0,05. Apabila nilai signifikan lebih kecil
dari derajat kepercayaan maka kita menerima hipotesis alternatif, yang
menyatakan bahwa suatu variabel independen secara parsial mempengaruhi variabel
dependen.
j. Untuk
mengetahui apakah variabel-variabel independen secara simultan berpengaruh
signifikan terhadap variabel dependen.
k. Apabila nilai F hasil perhitungan lebih besar daripada
nilai F menurut tabel maka hipotesis alternatif, yang menyatakan bahwa semua
variabel independen secara simultan berpengaruh signifikan terhadap variabel
dependen.
l. rumus dalam
mencari koefisien determinasi pada model regresi linier berganda berbeda dengan
regresi linier sederhana karena pada regresi linier sederhana R2
mengukur seberapa jauh kemampuan model dalam menerangkan variasi variabel
terikat, besarnya nilai koefisien determinasi adalah di antara nol dan satu
(0<R2<1). Sedangkan regresi linier berganda R2
digunakan untuk mengukur goodness of fit dari persamaan regresi melalui
hasil pengukuran dalam bentuk prosentase yang menjelaskan determinasi variabel
penjelas (X) terhadap variabel yang dijelaskan (Y). Koefisien determinasi dapat
dicari melalui hasil bagi dari total sum of square (TSS) atau total
variasi Y terhadap explained sum of square (ESS) atau variasi yang
dijelaskan Y. Dengan demikiankita dapat mendefinisikan lagi R2 dengan arti
rasio antara variasi yang dijelaskan Y dengan total variasi Y.
m. variabel penjelas
dapat dianggap sebagai prediktor terbaik dalam menjelaskan Y sebagai berikut :
Koefisien determinasi pada dasarnya digunakan untuk mengkur goodness of fit dari
persamaan regresi, melalui hasil pengukuran dalam bentuk prosentase yang
menjelaskan determinasi variabel penjelas (X) terhadap variabel yang dijelaskan
(Y). Koefisien determinasi dapat dicari melalui hasil bagi dari total sum of
square (TSS) atau total variasi Y terhadap explained sum of square
(ESS) atau variasi yang dijelaskan Y. Dengan demikian kita dapat mendefinisikan
lagi R2 dengan arti rasio antara variasi yang dijelaskan Y dengan total variasi
Y. Total variasi Y (TSS) dapat diukur menggunakan derajat deviasi dari masing-masing
observasi nilai Y dari rata-ratanya. Hasil pengukuran ini kemudian dijumlahkan
hingga mencakup seluruh observasi
BAB V
1.
UJI ASUMSI KLASIK
Di muka telah disinggung, baik dalam
regresi linier sederhana maupun dalam
regresi linier berganda, bahwa
dalam
kedua regresi linier tersebut perlu memenuhi asumsi-asumsi seperti yang telah di uraikan dalam kedua
bahasan
tersebut. Munculnya kewajiban
untuk memenuhi asumsi
tersebut mengandung arti
bahwa formula atau
rumus regresi diturunkan dari
suatu asumsi tertentu.
Artinya, tidak semua data dapat diperlakukan dengan regresi. Jika data yang diregresi tidak memenuhi asumsi- asumsi yang telah disebutkan, maka
regresi yang
diterapkan akan menghasilkan estimasi yang bias. Jika
hasil regresi telah memenuhi asumsi-asumsi regresi maka
nilai
estimasi
yang
diperoleh
akan
bersifat
BLUE, yang merupakan singkatan dari: Best, Linear, Unbiased, Estimator. Best dimaksudkan
sebagai terbaik. Untuk memahami arti Best, perlu kembali kepada kesadaran kita bahwa analisis
regresi linier digunakan untuk menggambarkan sebaran data dalam
bentuk garis regresi. Dengan kata lain,
garis regresi merupakan cara memahami pola hubungan antara dua seri data atau lebih. Hasil regresi dikatakan Best apabila
garis regresi yang dihasilkan guna melakukan estimasi atau
peramalan dari
sebaran
data, menghasilkan error
yang terkecil. Perlu diketahui bahwa error itu
sendiri adalah perbedaan antara nilai observasi dan nilai yang diramalkan oleh
garis regresi. Jika garis
regresi
telah
Best dan disertai pula
oleh kondisi tidak bias
(unbiased), maka estimator regresi akan efisien.
Penyimpangan masing-masing asumsi
tidak
mempunyai impak yang sama terhadap regresi. Sebagai
contoh,
adanya penyimpangan atau tidak terpenuhinya asumsi multikolinearitas
(asumsi
10) tidak
berarti mengganggu, sepanjang uji t sudah signifikan. Hal ini
disebabkan
oleh membesarnya standar error pada kasus
multikolinearitas,
sehingga nilai t, b, Sb, menjadi cenderung kecil. Jika nilai t masih signifikan, maka multikolinearitas
tidak perlu diatasi. Akan tetapi, jika terjadi
penyimpangan
pada asumsi heteroskedastisitas atau pada autokorelasi,
penyimpangan tersebut dapat
menyebabkan bias pada Sb, sehingga
t menjadi tidak
menentu.
Dengan
demikian,
meskipun nilai t sudah
signifikan
ataupun
tidak signifikan,
keduanya tidak
dapat
memberi informasi yang sesungguhnya. Untuk memenuhi
asumsi-asumsi di atas, maka estimasi regresi hendaknya
dilengkapi dengan uji-uji yang diperlukan, seperti uji
normalitas,
autokorelasi, heteroskedastisitas,
atupun multikolinearitas. Secara teoretis model OLS akan menghasilkan estimasi nilai parameter model penduga
yang sahih bila dipenuhi asumsi Tidak ada Autokorelasi, Tidak Ada Multikolinearitas,
dan Tidak ada Heteroskedastisitas. Apabila seluruh asumsi klasik tersebut
telah terpenuhi maka akan menghasilkan hasil regresi yang best, linear,
unbias, efficient of estimation (BLUE).
A. Uji Autokorelasi
Dalam asumsi
klasik telah dijelaskan bahwa
pada
model OLS
harus telah terbebas dari masalah autokorelasi atau serial korelasi. Autokorelasi adalah keadaan dimana
variabel gangguan pada periode tertentu berkorelasi
dengan variabel gangguan pada periode lain. Sifat
autokorelasi
muncul bila terdapat korelasi
antara data
yang diteliti, baik itu data jenis runtut waktu (time series) ataupun data kerat
silang (cross section). Hanya saja masalah autokorelasi lebih sering muncul
pada data time series,
karena sifat data
time series
ini
sendiri lekat dengan kontinyuitas dan
adanya sifat ketergantungan antar data. Sementara
pada
data cross section hal itu kecil
kemungkinan terjadi. Asumsi terbebasnya autokorelasi
ditunjukkan oleh
nilai
e
yang
mempunyai
rata-rata nol,
dan
variannya
konstan. Asumsi
variance yang
tidak
konstan
menunjukkan adanya pengaruh
perubahan
nilai suatu observasi berdampak pada observasi lain. Sebagai
ilustrasi, misalnya kita mengamati perubahan inflasi apakah dipengaruhi
oleh
suku bunga deposito ataukah tidak.
Bisa saja perubahan bunga deposito pada waktu
tertentu, juga
dialami oleh perubahan tingkat inflasi pada
waktu yang sama. Kalau saja
terjadi autokorelasi dalam
kasus
semacam ini, maka menjadi tidak jelas
apakah inflasi
betul-betul
dipengaruhi
oleh perubahan bunga
deposito ataukah karena sifat dari kecenderungannya sendiri untuk berubah.
Sebab-sebab Autokorelasi
Terdapat banyak faktor-faktor yang dapat menyebabkan timbulnya masalah autokorelasi, namun
dalam
pembahasan ini hanya mengungkapkan beberapa
faktor saja antara
lain:
1. Kesalahan dalam pembentukan
model,
artinya, model yang
digunakan untuk
menganalisis
regresi tidak didukung oleh teori-teori yang relevan dan mendukung.
2. Tidak memasukkan variabel yang penting. Variabel penting yang dimaksudkan di sini adalah
variabel yang
diperkirakan
signifikan
mempengaruhi variabel Y. Sebagai
misal
kita ingin meneliti faktor
apa saja yang mempengaruhi
terjadinya inflasi.
Secara teoritik,
banyaknya
Jumlah Uang Beredar (JUB) mempunyai kaitan kuat
dengan terjadinya inflasi.
Alur berfikirnya seperti ini, semakin banyak JUB maka daya beli masyarakat akan
meningkat tentu
akan pula diikuti
dengan permintaan
yang meningkat
pula, Jika
jumlah penawaran tidak mampu bertambah, tentu harga akan
meningkat, ini berarti
inflasi akan terjadi.
3. Manipulasi data. Misalnya dalam penelitian kita ingin menggunakan data bulanan, namun
data tersebut tidak tersedia. Kemudian kita mencoba menggunakan triwulanan yang tersedia,
untuk
dijadikan
data bulanan melalui cara
interpolasi atau ekstrapolasi. Contohnya membagi tiga
data triwulanan
tadi (n/3). Apabila hal seperti ini dilakukan, maka sifat data dari bulan ke
satu akan
terbawa ke bulan kedua dan ketiga, dan
ini
besar
kemungkinan untuk terjadi autokorelasi.
4. Menggunakan data yang tidak empiris. Jika data semacam
ini
digunakan, terkesan bahwa data
tersebut tidak
didukung
oleh realita. Misalnya pengaruh periklanan
terhadap
penjualan. Kalau
dalam
penelitian menggunakan data biaya
periklanan bulan ke n dan data penjualan bulan ke n, besar kemungkinan akan terjadi autokorelasi.
Secara empirik, upaya periklanan bulan ke
n tidak akan secara langsung berdampak pada bulan yang sama, tetapi besar kemungkinan akan berdampak
pada bulan berikutnya, jaraknya bisa 1 bulan, 2 bulan, atau lebih. Seharusnya data penjualan yang
digunakan
adalah data penjualan
bulan ke n+1 atau n+2
tergantung dampak empiris tadi. Penggunaan data pada
bulan yang sama dengan
mengabaikan empiris seperti ini disebut juga sebagai Cobweb Phenomenon.
Akibat Autokorelasi
Uraian-uraian di atas mungkin saja mengajak kita untuk bertanya tentang apa dampak dari autokorelasi yang
timbul.
Pertanyaan seperti
ini
tentu saja
merupakan sesuatu yang wajar, karena
kita tentu mempunyai pilihan apakah mengabaikan adanya autokorelasi ataukah akan mengeliminasinya.
Meskipun ada autokorelasi, nilai parameter estimator
(b1, b2,…,bn) model regresi tetap linear dan tidak bias
dalam memprediksi
B (parameter
sebenarnya). Akan tetapi nilai variance tidak minimum
dan
standard error
(Sb1, Sb2) akan bias. Akibatnya adalah nilai t hitung akan
menjadi bias pula, karena nilai t diperoleh dari hasil bagi
Sb terhadap b (t =
b/sb). Berhubung nilai Sb bias maka
nilai t juga
akan bias atau bersifat tidak pasti (misleading).
Pengujian Autokorelasi
Pengujian autokorelasi dimaksudkan untuk menguji ada tidaknya autokorelasi, yaitu masalah lain yang timbul bila
kesalahan tidak sesuai dengan batasan yang
disyaratkan oleh analisis regresi. Terdapat beberapa
cara untuk mendeteksi ada tidaknya autokorelasi,
antara lain melalui:
1. Uji Durbin-Watson
(DW Test).
Uji Durbin-Watson yang secara populer digunakan untuk mendeteksi adanya serial
korelasi dikembangkan oleh ahli statistik (statisticians) Durbin
dan
Watson. Formula
yang
digunakan untuk
mendeteksi terkenal pula
dengan sebutan Durbin- Watson d statistic, Dalam DW test ini terdapat beberapa asumsi penting
yang harus dipatuhi, yaitu:
· Terdapat intercept dalam model regresi.
· Variabel
penjelasnya tidak
random(nonstochastics).
· Tidak ada unsur lag dari variabel dependen di dalam model.
· Tidak ada data
yang hilang.
2. Menggunakan metode LaGrange Multiplier
(LM).
LM sendiri merupakan teknik regresi yang
memasukkan variabel lag. Sehingga terdapat variabel
tambahan yang dimasukkan dalam model. Variabel tambahan tersebut adalah data Lag dari variabel
dependen. Sebagai kunci untuk mengetahui
pada
lag berapa autokorelasi muncul, dapat dilihat dari signifikan
tidaknya variabel lag tersebut. Ukuran yang digunakan adalah nilai t masing-masing variabel lag yang dibandingkan dengan t tabel,
seperti yang telah dibahas
pada uji t sebelumnya. Misalnya variabel
Yt-1 mempunyai nilai
t signifikan, berarti terdapat masalah autokorelasi atau pengaruh
kesalahan
pengganggu mulai
satu periode sebelumnya. Jika ini
terjadi, maka untuk perbaikan hasil regresi perlu
dilakukan
regresi
ulang
dengan merubah posisi data
untuk disesuaikan dengan kurun waktu lag tersebut.
B. Uji Normalitas
Tujuan dilakukannya uji normalitas
adalah
untuk menguji apakah variabel penganggu (e) memiliki
distribusi normal atau
tidak. Pengujian
normalitas data dapat dilakukan sebelum ataupun setelah tahapan analisis
regresi.
Hanya saja pengalaman menunjukkan
bahwa
pengujian normalitas yang dilakukan sebelum tahapan regresi lebih efisien dalam
waktu. Sangat beralasan
kiranya, karena jika asumsi normalitas data
telah dipenuhi terlebih dulu, maka dampak
yang
mungkin akan
ditimbulkan
dari adanya ketidaknormalan
data seperti bias pada nilai t hitung dan nilai F hitung dapat
dihindari. Sebaliknya, bila
dilakukan analisis regresi terlebih dulu,
dimana nilai t dan F
baru diketahui, yang kemudian baru
dilakukan normalitas
data,
sedangkan ternyata hasilnya
tidak normal maka analisis regresi harus diulang lagi.
Pengujian normalitas
ini
berdampak pada nilai
t dan F karena pengujian terhadap keduanya diturunkan
dari
asumsi bahwa data Y atau e berdistribusi normal. Dalam pengujian normalitas mempunyai dua kemungkinan, yaitu data berdistribusi normal atau tidak normal.
Apabila data telah
berdistribusi normal
maka
tidak ada masalah karena
uji t dan uji F dapat dilakukan (Kuncoro, 2001: 110). Apabila data tidak normal, maka diperlukan
upaya untuk mengatasi seperti: memotong
data
yang out liers, memperbesar sampel, atau melakukan transformasi data. Langkah transformasi data sebagai upaya untuk menormalkan sebaran data dapat dilakukan dengan merubah data dengan nilai absolut ke dalam
bilangan logaritma. Dengan
mentransformasi data ke bentuk logaritma akan memperkecil error sehingga
kemungkinan
timbulnya masalah heteroskedastisitas juga
menjadi sangat kecil (Setiaji, 2004: 18).
C. Uji Heteroskedastisitas
Sebagaimana telah ditunjukkan dalam salah
satu asumsi
yang
harus
ditaati pada model regresi linier,
adalah residual harus homoskedastis, artinya, variance residual harus memiliki variabel
yang konstan, atau
dengan kata lain, rentangan e kurang
lebih sama. Karena
jika
variancenya
tidak sama, model akan menghadapi
masalah heteroskedastisitas.
Heteroskedastisitas muncul apabila
kesalahan atau residual dari model yang diamati tidak memiliki varians yang konstan dari satu observasi
ke observasi lainnya
(Kuncoro, 2001:
112).
Padahal
rumus regresi diperoleh dengan asumsi bahwa variabel pengganggu (error) atau e,
diasumsikan memiliki
variabel yang konstan (rentangan e kurang lebih sama). Apabila terjadi varian e tidak konstan,
maka kondisi tersebut
dikatakan tidak homoskedastik atau mengalami heteroskedastisitas (Setiaji, 2004: 17).
Konsekuensi Heteroskedastisitas
Analisis regresi menganggap
kesalahan
(error)
bersifat homoskedastis,
yaitu asumsi bahwa residu atau
deviasi dari garis yang
paling tepat muncul serta random
sesuai dengan besarnya variabel-variabel independen
(Arsyad,
1994:198). Asumsi regresi
linier yang berupa variance residual yang sama, menunjukkan bahwa standar error (Sb) masing-masing observasi tidak mengalami perubahan, sehingga Sb nya tidak bias. Lain halnya, jika asumsi ini tidak
terpenuhi, sehingga variance residualnya
berubah-ubah sesuai
perubahan
observasi, maka akan mengakibatkan nilai Sb yang diperoleh dari hasil regresi akan menjadi bias.
Selain itu, adanya kesalahan dalam model yang dapat mengakibatkan nilai
b meskipun tetap
linier
dan tidak bias, tetapi nilai
b bukan nilai yang terbaik. Munculnya masalah heteroskedastisitas yang
mengakibatkan
nilai Sb menjadi bias, akan
berdampak pada
nilai t dan nilai F yang menjadi tidak dapat
ditentukan. Karena nilai t dihasilkan dari hasil bagi antara b dengan Sb. Untuk
mendeteksi
ada tidaknya heteroskedastisitas,
dapat dilakukan dengan berbagai cara seperti uji grafik,
uji Park, Uji Glejser, uji Spearman’s Rank Correlation, dan uji Whyte menggunakan Lagrange Multiplier (Setiaji,2004: 18).
Pengujian heteroskedastisitas
menggunakan
uji
grafik, dapat dilakukan dengan membandingkan sebaran
antara
nilai prediksi variabel terikat dengan residualnya,
yang output pendeteksiannya akan tertera berupa sebaran data pada scatter plot. Dengan menggunakan alat bantu komputer teknik ini sering dipilih,
karena alasan
kemudahan dan kesederhanaan cara
pengujian, juga
tetap
mempertimbangkan valid dan tidaknya hasil pengujian.
D. Uji Multikolinieritas
Multikolinieritas adalah suatu
keadaan
dimana terjadi korelasi linear yang ”perfect” atau eksak di antara
variabel penjelas yang dimasukkan ke dalam model.
Tingkat kekuatan hubungan antar
variabel penjelas dapat
ditrikotomikan lemah, tidak
berkolinear, dan sempurna. Tingkat kolinear dikatakan lemah apabila masing-masing variabel
penjelas hanya
mempunyai sedikit sifat-sifat yang sama. Apabila
antara variabel penjelas memiliki
banyak sifat-sifat
yang sama dan serupa
sehingga hampir tidak dapat lagi dibedakan tingkat pengaruhnya terhadap Y, maka tingkat kolinearnya dapat dikatakan serius, atau
perfect,
atau
sempurna. Sedangkan Tidak berklinear jika antara variabel penjelas tidak mempunyai sama sekali
kesamaan.
Konsekuensi Multikolinearitas
Pengujian multikolinearitas merupakan tahapan
penting yang harus dilakukan dalam suatu penelitian,
karena apabila belum
terbebas dari masalah multikolinearitas akan menyebabkan nilai koefisien
regresi (b) masing-masing
variabel bebas dan
nilai
standar error-nya (Sb) cenderung bias, dalam arti tidak
dapat ditentukan
kepastian nilainya,
sehingga akan
berpengaruh pula terhadap nilai t (Setiaji, 2004:
26).
Pendeteksian Multikolinearitas
Terdapat beragam cara untuk menguji
multikolinearitas,
di
antaranya: menganalisis matrix korelasi dengan Pearson Correlation atau
dengan
Spearman’s Rho Correlation, melakukan regresi
partial dengan teknik auxilary
regression, atau dapat pula
dilakukan
dengan
mengamati
nilai variance inflation
factor (VIF). Cara mendeteksi ada tidaknya
multikolinieritas
dengan menghitung nilai korelasi antar
variabel
dengan
menggunakan Spearman’s Rho
Correlation dapat dilakukan apabila data dengan skala
ordinal (Kuncoro, 2001: 114). Sementara untuk data interval atau nominal dapat dilakukan dengan Pearson
Correlation. Selain itu metode ini lebih mudah dan lebih
sederhana
tetapi tetap memenuhi syarat untuk dilakukan.
Dalam
kaitan adanya kolinear yang tinggi sehingga menimbulkan tidak terpenuhinya asumsi terbebas dari
masalah multikolinearitas,
dengan mempertimbangkan
sifat data dari cross section, maka bila tujuan persamaan
hanya
sekedar untuk
keperluan prediksi,
hasil regresi dapat ditolerir, sepanjang nilai t signifikan.
2.
Kesimpulan
Secara teoritis model
OLS akan menghasilkan estimasi nilai parameter model penduga yang sahih bila
dipenuhi asumsi Tidak ada Autokorelasi, Tidak Ada Multikolinearitas, dan Tidak
ada Heteroskedastisitas. Apabila seluruh asumsi klasik tersebut telah terpenuhi
maka akan menghasilkan hasil regresi yang best, linear,unbias, efficient of
estimation (BLUE).
3. Jawaban
a)
Uji asumsi klasik
adalah persyaratan statistik yang harus dipenuhi pada analisis regresi linier
berganda yang berbasis Ordinary Least Square (OLS).
b)
Asumsi asumsi yang ditetapkan :
Ø linear regression model
Ø nilai X
Ø variabel pengganggu e memiliki rata-rata nilai 0 homoskedastisitas
Ø tidak ada otokorelasi antara variabel e pada setiap nilai x dan j
Ø variabel x dan disturbance e tidak berkorelasi
Ø jumlah observasi / besar sampel () n0 harus lebih besar dari jumlah parameter yang
diestimasi
Ø variabel x harus memiliki variabilitas
Ø model regresi secara benar telah
terspesifiikasi
Ø tidak ada multikolinearitas antara
variabel penjelas
c)
Karena penyimpangan
masing masing asumsi tidak mempunyai dampak yang sama terhadap regresi.
d)
Autokorelasi adalah keadaan dimana variabel
gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada
periode lain. Sifat autokorelasi muncul bila terdapat korelasi antara data yang
diteliti, baik itu data jenis runtut waktu (time series) ataupun data
kerat silang (cross section).
e)
Autokoerlasi timbul
karena terdapat gangguan autokorelasi pada model regresi yang diteliti baik itu
data jenis waktu ataupun data karet silang.
f)
Mendeteksi autokorelasi
dengan adanya ketergantungan atau kesalahan pengganggu yang secara otomatis
mempengaruhi data berikutnya.
g)
Konsekuensi adanya
masalah autokorelasi dalam model yaitu nilai t hitung akan menjadi bias karena
nilai t diperoleh dari hasil bagi terhadap b. Berhubung nilai bias maka nilai t juga akan bias
atau bersifat tidak pasti.
h)
Heteroskedastisitas
merupakan salah satu faktor yang menyebabkan model regresi linier sederhana
tidak efisien dan akurat, juga mengakibatkan penggunaan metode kemungkinan
maksimum dalam mengestimasi parameter (koefisien) regresi akan terganggu.
i)
Heteroskedastistas
muncul karena adanya kesalahan atau residual dari model yang diamati tidak
memiliki varian yang konstan dari satu observasi ke observasi lain.
j)
Mendeteksi masalah
Heteroskedastistas dari data cross section karena masalah tersebut lebih
sering muncul di cross section daripada time series.
k)
Konsekuensi adanya
masalah residual atau debiasi dari garis yang paling tepat muncul serta random
sesuai dengan besarnya variabel-variabel independen.
l)
Multikolinieritas
adalah suatu keadaan dimana terjadi korelasi linear yang ”perfect” atau
eksak di antara variabel penjelas yang dimasukkan ke dalam model.
m)
Mutikolinearitas timbul
karena tingkat kolinear dikatakan lemah apabila masing-masing variabel penjelas
hanya mempunyai sedikit sifat-sifat yang sama
n)
Mendeteksi masalah
Mutikolinearitas dengan menganalisis matrik korelasi dengan pearson
correlation atau dengan supermans tho correation, melakukan regresi
partial dengan teknik auxiliary regression atau dapat pula dilakukan
dengan mengamati nilai variance inflation factor (VIF).
Konsekuensi adanya masaalah Mutikolinearitas nilai
koefisien regresi (b) masing – masing variabel bebas dan nilai standar errornya
() cenderung bias, dalam arti tidak dapat ditentukan nilainya, sehingga akan
berpengaruh pula terhadap nilai t.
o)
Normalitas untuk
melihat apakah nilai residual terdistribusi normal atau tidak model regresi
yang baik adalah memiliki nilai residual yang terdistribusi normal.
p)
Normalitas timbul
karena pengujian normalitas data dapat dilakukan sebelum ataupun setelah
tahapan analisis regresi.
q)
Mendeteksi masalah
normalitas dengan menggunakan metode numerik yang membandingkan nilai statistik
yaitu antara nilai median dengan nilai mean, menggunakan formula jarque bera
dan mengamati sebaran data.
r)
Konsekuensi dari adanya
masalah normalitas adalah pengujian normalitas ini berdampak pada nilai t dan F
karena pengujian terhadap keduanya diturunkan dari asumsi bahwa data Y atau e
berdistribusi normal.
s)
Cara menangani jika
data tersebut ternyata tidak normal diperlukan upaya untuk mengatasi seperti
memotong data out liers, memperbesar sampel atau melakukan transformasi data
t) Cara menangani
jika data ternyata tidak normal adalah diperlukan upaya untuk mengatasi
seperti: memotong data yang out liers, memperbesar sampel, atau
melakukan transformasi data
https://uniba.ac.id/utama/