Rabu, 12 Juli 2017

Regresi linier berganda & Uji asumsi klasik


BAB IV

1.      REGRESI LINIER BERGANDA

Pengertian Regresi linier Berganda
Pada bab sebelumnya telah dibahas tentang regresi linier dengan 2 (dua) variabel (yaitu variabel Y dan X)atau biasa disebut dengan single linier regression. Pada bab ini jumlah variabel yang digunakan akan ditambah menjadi lebih banyak, yaitu satu variabel Y dan jumlah variabel X nya lebih dari 1 (satu) variabel. Artinya, variabel X bisa berjumlah 2, 3, atau lebih. Jumlah X yang lebih dari satu tersebut terkenal dengan istilah Regresi Linier Berganda atau multiple linier regression. Bertambahnya jumlah variabel X hingga lebih dari satu sangat memungkinkan, karena dalam keilmuan social semua faktor-vaktor atau variabel-variabel saling berkaitan satu dengan lainnya. Sebagai misal, munculnya inflasi tentu tidak hanya dipengaruhi oleh bunga deposito (budep), tetapi sangat mungkin dipengaruhi oleh faktor lain seperti perubahan nilai tukar (kurs), jumlah uang beredar, kelangkaan barang, dan lain-lain. Sebagaimana dalam teori inflasi, inflasi dapat digolongkan sebagai inflasi karena tarikan permintaan dan inflasi desakan biaya. Inflasi tarikan permintaan terjadi apabila masyarakat banyak memegang uang. Tentu secara singkat dapat diartikan bahwa terdapat jumlah kelebihan jumlah uang beredar yang ada di masyarakat. Inflasi desakan biaya mempunyai sebab yang hampir serupa. Inflasi jenis ini terjadi akibat melonjaknya harga-harga faktor produksi. Kalau ditelusuri, melonjaknya hargaharga faktor. Produksi dapat disebabkan banyak hal seperti semakin langkanya jenis barang, tuntutan kenaikan gaji pekerja, semakin mahalnya ongkos transportasi, atau bisa juga disebabkan oleh adanya perubahan nilai tukar mata uang juga. Dari uraian singkat ini dapat disimpulkan bahwa pemicu terjadinya inflasi desakan biaya karena perubahan pada sisi supply, sedang inflasi tarikan permintaan disebabkan perubahan pada sisi demand. Maka untuk semakin memperjelas perihal terjadinya inflasi, dapat dicoba menambah satu variabel penduga (X) Karena jumlah variabel X tidak lagi satu melainkan sudah dua, maka analisa yang akan digunakan adalah analisa regresi linier berganda. Perubahan model dari bentuk single ke dalam bentuk multiple mengalami beberapa perubahan, meliputi: 1)jumlah variabel penjelasnya bertambah, sehingga spesifikasi model dan data terjadi penambahan. 2) rumus penghitungan nilai b mengalami perubahan, 3) jumlah degree of freedom dalam menentukan nilai t juga berubah.

Model Regresi Linier Berganda
Penulisan model regresi linier berganda merupakan pengembangan dari model regresi linier tunggal. Perbedaannya hanya terdapat pada jumlah variabel X saja.Dalam regresi linier tunggal hanya satu X, tetapi dalam regresi linier berganda variabel X lebih dari satu. Model regresi linier umumnya dituliskan sebagai berikut:
Populasi:          Y = A + B1X1+ B2X2+ B3X3+ ………+BnXn+ e
Atau                Y = B0+  B1X1+ B2X2+ B3X3+ ………+BnXn+ e
Sampel :          Y = a + b1X1+ B2X2+ B3X3………+BnXn+ e
Atau                Y = B0+  B1X1+ B2X2+ B3X3+ ………+BnXn+ e
Perlu diingat bahwa penulisan model sangat beragam. Hal ini dapat dimengerti karena penulisan model sendiri hanya bertujuan sebagai teknik anotasi untuk memudahkan interpretasi. Penulisan cara di atas adalah bentuk model yang sering dijumpai dalam beberapa literatur. Notasi model seperti itu tentu berbeda dengan notasi model Yale.
maka notasi model menjadi seperti berikut:
Populasi:          Y = B1.23+ B12.3X2i+B13.2 X3i +  e
Sampel :          Y = b1.23+ b12.3X2i+ b13.213.2X3i+  e
Notasi model Yale ini mempunyai spesifikasi dalam menandai variabel terikat yang selalu dengan angka 1.Untuk variabel bebas notasinya dimulai dari angka 2, 3, 4, dan seterusnya.  Notasi b1.23 berarti nilai perkiraan Y kalau X2dan X3 masing-masing sama dengan 0 (nol).
Notasi b12.3 berarti besarnya pengaruh X2 terhadap Y jika X3 tetap.
Notasi b13..2berarti besarnya pengaruh X3 terhadap Y jikaX2 tetap.
Penulisan model dengan simbol Y untuk variable dependen, dan X untuk variabel independen, saat ini mulai ada penyederhanaan lagi, yang intinya untuk semakin memudahkan interpretasi. Berdasar pada keinginan mempermudah dalam mengingat variabel yang akan dibahas, maka notasi model dapat pula ditulis sebagai berikut:
Inflasi   =  b0+ b1Budep + b2Kurs + e

Penghitungan Nilai Parameter
Penggunaan metode OLS dalam regresi linier berganda dimaksudkan untuk mendapatkan aturan dalam mengestimasi parameter yang tidak diketahui. Prinsip yang terkandung dalam OLS sendiri adalah untuk meminimalisasi perbedaan jumlah kuadrat kesalahan (sumof square) antara nilai observasi Y dengan Yˆ .  Secara matematis, fungsi minimalisasi sum of square.
 å e (b0, b1,b2) = å (Y - Yˆ ) 2
                  = å (Y - b0- b1 X 1- b2
2
 
 X

Telah dikemukaan di atas bahwa pencarian nilai b pada single linier berbeda dengan multiple linier. Perbedaan ini muncul karena jumlah variabel penjelasnya bertambah. Semakin banyaknya variabel X ini maka kemungkinan-kemungkinan yang menjelaskan model juga

Mengalami  pertambahanDalam  single  linier kemungkinan perubahan variabel lain tidak terjadi, tetapi dalam multiple linier hal itu terjadi. Misalnya, Jika terjadi perubahan pada X1, meskipun Xkonstan, akan mampu merubah  nilai  harapan  dari  Y.  Begitu  pula,  perubahan pada  X2,  meskipun  X konstan,  akan  mampu  merubah nilai harapan dari Y. Perubahan yang terjadi pada X1 atau Xtentu mengakibatkan perubahan nilai harapan Y atau E(Y/X1,X2) yang berbeda. Oleh karena itu pencarian nilai b mengalami perubahan.
Guna mengetahui seberapa besar kontribusi X1 terhadap perubahan Y, tentu perlu untuk melakukan kontrol pengaruh dari X2. Begitu pula, untuk mengetahui kontribus X2,   mak perl jug melakuka kontrol terhadap X1.    Dari sini dapat timbul pertanyaan, bagaimana caranya mengontrolnya? Untuk menjawabnya, perlu ilustrasi secara konkrit agar mudah dipahami. Misalnya  kithendak  mengontrol  pengaruh  linier  X2 ketika melakukan pengukuran dampak dari perubahan X1 terhadap Y, maka dapat melakukan langkah-langkah sebagai berikut:
Tahap pertama: lakukan regresi Y terhadap X2. Y = b0 + b2 X2 + e1
Dimana e1 merupakan residual, yang besarnya:
e1 = Y b0 b2X2
= Y- Yˆ
Tahap kedua: lakukan regresi X1 terhadap X2
X1 = b0 + b2 X2 + e2
Dimana e1 merupakan residual, yang besarnya:
e2 = X1 b0 b2X2
= X1- Xˆ
Tahap ketiga: lakukan regresi e1 terhadap e2
e1 = a0 + a1e2 +e3
Besarnya apada tahap ketiga inilah yang merupakan nilai pasti atau net effect dari perubahan satu unit X1 terhadap Y, atau menunjukkan kemiringan (slope) garis Y atas variabel X1. Logika dari teori tersebut yang mendasari rumus yang dapat digunakan untuk menentukan koefisien regresi parsial (partial regression coefficients) (baca: b1, b2). Dengan memanfaatkan data yang telah tersedia, kita dapat pula menentukan nilai b1 variabel Budep maupun b2 variabel Kurs. Pencarian koefisien regresi tersebut dapat dilakukan dengan menggunakan rumus-rumus yang telah ditentukan di atas. Guna mempermudah dalam memasukkan  angka-angkkdalam rumus,  maka  data yang ada perlu diekstensifkan sesuai dengan kebutuhan rumus tersebut. Nilai dari parameter bdan b2  merupakan nilai dari suatu sampel. Nilai b1 dan b2 tergantung pada jumlah sampel yang ditarik. Penambahan atau pengurangan akan mengakibatkan perubahan rentangan nilai b. Perubahan rentang nilai b1 dan b2 diukur dengan standar error. Semakin  besar  standar  error  mencerminkan  nilai  b sebagai penduga populasi semakin kurang representatif. Sebaliknya, semakin kecil standar error maka keakuratan daya penduga nilai b terhadap populasi semakin tinggi. Perbandingan antara nilai b dan standar error ini memunculkan nilai t,

Koefisien Determinasi  (R2)
Disampin menguji   signifikansi   dari   masing- masing variabel, kita dapat pula menguji determinasi seluruh variabel penjelas yang ada dalam model regresi. Pengujian ini biasanya disimbolkan dengan koefisien regresi yang biasa disimbolkan dengan R2. Uraian tentang koefisien  determinassedikibanyak  telah  disinggung pada single linier regression. Pada sub bahasan ini hanya menambah penjelasan-penjelasan agar menjadi lebih lengkap saja.
Koefisien determinasi pada dasarnya digunakan untuk mengkur goodness of fidari persamaan  regresi, melalui hasil pengukuran dalam bentuk prosentase yang menjelaskan determinasi variabel penjelas (X) terhadap variabel yang dijelaskan (Y). Koefisien determinasi dapat dicari melalui hasil bagi dari total sum of square (TSS) atau  total  variasi  terhadap  explained  sum  of  square (ESS) atau variasi yang dijelaskan Y. Dengan demikian kita dapat mendefinisikan lagi R2 dengan arti rasio antara variasi yang dijelaskan Y dengan total variasi Y. Rumus tersebut adalah sebagai berikut:
R 2   ESS
TSS
Total variasi Y (TSS) dapat diukur menggunakan derajat deviasi dari masing-masing observasi nilai Y dari rata-ratanya. Hasil pengukuran ini kemudian dijumlahkan hingga mencakup seluruh observasi.

Uji F
Seperti telah dikemukakan di atas, bahwa dalam regresi linier berganda variabel penjelasnya selalu berjumlah lebih dari satu. Untuk itu, maka pengujian tingkat signifikansi variabel tidak hanya dilakukan secara individual saja, seperti dilakukan dengan uji t, tetapi dapat pula dilakukan pengujian signifikansi semua variabel penjelas secara serentak atau bersama-sama. Pengujian secara serentak tersebut dilakukan dengan teknik analisis of variance (ANOVA) melalui pengujian nilai F hitung yang dibandingkan dengan nilai F tabel. Oleh karena itu disebut pula dengan uji F. Pada prinsipnya,  teknik  ANOVdigunakan  untuk menguji  distribusi  atau  variansi  means  dalam  variable penjelas apakah secara proporsional telah signifikan menjelaskan variasi dari variabel yang dijelaskan. Untuk memastikan jawabannya, maka perlu dihitung rasio antara variansi means (variance between means) yang dibandingka dengan   varians d dalam   kelompok variabel (variance between group). Hasil pembandingan keduanya itu (rasio antara variance between means terhadap variance between group) menghasilkan nilai F hitung, yang kemudian dibandingkan dengan nilai F tabel. Jika nilai F hitung lebih besar dibanding nilai F tabel, maka secara serentak seluruh variabel penjelas yang ada dalam model signifikan mempengaruhi variabel terikat Y. Sebaliknya, jika nilai F hitung lebih kecil dibandingkan dengan nilai F tabel, maka tidak secara serentak seluruh variabel penjelas yang ada dalam model signifikan mempengaruhi variabel terikat Y.
2.      Kesimpulan:
·         Di dalam regresi linear berganda terdapat 3 (tiga) variabel yaitu satu variabel Y dan jumlah variabel X nya lebih dari 1 (satu) variabel. Artinya, variabel X bisa berjumlah 2, 3, atau lebih. Jumlah X yang lebih dari satu tersebut terkenal dengan istilah Regresi Linier Berganda atau multiple linier regression. Model dari regresi linear berganda yaitu sebagai berikut :
Populasi: Y = A + B1X1 + B2X2 + B3X3 + ………+ BnXn + e Atau Y = B0 + B1X1 + B2X2 + B3X3 + ………+ BnXn + e
Sampel : Y = a + b1X1 + b 2X2 + b 3X3 + ………+ b nXn + e Atau Y = b0 + b1X1 + b 2X2 + b 3X3 + ………+ bnXn + e
·         Koefisien determinasi pada dasarnya digunakan untuk mengkur goodness of fit dari persamaan regresi, melalui hasil pengukuran dalam bentuk prosentase yang menjelaskan determinasi variabel penjelas (X) terhadap variabel yang dijelaskan (Y). Koefisien determinasi dapat dicari melalui hasil bagi dari total sum of square (TSS) atau total variasi Y terhadap explained sum of square (ESS) atau variasi yang dijelaskan Y. Dengan rumus sbb :

·         Pengujian secara (Uji F) serentak dilakukan dengan teknik analisisof variance (ANOVA) melalui pengujian nilai F hitung yang dibandingkan dengan nilai F tabel. Oleh karena itu disebut pula dengan uji F. Pada prinsipnya, teknik ANOVA digunakan untuk menguji distribusi atau variansi means dalam variabel penjelas apakah secara proporsional telah signifikan menjelaskan variasi dari variabel yang dijelaskan
3.             a. Regresi linear berganda adalah  hubungan secara linear antara dua atau lebih variabel independen (X1, X2,….Xn) dengan variabel dependen (Y). Analisis ini untuk mengetahui arah hubungan antara variabel independen dengan variabel dependen apakah masing-masing variabel independen berhubungan positif atau negatif dan untuk memprediksi nilai dari variabel dependen apabila nilai variabel independen mengalami kenaikan atau penurunan. Data yang digunakan biasanya berskala interval atau rasio.
b. Model dari regresi linear berganda yaitu sebagai berikut :
Populasi: Y = A + B1X1 + B2X2 + B3X3 + ………+ BnXn + e Atau Y = B0 + B1X1 + B2X2 + B3X3 + ………+ BnXn + e
Sampel : Y = a + b1X1 + b 2X2 + b 3X3 + ………+ b nXn + e Atau Y = b0 + b1X1 + b 2X2 + b 3X3 + ………+ bnXn + e
c.  Y’                  =   Variabel dependen (nilai yang diprediksikan)
X1 dan X2     =   Variabel independen
a                    =   Konstanta (nilai Y’ apabila X1, X2…..Xn = 0)
b                    =    Koefisien regresi (nilai peningkatan ataupun penurunan)
d. Konstanta menunjukkan titik potong regresi pada sumbu Y. Konstanta bertanda + (positif) titik potongnya berada di sebelah atas titik origin (0), sedangkan konstanta yang bertanda – (negatif) titik potongnya di sebelah bawah titik origin.
e. *Pada single linier regression terdapat dua variabel  yaitu (variabel X dan Y), sedangkan multiple linier regression satu variabel Y dan variabel X nya lebih dari satu variabel
*Pencarian nilai b pada single linier berbeda dengan multiple linier. Dalam single linier kemungkinan perubahan variabel lain tidak terjadi tetapi dalam multiple linier terjadi perubahan
*Pencarian nilai t mempunyai kesamaan dengan model regresi linier sederhana, hanya saja pencarian Sb nya yang berbeda
f. Analisis regresi linear sederhana hanya melibatkan dua variabel saja yaitu satu variabel dependen atau variabel tergantung dan satu variabel independen atau variabel bebas. Sedangkan, analisis linear berganda melibatkan lebih dari dua variabel independen atau bebas.
g. Rumus untuk mencari nilai b pada model regresi linier berganda berbeda dengan model regresi linier sederhana, Karena jumlah variabel penjelasnya bertambah. Semakin banyaknya variabel X maka kemungkinan-kemungkinan menjelaskan model juga mengalami pertambahan. Dalam single linier kemungkinan perubahan variabel lain tidak terjadi, tetapi dalam multiple linier hal itu terjadi. Misalnya, Jika terjadi perubahan pada X1, meskipun X2 konstan, akan mampu merubah nilai harapan dari Y. Begitu pula, perubahan pada X2, meskipun X1 konstan, akan mampu merubah nilai harapan dari Y. Perubahan yang terjadi pada X1 atau X2 tentu mengakibatkan perubahan nilai harapan Y atau E(Y/X1,X2) yang berbeda.
h. Pencarian nilai t tidak mengalami perubahan karena karena nilai t merupakan hasil bagi antara b dengan Sb.
i. Derajat signifikansi yang digunakan adalah 0,05. Apabila nilai signifikan lebih kecil dari derajat kepercayaan maka kita menerima hipotesis alternatif, yang menyatakan bahwa suatu variabel independen secara parsial mempengaruhi variabel dependen.
j. Untuk mengetahui apakah variabel-variabel independen secara simultan berpengaruh signifikan terhadap variabel dependen.
k. Apabila nilai F hasil perhitungan lebih besar daripada nilai F menurut tabel maka hipotesis alternatif, yang menyatakan bahwa semua variabel independen secara simultan berpengaruh signifikan terhadap variabel dependen.
l.  rumus dalam mencari koefisien determinasi pada model regresi linier berganda berbeda dengan regresi linier sederhana karena pada regresi linier sederhana R2  mengukur seberapa jauh kemampuan model dalam menerangkan variasi variabel terikat, besarnya nilai koefisien determinasi adalah di antara nol dan satu (0<R2<1). Sedangkan regresi linier berganda R2 digunakan untuk mengukur goodness of fit dari persamaan regresi melalui hasil pengukuran dalam bentuk prosentase yang menjelaskan determinasi variabel penjelas (X) terhadap variabel yang dijelaskan (Y). Koefisien determinasi dapat dicari melalui hasil bagi dari total sum of square (TSS) atau total variasi Y terhadap explained sum of square (ESS) atau variasi yang dijelaskan Y. Dengan demikiankita dapat mendefinisikan lagi R2 dengan arti rasio antara variasi yang dijelaskan Y dengan total variasi Y.
m. variabel penjelas dapat dianggap sebagai prediktor terbaik dalam menjelaskan Y sebagai berikut : Koefisien determinasi pada dasarnya digunakan untuk mengkur goodness of fit dari persamaan regresi, melalui hasil pengukuran dalam bentuk prosentase yang menjelaskan determinasi variabel penjelas (X) terhadap variabel yang dijelaskan (Y). Koefisien determinasi dapat dicari melalui hasil bagi dari total sum of square (TSS) atau total variasi Y terhadap explained sum of square (ESS) atau variasi yang dijelaskan Y. Dengan demikian kita dapat mendefinisikan lagi R2 dengan arti rasio antara variasi yang dijelaskan Y dengan total variasi Y. Total variasi Y (TSS) dapat diukur menggunakan derajat deviasi dari masing-masing observasi nilai Y dari rata-ratanya. Hasil pengukuran ini kemudian dijumlahkan hingga mencakup seluruh observasi





BAB V

1.         UJI ASUMSI KLASIK
Di muka telah disinggung, baik dalam regresi linier sederhana maupun dalam regresi linier berganda, bahwa dalam kedua regresi linier tersebut perlu memenuhi asumsi-asumsi seperti yang telah di uraikan dalam kedua bahasan tersebut. Munculnya kewajiban untuk memenuhi asumsi tersebut mengandung arti bahwa formula atau rumus regresi diturunkan dari suatu asumsi tertentu. Artinya, tidak semua data dapat diperlakukan dengan regresi. Jika data yang diregresi tidak memenuhi asumsi- asumsi yang telah disebutkan, maka regresi yang diterapkan akan menghasilkan estimasi yang bias. Jika hasil regresi telah memenuhi asumsi-asumsi regresi maka nilai estimasi yang diperoleh akan bersifat BLUE, yang merupakan singkatan dari: Best, Linear, Unbiased, Estimator. Best dimaksudkan sebagai terbaik. Untuk memahami arti Best, perlu kembali kepada kesadaran kita bahwa analisis  regresi linier digunakan untuk menggambarkan sebaran data dalam bentuk garis regresi. Dengan kata lain, garis regresi merupakan cara memahami pola hubungan antara dua seri data atau lebih. Hasil regresi dikatakan Best apabila garis regresi yang dihasilkan guna melakukan estimasi atau peramalan dari sebaran data, menghasilkan error  yanterkecil.    Perldiketahubahwa  error  itu sendiri adalah perbedaan antara nilai observasi dan nilai yang  diramalkan  oleh  garis  regresi.    Jika  garis  regresi telah  Best  dan  disertai  pula  oleh  kondisi  tidak  bias (unbiased), maka estimator regresi akan efisien.
Penyimpangan masing-masing asumsi tidak mempunyai impak yang sama terhadap regresi. Sebagai contoh, adanya penyimpangan atau tidak terpenuhinya asumsi multikolinearitas (asumsi 10) tidak berarti mengganggu, sepanjang uji t sudah signifikan. Hal ini disebabkan oleh membesarnya standar error pada kasus multikolinearitas, sehingga nilai t, b, Sb, menjadi cenderung kecil. Jika nilai t masih signifikan, maka multikolinearitas tidak perlu diatasi. Akan tetapi, jika terjadi  penyimpangan  pada  asumsi  heteroskedastisitas atau pada autokorelasi, penyimpangan tersebut dapat menyebabkan bias pada Sb, sehingga t menjadi tidak menentu. Dengan demikian, meskipun nilai t sudah signifikan ataupun tidak signifikan,  keduanya tidak dapat memberi informasi yang sesungguhnya. Untuk memenuhi asumsi-asumsi di atas, maka estimasi regresi hendaknya dilengkapi dengan uji-uji yang diperlukan, seperti uji normalitas, autokorelasi, heteroskedastisitas, atupun multikolinearitas. Secara teoretis model OLS akan menghasilkan estimasi nilai parameter model penduga yang sahih bila dipenuhi asumsi Tidak ada Autokorelasi, Tidak Ada Multikolinearitas,  dan  Tidak  ada  Heteroskedastisitas. Apabila seluruh asumsi klasik tersebut telah terpenuhi maka akan menghasilkan hasil regresi yang best, linear, unbias, efficient of estimation (BLUE).

A. Uji Autokorelasi
Dalam asumsi  klasik  telah  dijelaskan  bahwa  pada model OLS harus telah terbebas dari masalah autokorelasi atau serial korelasi. Autokorelasi adalah keadaan dimana variabel   ganggua pad periode   tertent berkorelasi dengan variabel gangguan pada periode lain. Sifat autokorelasi  muncul  bilterdapat  korelasi  antara  data yang diteliti, baik itu data jenis runtut waktu (time series) ataupun data kerat silang (cross section). Hanya saja masalah autokorelasi lebih sering muncul pada data time series,  karena  sifat  data  timseries  ini  sendiri  lekat dengakontinyuitadan  adanya  sifaketergantungan antar data. Sementara pada data cross section hal itu kecil kemungkinan terjadi. Asumsi terbebasnya autokorelasi ditunjukkan oleh nilai  e  yang  mempunyai  rata-rata  nol,  dan  variannya
konstan.     Asumsi     variance     yang     tidak     konstan menunjukkan adanya pengaruh perubahan nilai suatu observas berdampak   pada   observas lain Sebagai ilustrasi, misalnya kita mengamati perubahan inflasi apakah  dipengaruhi  oleh  suku  bunga  deposito  ataukah tidak.  Bisa saja  perubahabungdeposito pada  waktu tertentu, juga dialami oleh perubahan tingkat inflasi pada waktu yang sama. Kalau saja terjadi autokorelasi dalam kasus  semacaini,  maka  menjadi  tidak  jelas  apakah inflasi  betul-betul  dipengaruhi  oleh  perubahan  bunga deposito ataukah karena sifat dari kecenderungannya sendiri untuk berubah.
Sebab-sebab Autokorelasi
Terdapat banyak faktor-faktor yang dapat menyebabkan timbulnya masalah autokorelasi, namun dalam pembahasan ini hanya mengungkapkan beberapa faktor saja antara lain:
1.  Kesalahan  dalam  pembentukan  model,  artinya, model yang digunakan untuk menganalisis regresi tidak didukung oleh teori-teori yang relevan dan mendukung.
2.  Tidak    memasukkan    variabel    yang    penting. Variabel penting yang dimaksudkan di sini adalah variabel       yang       diperkirakan       signifikan mempengaruhvariabel  Y.  Sebagai  misal  kita ingin meneliti faktor apa saja yang mempengaruhi terjadinya inflasi. Secara teoritik, banyaknya Jumlah Uang Beredar (JUB) mempunyai kaitan kuat  dengaterjadinya  inflasi.  Alur berfikirnya seperti ini, semakin banyak JUB maka daya beli masyarakat   akan   meningkat   tent aka pula diikuti dengan permintaan yang meningkat pula, Jika jumlah penawaran tidak mampu bertambah, tentu  harga  akan  meningkatini  berarti  inflasi akan terjadi.
3.  Manipulasi data. Misalnya dalam penelitian kita ingin menggunakan data bulanan, namun data tersebut tidak tersedia. Kemudian kita mencoba menggunakan triwulanan yang tersedia, untuk dijadikan  datbulanan  melalui  cara  interpolasi atau ekstrapolasi. Contohnya membagi tiga data triwulanan tadi (n/3). Apabila hal seperti ini dilakukan, maka sifat data dari bulan ke satu akan terbawa ke bulan kedua dan ketiga, dan ini besar kemungkinan untuk terjadi autokorelasi.
4.  Menggunakan data yang tidak empiris. Jika data semacam ini digunakan, terkesan bahwa data tersebut tidak didukung oleh realita. Misalnya pengaruh periklanan terhadap penjualan. Kalau dalam penelitian menggunakan data biaya periklanan bulan ke n dan data penjualan bulan ke n, besar kemungkinan akan terjadi autokorelasi. Secara empirik, upaya periklanan bulan ke n tidak akan secara langsung berdampak pada bulan yang sama, tetapi besar kemungkinan akan berdampak pada bulan berikutnya, jaraknya bisa 1 bulan, 2 bulan, atau lebih. Seharusnya data penjualan yang digunakan  adalah  datpenjualan  bulan  kn+1 atau n+2 tergantung dampak empiris tadi. Penggunaan data pada bulan yang sama dengan mengabaikan empiris seperti ini disebut juga sebagai Cobweb Phenomenon.
Akibat Autokorelasi
Uraian-uraian di atas mungkin saja mengajak kita untuk bertanya tentang apa dampak dari autokorelasi yang timbul.  Pertanyaan  seperti  ini  tentsaja  merupakan sesuatu yang wajar, karena kita tentu mempunyai pilihan apakah mengabaikan adanya autokorelasi ataukah akan mengeliminasinya. Meskipun ada autokorelasi, nilai parameter estimator (b1, b2,,bn) model  regrestetap  linear dan  tidabias dalam  memprediksi  B  (parameter  sebenarnya).  Akan tetapi nilai variance tidak minimum dan standard error (Sb1, Sb2) akan bias. Akibatnya adalah nilai t hitung akan menjadi bias pula, karena nilai t diperoleh dari hasil bagi Sb terhadap b (t = b/sb). Berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti (misleading).
Pengujian Autokorelasi
Pengujian autokorelasi dimaksudkan untuk menguji ada tidaknya autokorelasi, yaitu masalah lain yang timbul bila kesalahan tidak sesuai dengan batasan yang disyaratkan oleh analisis regresi. Terdapat beberapa cara untuk mendeteksi ada tidaknya autokorelasi, antara lain melalui:







1. Uji Durbin-Watson (DW Test).
Uji  Durbin-Watson      yang  secara  populer digunakan untuk mendeteksi adanya serial korelasi dikembangkan oleh ahli statistik (statisticians) Durbin dan  WatsonFormula  yang  digunakan  untuk mendeteksi terkenal pula dengan sebutan Durbin- Watson d statistic, Dalam DW test ini terdapat beberapa asumsi penting yang harus dipatuhi, yaitu:

·      Terdapat intercept dalam model regresi.
·      Variabel      penjelasnya      tidak      random(nonstochastics).
·      Tidak ada unsur lag dari variabel dependen di dalam model.
·      Tidak ada data yang hilang.
2 Menggunaka metode   LaGrang Multiplier (LM).


LM sendiri merupakan teknik regresi yang memasukkan variabel lag. Sehingga terdapat variabel tambahan yang dimasukkan dalam model. Variabel tambahan tersebut adalah data Lag dari variabel dependen. Sebaga kunc untu mengetahu pada   lag berapa autokorelasi muncul, dapat dilihat dari signifikan  tidaknya  variabel  latersebutUkuran yan digunakan   adalah   nilai   t   masing-masing variabel  lag  yang  dibandingkan  dengan  t  tabel, seperti  yang  telah  dibahas  pada  uji  t  sebelumnya. Misalnya variabel  Yt-1 mempunyai nilai t signifikan, berarti terdapat masalah autokorelasi atau pengaruh kesalahan pengganggu mulai satu periode sebelumnya. Jika ini terjadi, maka untuk perbaikan hasil  regresi  perlu  dilakukan  regresi  ulang  dengan merubah posisi data untuk disesuaikan dengan kurun waktu lag tersebut.

B. Uji Normalitas
Tujuan dilakukannya uji normalitas adalah untuk menguji  apakavariabepenganggu (e)  memiliki distribusi normal atau tidak. Pengujian normalitas data dapat dilakukan sebelum ataupun setelah tahapan analisis regresi. Hanya saja pengalaman menunjukkan bahwa pengujian normalitas yang dilakukan sebelum tahapan regresi lebih efisien dalam waktu. Sangat beralasan kiranya, karena jika asumsi normalitas data telah dipenuhi terlebih dulu, maka dampak yang mungkin akan ditimbulkan dari adanya ketidaknormalan data seperti bias pada nilai t hitung dan nilai F hitung dapat dihindari. Sebaliknya, bila dilakukan analisis regresi terlebih dulu, dimana nilai t dan F baru diketahui, yang kemudian baru dilakukan normalitas data, sedangkan ternyata hasilnya tidak normal maka analisis regresi harus diulang lagi. Pengujian normalitas ini berdampak pada nilai t dan F karena pengujian terhadap keduanya diturunkan dari asumsi bahwa data Y atau e berdistribusi normal. Dalam pengujian normalitas mempunyai dua kemungkinan, yaitu data berdistribusi normal atau tidak normal.  Apabildata  telah  berdistribusi  normal  maka tidak ada masalah karena uji t dan uji F dapat dilakukan (Kuncoro, 2001: 110). Apabila data tidak normal, maka diperlukan upaya untuk mengatasi seperti: memotong data yang out liers, memperbesar sampel, atau melakukan transformasi data. Langkah transformasi data sebagai upaya untuk menormalkan sebaran data dapat dilakukan dengan merubah data dengan nilai absolut ke dalam bilangan logaritma. Dengan mentransformasi data ke bentuk logaritma akan memperkecil error sehingga kemungkinan timbulny masalah   heteroskedastisitas   juga   menjadi sangat kecil (Setiaji, 2004: 18).

C. Uji Heteroskedastisitas
Sebagaimana  telah  ditunjukkan  dalam  salah  satu asumsi  yang  harus  ditaati  pada  model  regresi  linier, adalah residual harus homoskedastis, artinya, variance residuaharumemilikvariabel  yankonstan,  atau dengan kata lain, rentangan e kurang lebih sama. Karena jika variancenya tidak sama, model akan menghadapi masalah heteroskedastisitas. Heteroskedastisitas muncul apabila kesalahan atau residual dari model yang diamati tidak memiliki varians yang konstan dari satu observasi ke  observasi  lainnya  (Kuncoro2001:  112).  Padahal rumus regresi diperoleh dengan asumsi bahwa variabel pengganggu (error) atau e, diasumsikan memiliki variabel yang konstan (rentangan e kurang lebih sama). Apabila terjadi varian e tidak konstan, maka kondisi tersebut dikatakan tidak homoskedastik atau mengalami heteroskedastisitas (Setiaji, 2004: 17).
Konsekuensi Heteroskedastisitas
Analisis regresi menganggap kesalahan (error) bersifat homoskedastis, yaitu asumsi bahwa residu atau deviasi dari garis yang paling tepat muncul serta random sesuai dengan besarnya variabel-variabel independen (Arsyad,  1994:198). Asumsi  regresi  linier  yang  berupa variance residual yang sama, menunjukkan bahwa standar error (Sb) masing-masing observasi tidak mengalami perubahan, sehingga Snya tidak bias. Lain halnya, jika asumsi ini tidak terpenuhi, sehingga variance residualnya berubah-ubah sesuai perubahan observasi, maka akan mengakibatkan nilai Syang diperoleh dari hasil regresi akan menjadi bias. Selain itu, adanya kesalahan dalam model yang dapat mengakibatkan nilai b meskipun tetap linier  dan  tidak  bias,  tetapi  nilai  bukan  nilai  yang terbaik. Munculnya masalah heteroskedastisitas yang mengakibatkan  nilaS menjadbiasakan  berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan. Karena nilai t dihasilkan dari hasil bagi antara b dengan Sb. Untuk mendeteksi ada tidaknya heteroskedastisitas, dapat dilakukan dengan berbagai cara seperti uji grafik, uji Park, Uji Glejser, uji Spearmans Rank Correlation, dan uji Whyte menggunakan Lagrange Multiplier (Setiaji,2004: 18). Pengujian heteroskedastisitas menggunakan uji grafik, dapat dilakukan dengan membandingkan sebaran antara nilai prediksi variabel terikat dengan residualnya, yang output pendeteksiannya akan tertera berupa sebaran data pada scatter plot. Dengan menggunakan alat bantu komputer teknik ini sering dipilih, karena alasan kemudahan dan kesederhanaan cara pengujian, juga tetap mempertimbangkan valid dan tidaknya hasil pengujian.

D. Uji Multikolinieritas
Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yangperfect atau eksak di antara variabel penjelas yang dimasukkan ke dalam model. Tingkat kekuatan hubungan antar variabel penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan sempurna. Tingkat kolinear dikatakan lemah apabila masing-masing variabel  penjelas  hanya  mempunyai  sedikisifat-sifat yang sama. Apabila antara variabel penjelas memiliki banyak sifat-sifat  yang sama dan serupa sehingga hampir tidak dapat lagi dibedakan tingkat pengaruhnya terhadap Y, maka tingkat kolinearnya dapat dikatakan serius, atau perfect, atau sempurna. Sedangkan Tidak berklinear jika antara variabel penjelas tidak mempunyai sama sekali kesamaan.
Konsekuensi Multikolinearitas
Pengujian multikolinearitas merupakan tahapan penting yang harus dilakukan dalam suatu penelitian, karena apabila belum terbebas dari masalah multikolinearitas   akan   menyebabkan   nila koefisien regres (b masing-masing   variabel   bebas   dan   nilai standar error-nya (Sb) cenderung bias, dalam arti tidak dapat   ditentukan   kepastia nilainya,   sehingg akan berpengaruh pula terhadap nilai t (Setiaji, 2004: 26).
Pendeteksian Multikolinearitas
Terdapat beragam cara untuk menguji multikolinearitas, di antaranya: menganalisis matrix korelasi dengan Pearson Correlation atau dengan Spearmans Rho Correlation, melakukan regresi partial dengan teknik auxilary regression, atau dapat pula dilakukan  dengan  mengamati  nilai  variance  inflation factor (VIF). Cara mendeteksi ada tidaknya multikolinieritas dengan menghitung nilai korelasi antar variabel dengan menggunakan Spearmans Rho Correlation dapat dilakukan apabila data dengan skala ordinal (Kuncoro, 2001: 114). Sementara untuk data interval atau nominal dapat dilakukan dengan   Pearson Correlation. Selain itu metode ini lebih mudah dan lebih sederhana tetapi tetap memenuhi syarat untuk dilakukan. Dalam kaitan adanya kolinear yang tinggi sehingga menimbulkan tidak terpenuhinya asumsi terbebas dari masalah   multikolinearitas,  dengan   mempertimbangkan sifat data dari cross section,  maka bila tujuan persamaan hanya  sekedar  untuk  keperluan  prediksi,  hasil  regresi dapat ditolerir, sepanjang nilai t signifikan.


2.   Kesimpulan
Secara teoritis model OLS akan menghasilkan estimasi nilai parameter model penduga yang sahih bila dipenuhi asumsi Tidak ada Autokorelasi, Tidak Ada Multikolinearitas, dan Tidak ada Heteroskedastisitas. Apabila seluruh asumsi klasik tersebut telah terpenuhi maka akan menghasilkan hasil regresi yang best, linear,unbias, efficient of estimation (BLUE).
3.   Jawaban
a)      Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada analisis regresi linier berganda yang berbasis Ordinary Least Square (OLS). 
b)      Asumsi asumsi yang ditetapkan :
Ø  linear regression model
Ø  nilai X
Ø  variabel pengganggu e memiliki rata-rata nilai 0 homoskedastisitas
Ø  tidak ada otokorelasi antara variabel e pada setiap nilai x dan j
Ø  variabel x dan disturbance e tidak berkorelasi
Ø  jumlah observasi / besar sampel () n0 harus lebih besar dari jumlah parameter yang diestimasi
Ø  variabel x harus memiliki variabilitas
Ø   model regresi secara benar telah terspesifiikasi
Ø   tidak ada multikolinearitas antara variabel penjelas
c)      Karena penyimpangan masing masing asumsi tidak mempunyai dampak yang sama terhadap regresi.
d)      Autokorelasi adalah keadaan dimana variabel gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada periode lain. Sifat autokorelasi muncul bila terdapat korelasi antara data yang diteliti, baik itu data jenis runtut waktu (time series) ataupun data kerat silang (cross section).
e)      Autokoerlasi timbul karena terdapat gangguan autokorelasi pada model regresi yang diteliti baik itu data jenis waktu ataupun data karet silang.
f)       Mendeteksi autokorelasi dengan adanya ketergantungan atau kesalahan pengganggu yang secara otomatis mempengaruhi data berikutnya.
g)      Konsekuensi adanya masalah autokorelasi dalam model yaitu nilai t hitung akan menjadi bias karena nilai t diperoleh dari hasil bagi  terhadap b. Berhubung nilai  bias maka nilai t juga akan bias atau bersifat tidak pasti.
h)     Heteroskedastisitas merupakan salah satu faktor yang menyebabkan model regresi linier sederhana tidak efisien dan akurat, juga mengakibatkan penggunaan metode kemungkinan maksimum dalam mengestimasi parameter (koefisien) regresi akan terganggu.
i)        Heteroskedastistas muncul karena adanya kesalahan atau residual dari model yang diamati tidak memiliki varian yang konstan dari satu observasi ke observasi lain.
j)       Mendeteksi masalah Heteroskedastistas dari data cross section karena masalah tersebut lebih sering muncul di cross section daripada time series
k)     Konsekuensi adanya masalah residual atau debiasi dari garis yang paling tepat muncul serta random sesuai dengan besarnya variabel-variabel independen.
l)        Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yang ”perfect” atau eksak di antara variabel penjelas yang dimasukkan ke dalam model. 
m)   Mutikolinearitas timbul karena tingkat kolinear dikatakan lemah apabila masing-masing variabel penjelas hanya mempunyai sedikit sifat-sifat yang sama
n)     Mendeteksi masalah Mutikolinearitas dengan menganalisis matrik korelasi dengan pearson correlation atau dengan supermans tho correation, melakukan regresi partial dengan teknik auxiliary regression atau dapat pula dilakukan dengan mengamati nilai variance inflation factor (VIF).
Konsekuensi adanya masaalah Mutikolinearitas nilai koefisien regresi (b) masing – masing variabel bebas dan nilai standar errornya () cenderung bias, dalam arti tidak dapat ditentukan nilainya, sehingga akan berpengaruh pula terhadap nilai t.
o)      Normalitas untuk melihat apakah nilai residual terdistribusi normal atau tidak model regresi yang baik adalah memiliki nilai residual yang terdistribusi normal.
p)     Normalitas timbul karena pengujian normalitas data dapat dilakukan sebelum ataupun setelah tahapan analisis regresi.
q)     Mendeteksi masalah normalitas dengan menggunakan metode numerik yang membandingkan nilai statistik yaitu antara nilai median dengan nilai mean, menggunakan formula jarque bera dan mengamati sebaran data.
r)      Konsekuensi dari adanya masalah normalitas adalah pengujian normalitas ini berdampak pada nilai t dan F karena pengujian terhadap keduanya diturunkan dari asumsi bahwa data Y atau e berdistribusi normal.
s)       Cara menangani jika data tersebut ternyata tidak normal diperlukan upaya untuk mengatasi seperti memotong data out liers, memperbesar sampel atau melakukan transformasi data


t)  Cara menangani jika data ternyata tidak normal adalah diperlukan upaya untuk mengatasi seperti: memotong data yang out liers, memperbesar sampel, atau melakukan transformasi data
https://uniba.ac.id/utama/