Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada
analisis regresi linear berganda yang berbasis ordinary least square
(OLS). Jadi analisis regresi yang tidak berdasarkan OLS tidak
memerlukan persyaratan asumsi klasik, misalnya regresi logistik atau
regresi ordinal. Demikian juga tidak semua uji asumsi klasik harus
dilakukan pada analisis regresi linear, misalnya uji multikolinearitas
tidak dapat dipergunakan pada analisis regresi linear sederhana dan uji
autokorelasi tidak perlu diterapkan pada data cross sectional.
Uji asumsi klasik juga tidak perlu
dilakukan untuk analisis regresi linear yang bertujuan untuk menghitung
nilai pada variabel tertentu. Misalnya nilai return saham yang
dihitung dengan market model, atau market adjusted model. Perhitungan
nilai return yang diharapkan dilakukan dengan persamaan regresi, tetapi
tidak perlu diuji asumsi klasik.
Setidaknya ada lima uji asumsi klasik,
yaitu uji multikolinearitas, uji heteroskedastisitas, uji normalitas,
uji autokorelasi dan uji linearitas. Tidak ada ketentuan yang pasti
tentang urutan uji mana dulu yang harus dipenuhi. Analisis dapat
dilakukan tergantung pada data yang ada. Sebagai contoh, dilakukan
analisis terhadap semua uji asumsi klasik, lalu dilihat mana yang tidak
memenuhi persyaratan. Kemudian dilakukan perbaikan pada uji tersebut,
dan setelah memenuhi persyaratan, dilakukan pengujian pada uji yang
lain.
1. Uji Normalitas
Uji Normalitas adalah untuk melihat
apakah nilai residual terdistribusi normal atau tidak. Model regresi
yang baik adalah memiliki nilai residual yang terdistribusi normal.
Jadi uji normalitas bukan dilakukan pada masing-masing variabel tetapi
pada nilai residualnya. Sering terjadi kesalahan yang jamak yaitu bahwa
uji normalitas dilakukan pada masing-masing variabel. Hal ini tidak
dilarang tetapi model regresi memerlukan normalitas pada nilai
residualnya bukan pada masing-masing variabel penelitian.
Pengertian normal secara sederhana
dapat dianalogikan dengan sebuah kelas. Dalam kelas siswa yang bodoh
sekali dan pandai sekali jumlahnya hanya sedikit dan sebagian besar
berada pada kategori sedang atau rata-rata. Jika kelas tersebut bodoh
semua, maka tidak normal, atau sekolah luar biasa. Dan sebaliknya jika
suatu kelas banyak yang pandai, maka kelas tersebut tidak normal atau
merupakan kelas unggulan. Pengamatan data yang normal akan memberikan
nilai ekstrim rendah dan ekstrim tinggi yang sedikit dan kebanyakan
mengumpul di tengah. Demikian juga nilai rata-rata, modus dan median
relatif dekat.
Uji normalitas dapat dilakukan dengan
uji histogram, uji normal P Plot, uji Chi Square, Skewness dan Kurtosis
atau uji Kolmogorov Smirnov. Tidak ada metode yang paling baik atau
paling tepat. Tipsnya adalah bahwa pengujian dengan metode grafik
sering menimbulkan perbedaan persepsi di antara beberapa pengamat,
sehingga penggunaan uji normalitas dengan uji statistik bebas dari
keragu-raguan, meskipun tidak ada jaminan bahwa pengujian dengan uji
statistik lebih baik dari pada pengujian dengan metode grafik.
Jika residual tidak normal tetapi
dekat dengan nilai kritis (misalnya signifikansi Kolmogorov Smirnov
sebesar 0,049), maka dapat dicoba dengan metode lain yang mungkin
memberikan justifikasi normal. Tetapi jika jauh dari nilai normal, maka
dapat dilakukan beberapa langkah yaitu: melakukan transformasi data,
melakukan trimming data outliers atau menambah data observasi.
Transformasi dapat dilakukan ke dalam bentuk Logaritma natural, akar
kuadrat, inverse, atau bentuk yang lain tergantung dari bentuk kurva
normalnya, apakah condong ke kiri, ke kanan, mengumpul di tengah atau
menyebar ke samping kanan dan kiri.
2. Uji Multikolinearitas
Uji Multikolinearitas adalah untuk
melihat ada atau tidaknya korelasi yang tinggi antara variabel-variabel
bebas dalam suatu model regresi linear berganda. Jika ada korelasi
yang tinggi di antara variabel-variabel bebasnya, maka hubungan antara
variabel bebas terhadap variabel terikatnya menjadi terganggu. Sebagai
ilustrasi, adalah model regresi dengan variabel bebasnya motivasi,
kepemimpinan dan kepuasan kerja dengan variabel terikatnya adalah
kinerja. Logika sederhananya adalah bahwa model tersebut untuk mencari
pengaruh antara motivasi, kepemimpinan dan kepuasan kerja terhadap
kinerja. Jadi tidak boleh ada korelasi yang tinggi antara motivasi
dengan kepemimpinan, motivasi dengan kepuasan kerja atau antara
kepemimpinan dengan kepuasan kerja.
Alat statistik yang sering
dipergunakan untuk menguji gangguan multikolinearitas adalah dengan
variance inflation factor (VIF), korelasi pearson antara
variabel-variabel bebas, atau dengan melihat eigenvalues dan condition
index (CI).
Beberapa alternatif cara untuk mengatasi masalah multikolinearitas adalah sebagai berikut:
1. Mengganti atau mengeluarkan variabel yang mempunyai korelasi yang tinggi.
2. Menambah jumlah observasi.
2. Menambah jumlah observasi.
3. Mentransformasikan data ke
dalam bentuk lain, misalnya logaritma natural, akar kuadrat atau bentuk
first difference delta.
4. Dalam tingkat lanjut dapat digunakan metode regresi bayessian yang masih jarang sekali digunakan.
3. Uji Heteroskedastisitas
Uji Heteroskedastisitas adalah untuk
melihat apakah terdapat ketidaksamaan varians dari residual satu ke
pengamatan ke pengamatan yang lain. Model regresi yang memenuhi
persyaratan adalah di mana terdapat kesamaan varians dari residual satu
pengamatan ke pengamatan yang lain tetap atau disebut
homoskedastisitas.
Deteksi heteroskedastisitas dapat
dilakukan dengan metode scatter plot dengan memplotkan nilai ZPRED
(nilai prediksi) dengan SRESID (nilai residualnya). Model yang baik
didapatkan jika tidak terdapat pola tertentu pada grafik, seperti
mengumpul di tengah, menyempit kemudian melebar atau sebaliknya melebar
kemudian menyempit. Uji statistik yang dapat digunakan adalah uji
Glejser, uji Park atau uji White.
Beberapa alternatif solusi jika model menyalahi asumsi
heteroskedastisitas adalah dengan mentransformasikan ke dalam bentuk
logaritma, yang hanya dapat dilakukan jika semua data bernilai positif.
Atau dapat juga dilakukan dengan membagi semua variabel dengan
variabel yang mengalami gangguan heteroskedastisitas.
4. Uji Autokorelasi
Uji Autokorelasi adalah untuk melihat
apakah terjadi korelasi antara suatu periode t dengan periode
sebelumnya (t -1). Secara sederhana adalah bahwa analisis regresi
adalah untuk melihat pengaruh antara variabel bebas terhadap variabel
terikat, jadi tidak boleh ada korelasi antara observasi dengan data
observasi sebelumnya. Sebagai contoh adalah pengaruh antara tingkat
inflasi bulanan terhadap nilai tukar rupiah terhadap dollar. Data
tingkat inflasi pada bulan tertentu, katakanlah bulan Februari, akan
dipengaruhi oleh tingkat inflasi bulan Januari. Berarti terdapat
gangguan autokorelasi pada model tersebut. Contoh lain, pengeluaran
rutin dalam suatu rumah tangga. Ketika pada bulan Januari suatu
keluarga mengeluarkan belanja bulanan yang relatif tinggi, maka tanpa
ada pengaruh dari apapun, pengeluaran pada bulan Februari akan rendah.
Uji autokorelasi hanya dilakukan pada
data time series (runtut waktu) dan tidak perlu dilakukan pada data
cross section seperti pada kuesioner di mana pengukuran semua variabel
dilakukan secara serempak pada saat yang bersamaan. Model regresi pada
penelitian di Bursa Efek Indonesia di mana periodenya lebih dari satu
tahun biasanya memerlukan uji autokorelasi.
Beberapa uji statistik yang sering
dipergunakan adalah uji Durbin-Watson, uji dengan Run Test dan jika data
observasi di atas 100 data sebaiknya menggunakan uji Lagrange
Multiplier. Beberapa cara untuk menanggulangi masalah autokorelasi
adalah dengan mentransformasikan data atau bisa juga dengan mengubah
model regresi ke dalam bentuk persamaan beda umum (generalized
difference equation). Selain itu juga dapat dilakukan dengan memasukkan
variabel lag dari variabel terikatnya menjadi salah satu variabel
bebas, sehingga data observasi menjadi berkurang 1.
5. Uji Linearitas
Uji Linearitas dipergunakan untuk
melihat apakah model yang dibangun mempunyai hubungan linear atau
tidak. Uji ini jarang digunakan pada berbagai penelitian, karena
biasanya model dibentuk berdasarkan telaah teoretis bahwa hubungan
antara variabel bebas dengan variabel terikatnya adalah linear.
Hubungan antar variabel yang secara teori bukan merupakan hubungan
linear sebenarnya sudah tidak dapat dianalisis dengan regresi linear,
misalnya masalah elastisitas.
Jika ada hubungan antara dua variabel yang belum diketahui apakah
linear atau tidak, uji linearitas tidak dapat digunakan untuk
memberikan adjustment bahwa hubungan tersebut bersifat linear atau
tidak. Uji linearitas digunakan untuk mengkonfirmasikan apakah sifat
linear antara dua variabel yang diidentifikasikan secara teori sesuai
atau tidak dengan hasil observasi yang ada. Uji linearitas dapat
menggunakan uji Durbin-Watson, Ramsey Test atau uji Lagrange Multiplier.
Bisa juga dilihat disini
Bisa juga dilihat disini
Makasih pak :)
BalasHapus