Senin, 10 Juli 2017

NOVITA PUTRI UNTARI
2014020043

1. Rangkuman BAB V:

UJI ASUMSI KLASIK

   Regresi linier sederhana maupun regresi linier berganda harus memenuhi asumsi- asumsi yang telah ditentukan. Jika data yang diregresi tidak memenuhi asumsi maka regresi yang ditetapkan akan menghasilkan estimasi yang bias. Apabila sebaliknya maka nilai estimasi yang diperoleh bersifat BLUE ( Best, Linier, Unbiased, Estimator).
     Best apabila garis regresi yang dihasilkan menghasilkan error terkecil. Linier apabila variable- variable penduganya berpangkat satu sehingga menghasilkan fungsi linier. Unbiased apabila nilai harapan dari estimator b sama dengan nilai yang benar dari b. Estimator yang efisisen dapat ditemukan apabila ketiga kondisi di atas telah tercapai.

Uji Autokorelasi
Autokorelasi adlah keadaan dimana variable gangguan pada periode tertentu berkorelasi dengan variable gangguan pada periode lain. Autokorelasi sering terjadi pada data time series karena sifat datanya lekat dengan kontinyuitas dan adanya sifat ketergantungan antar data. Bahasa matematis autokorelasi:
E(ui, uj)  0; i  j ( terdapat ketergantungan data)
E(ui, uj) = 0; i  j ( tidak terdapat ketergantungan data)

Sebab- sebab autokorelasi:
1. Kesalahan dalam pembentukan model
2. Tidak memasukkan variable yang penting
3. Manipulasi data
4.Menggunakan data yang tidak empiris

Akibat autokorelasi:
    Meskipun ada autokorelasi, nilai parameter estimator (b1, b2,…,bn) model regresi tetap linear dan tidak bias dalam memprediksi B (parameter sebenarnya). Akan tetapi nilai variance tidak minimum dan standard error (Sb1, Sb 2) akan bias. Akibatnya adalah nilai t hitung akan menjadi bias pula, karena nilai t diperoleh dari hasil bagi Sb terhadap b (t = b/sb). Berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti (misleading).
Pengujian Autokorelasi
Uji Durbin-waston (DW test)
Formula yang digunakan untuk mendeteksi terkenal pula dengan sebutan Durbin-Watson d statistic, yang dituliskan sebagai berikut:
t =n
å(uˆt  - uˆt -1 )2
d   = t =2   t =n
å uˆt2
t =2
atau dapat pula ditulis dalam rumus sebagai berikut:
d = 2(1 - ået2.et -1 ) et
Dalam DW test ini terdapat beberapa asumsi penting yang harus dipatuhi, yaitu:
1. Terdapat intercept dalam model regresi.
2. Variabel penjelasnya tidak random (nonstochastics).
3. Tidak ada unsur lag dari variabel dependen di dalam model.
4. Tidak ada data yang hilang
 5.  ut  = rut -1 + et
   
     Metode Lagrange Multiplier (LM
     Model LM:
Y     =     b0 + b1X1+ b2 X2 + b3 Yt-1+ b4 Yt-2  + e  
Variabel Yt-1 merupakan variabel lag 1 dari Y.

Variabel Yt-2 merupakan variabel lag 2 dari Y.
b. Uji Normalitas
    uji normalitas dilakukan untuk menguji apakah variable pengganggu e memiliki distribusi normal atau tidak. Cara untuk melakukan uji normalitas, antara lain:
1)      Menggunakan metode numerik yang membandingkan nilai statistik, yaitu antara nilai median dengan nilai mean.

2)      Menggunakan formula Jarque Bera (JB test), yang rumusnya tertera sebagai berikut:
é
S
2

(K - 3)
2
ù
JB = nê

+

ú
6
24

ë


û
dimana:
S = Skewness (kemencengan) distribusi data
K= Kurtosis (keruncingan)
Skewness sendiri dapat dicari dari formula sebagai berikut:
S = [[E((X - m)23]]32
E X - m


K = [ E((X - m))24]2
E X - m
3)      Mengamati sebaran data, dengan melakukan hitungan-hitungan berapa prosentase data observasi dan berada di area mana.. Standar deviasi dapat dicari melalui rumus sebagai berikut:

SD = å(Dv - Dv)
n
Standar deviasi ini digunakan untuk menentukan rentang deviasi dari posisi simetris data. Untuk mempermudah, kita dapat memberinya nama:
SD1 yang berarti rentang pertama, di sebelah kiri dan sebelah kanan dari posisi tengah-tengah (simetris).
SD2 yang berarti rentang kedua di sebelah kiri dan sebelah kanan posisi tengah-tengah (simetris)

SD3 yang berarti rentang ketiga di sebelah kiri dan sebelah kanan posisi tengah-tengah (simetris)
c. Uji Heteroskedastisitas
   Heteroskedastisitas muncul apabila kesalahan atau residual dari model yang diamati tidak memiliki varians yang konstan dari satu observasi ke observasi lainnya (Kuncoro, 2001: 112). Padahal rumus regresi diperoleh dengan asumsi bahwa variabel pengganggu (error) atau e, diasumsikan memiliki variabel yang konstan (rentangan e kurang lebih sama). Apabila terjadi varian e tidak konstan, maka kondisi tersebut dikatakan tidak homoskedastik atau mengalami heteroskedastisitas (Setiaji, 2004: 17).

Konsekuensi Heteroskedastisitas
   Analisis regresi menganggap kesalahan (error) bersifat homoskedastis, yaitu asumsi bahwa residu atau deviasi dari garis yang paling tepat muncul serta random sesuai dengan besarnya variabel-variabel independen (Arsyad, 1994:198).

Pendeteksian Heteroskedastisitas
    Untuk mendeteksi ada tidaknya heteroskedastisitas, dapat dilakukan dengan berbagai cara seperti uji grafik, uji Park, Uji Glejser, uji Spearman’s Rank Correlation, dan uji Whyte menggunakan Lagrange Multiplier (Setiaji, 2004: 18). Pengujian heteroskedastisitas menggunakan uji Arch, dilakukan dengan cara melakukan regresi atas residual, dengan model yang dapat dituliskan e2  a  bYˆ 2  u . Dari hasil regresi tersebut dihitung nilai R2. Nilai R2 tadi dikalikan dengan jumlah sampel (R2 x N). Hasil perkalian ini kemudian dibandingkan dengan nilai chi-square (2) pada derajat kesalahan tertentu. Dengan df=1 (ingat, karena hanya memiliki satu variabel bebas). Jika R2 x N lebih besar dari chi-square (2) tabel, maka standar error mengalami heteroskedastisitas.

D. Uji Multikolinieritas
 Pengertian Multikolinearitas
    Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yang ”perfect” atau eksak di antara variabel penjelas yang dimasukkan ke dalam model.

Konsekuensi Multikolinearitas
   Logikanya adalah seperti ini, jika antara X1 dan X2 terjadi kolinearitas sempurna sehingga data menunjukkan bahwa X1=2X2, maka nilai b1 dan b2 akan tidak dapat ditentukan hasilnya, karena dari formula OLS sebagaimana dibahas terdahulu,



b1
=
(å x1 y)(å x22 ) - (å x2 y)(å x1 x2 )
(å x12 )(å x22 ) - (å x1 x2 )2


   akan menghasilkan bilangan pembagian, b1  00 , sehingga nilai b1 hasilnya tidak menentu. Hal itu akan berdampak pula pada standar error Sb akan menjadi sangat besar, yang tentu akan memperkecil nilai t.

Pendeteksian Multikolinearitas
    Terdapat beragam cara untuk menguji multikolinearitas, di antaranya: menganalisis matrix korelasi dengan Pearson Correlation atau dengan Spearman’s Rho Correlation, melakukan regresi partial dengan teknik auxilary regression, atau dapat pula dilakukan dengan mengamati nilai variance inflation factor (VIF).

2. Simpulan BAB V:
   Uji asumsi klasik dapat dikatakan sebagai uji kriteria ekonomi untuk mengetahuibahwa hasil estimasi asumsi dasar linier klasik. Dengan terpenuhinya asumsi-asumsi ini,maka diharapkan koefisien-koefisien yang diperoleh menjadi penaksir mempunyai sifatefisiensi, linier, dan tidak bias.
     Uji normalitas bertujuan untuk menguji apakah dalam model regresi, variabelpengganggu atau residual memiliki distribusi normal. Seperti diketahui bahwa uji t dan Fmengasumsikan bahwa nilai residual mengikuti distribusi normal. Kalau asumsi inidilanggar maka uji statistik menjadi tidak valid untuk jumlah sampel kecil.
     Uji multikolinearitas bertujuan untuk menguji apakah model regresi ditemukanadanya korelasi antar variabel bebas (independen). Model regresi yang baik seharusnya tidakterjadi korelasi di antara variabel independen. Jika variabel independen saling berkorelasi,maka variabel-variabel ini tidak ortogonal. Variabel ortogonal adalah variabel independenyang nilai korelasi antara sesama variabel independen sama dengan nol
Mengetahui kegunaan dan spesifikasi model,Menjelaskan hubungan antar variabelMengaitkan data yang relevan dengan teori Mengembangkan data, Menghitung nilaiparameter, Mengetahui arti dan fungsi parameter Menentukan signifikan tidaknya variabelbebas, Menentukan determinasi model Menjelaskan tahapan-tahapan regresi Membaca hasilregresi ,Menyebutkan asumsi-asumsi. Membedakan dengan regresi linier sederhana

3. Menjawab pertanyaan:

a. Asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada analisis regresi linier berganda yang berbasis ordinary least square (OLS).

b. Asumsi- asumsi yang ditetapkan adalah BLUE ( Best, Linier, Unbiased, Estimator). Best apabila garis regresi yang dihasilkan menghasilkan error terkecil. Linier apabila variable- variable penduganya berpangkat satu sehingga menghasilkan fungsi linier. Unbiased apabila nilai harapan dari estimator b sama dengan nilai yang benar dari b. Estimator yang efisisen dapat ditemukan apabila ketiga kondisi di atas telah tercapai.

c. Tidak semua asumsi dilakukan pengujian karena apabila persamaan regresi yang akan diuji tidak memenuhi asumsi yang ada maka hasilnya akan bersifat bias.

d. Autokorelasi adalah keadaaqn dimana variabel gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada periode lain.

e. Autokorelasi timbul karena terdapat korelasi antara data yang diteliti baik itu data time series ataupun cross section.

f. Cara mendeteksi masalah autokorelasi adalah, autokorelasi ditunjukkan oleh nilai e yang mempunyai rata-rata nol dan variannya konstan.

g. Konsekuensi masalah korelasi dalam model adalah nilai t hitung akan menjadi bias, karena nilai t diperoleh dari hasil bagi Sb terhadap b. Berhubung nilai Sb bias maka nilai t akan bias atau bersifat tidak pasti (misleading).

h. Heteroskedastisitas adalah adanya ketidaksamaan varian dari residual untuk semua pengamatan pada model regresi.

i. Heteroskedastisitas timbul karena kesalahan atau residual  dari model yang diamati tidak memiliki varian yang konstan dari satu observasi ke observasi lainnya.

j. Cara mendeteksi heteroskedastisitas adalah dengan uji grafik, uji park, uji glejser, uji spearman’s rank correlation dan uji whyte.

k. Konsekuensi heteroskedastisitas adalah sulit mengukur standart deviasi yang sebenarnya.
Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linier yang perfect atau eksak diantara variabel penjelas yang dimasukkan ke dalam model.

l. Multikolinieritas timbul karena kesalahan teoritis dalam pembentukan model dan terlampau kecilnya jumlah pengamatan yang akan dianalisis dengan model regresi.

m. Cara mendeteksi masalah multikolinieritas ada beberapa metode deteksi multikolinearitas, antara lain:
1. Kolinearitas seringkali diduga jika R2 cukup tinggi (antara 0,7-1) dan jika koefisien korelasi sederhana (korelasi derajat nol) juga tinggi, tetapi tak satu pun/ sedikit sekali koefisien regresi parsial yang signifikan secara individu. Di pihak lain, uji F menolak H0 yang mengatakan bahwa secara stimulan seluruh koefisien regresi parsialnya adalah nol.
2. Meskipun korelasi derajat nol yang tinggi mungkin mengusulkan kolinearitas, tidak perlu bahwa mereka tinggi berarti mempunyai kolinearitas dalam kasus spesifik. Untuk meletakkan persoalan agar secara teknik, korelasi derajat nol yang tinggi merupakan kondisi yang cukup tapi tidak perlau adanya kolinearitas karena hal ini dapat terjadi meskipun melalui korelasi derajat nol atau sederhana relaif rendah.
3. Untuk mengetahui ada tidaknya kolinearitas ganda dalam model regresi linear berganda, tidak hanya melihat koefisien korelasi sederhana, tapi juga koefisien korelasi parsial.
4. Karena multikolinearitas timbul karena satu atau lebih variabel yang menjelaskan merupakan kombinasi linear yang pasti atau mendekati pasti dari variabel yang menjelaskan lainnya, satu cara untuk mengetahui variabel X yang mana berhubungan dengan variabel X lainnya adalah dengan meregresi tiap Xi atas sisa variabel X dan menghitung R2 yang cocok

o. Konsekuensi masalah multikolinieritas adalah
1. Walaupun koefisien regresi dari variabel X dapat ditentukan (determinate), tetapi kesalahan standarnya akan cenderung semakin besar dengan meningkatnya tingkat korelasi antara peningkatan variabel bebas.
2. Karena besarnya kesalahan standar, selang keyakinan untuk parameter populasi yang relevan cenderung untuk lebih besar.
3. Dalam kasus multikolinearitas yang tinggi, data sampel mungkin sesuai dengan sekelompok hipotesis yang berbeda-beda. Jadi probabilitas untuk menerima hipotesis yang salah akan meningkat.
4. Selama multikolinearitas tidak sempurna, penaksiran koefisien regresi adalah mungkin tetapi taksiran dan kesalahan standarnya menjadi sangat sensitif terhadap perubahan dalam data.
5. Jika multikolinearitas tinggi, seseorang mungkin memperoleh R2 yang tinggi, tetapi tidak satu pun atau sangat sedikit koefisien yang ditaksir yang penting secara statistik.

p. Normalitas adalah sebuah uji yang dilakukan dengan tujuan untuk menilai sebaran data pada sebuah kelompok data atau variabel, apakah sebaran data tersebut berdistribusi normal ataukah tidak.

q.Normalitas timbul karena adanya data ekstrim, tumpang tindih dari dua atau lebih proses, kurangnya data diskriminasi, data yang diurutkan, nilai mendekati nol, data mengikuti distribusi berbeda.

r. Cara mendeteksi masalah normalitas Ketika data tidak terdistribusi normal , penyebab non - normalitas harus ditentukan dantindakan perbaikan yang tepat harus diambil

Referensi: Supawi Pawenang, 2017, Modul Akutansi Biaya UNIBA

Tidak ada komentar:

Posting Komentar