Tuesday, April 18, 2017

Cara melakukan uji normalitas dengan menggunakan SPSS

Uji normalitas bertujuan untuk menguji apakah dalam model regresi, variabel pengganggu atau residual memiliki disteribusi normal. (Imam Ghazali, 2016). Pada postingan ini saya akan membahas mengenai bagai mana cara melakukan uji normalitas dengan menggunakan SPSS. pertama-tama kita harus mengetahui uji apa saja yang ada dalam uji normalitas, kemudian mengetahui ketentuannya baru ketahap selanjutnya yaitu cara melakukan uji normalitas dengan menggunakan SPSS. postingan ini hanya menekankan pada analisis grafik yaitu grafik histogaram dan normal plot dan uji statistik One sample kolmogrov smirnov. dalam uji normalitas ada beberapa cara yang dilakukan untuk melihat apakah residual berdisteribusi normal atau tidak yaitu dengan cara analisis grafik dan uji statistik
1. Analisi grafik
untuk mengetahui variabel pengganggu atau residual memiliki disteribusi normal dalam analisi grafik kita harus melihat grafik histogram dan grafik normal plot. ketentuannya adalah
-dikatakan grafik histogram menunjukkan pola distribusi normal apabila grafik terlihat berbentuk simetris, tidak melenceng kekanan ataupun kekiri. maka residual atau pariabel pengganggu terdiistribusi secara normal.-dikatakan grafik normal plot menunjukkan pola distribusi normal apabila titik-titik menyebar berhimpit disekitar garis diagonal dan maka menunjukkan residual terdistribusi secara normal. 

cara melakukan uji normalitas dengan menggunakan SPSS dapat dilakukan dengan langkah-langkah berikut:
1. Dari menu utama SPSS, Pilih menu Analyze, kemudian sub menu Regression kemudian klik Linear.
2. lakukan regresi dengan memasukkan masing-masing variabel, pilih Plots
3. Beri tanda centang pada Histogram dan Normal probability plot, klik Continue kemudian Ok
2. Uji statistik
untuk mengetahui variabel pengganggu atau residual memiliki disteribusi normal dalam dalam uji statistik diantaranya dengan menggunakan uji One sample kolmogrov smirnov. uji one sample kolmogrov smirnov digunakan untuk mengetahui distribusi data, residual terdistribusi normal jika nilai signifikansi lebih dari 0,05.
cara melakukan One sample kolmogrov smirnov dengan menggunakan SPSS dapat dilakukan dengan langkah-langkah berikut:
1. Dari menu utama SPSS, Pilih menu Analyze, kemudian sub menu Nonparametric test, lalu pilih Legacy dialogs dan klik 1-Sample K-S
2. Masukkan Unstandarizad dan beri tanda centang pada Normal kemudian pilih Ok




Monday, April 17, 2017

Cara melakukan uji autokorelasi


Uji autokorelasi bertujuan untuk menguji apakah dalam model regresi ada korelasi antara kesalahan penggangu pada periode t dengan kesalahan penggangu pada periode t sebelumnya (Imam Ghozali, 2016). Dalam uji aotokorelasi untuk mendiaknosis adanya autokorelasi dalam suatu model regresi dilakukan melalui pengujian durbin Watson (DW tes). Pada postingan ini kita akan membahas lebih detail bagaimana cara melakukan uji autokorelasi, adapun langkah-langkah yang harus diketahui dalam melakukan uji autokorelasi diantaranya sebagai berikut:
  • Mengetahui dasar pengambilan keputusan dalam uji Durbin Watson (DW tes) 
  1. Jika nilai d (durbin watson) lebih kecil dari nilau dl atau nilai d (durbin watson) lebih besar dari 4 dikurangi dl maka dapat disimpulkan adanya autokorelasi. 
  2. Jika nilai d (durbin watson) terletak di antara nilai du dan 4- du maka tidak terdapat autokorelasi 
  3. Jika nilai d (durbin watson) terletak diantara dl dan du atau d (durbin watson) berada di antara 4-du dan 4-dl maka tidak ada keputusan adanya autokorelasi atau tidak. 
  • Menentukan nilai tabel Durbin Watson
  • dalam menentukan nilai tabel pada durbin watson bukanlah hal yang sulit karna kita hanya berpatokan pada tarap signifikan pakai, berapa banyak jumlah responden yang kita gunakan dan berapa banyak variabel yang kita gunakan. adapun simbol yang ada pada tabel durbin watson diantaranya adalah:
-Simbol ‘k’ pada tabel menunjukkan banyaknya variabel bebas (Independen), namun tidak termasuk variabel terikat.
-Simbol ‘n’ pada tabel menunjukkan banyaknya observasi.
sebagai contoh misalkan kita melakukan penelitian dengan menggunakan tiga variabel bebas diantaranya adalah tangible, empati dan reliability dalam penilitain kita mencari tabel durbin watson dengan tarap signifikan sebesar 5% dan jumlah observasi 30 responden. maka kita hanya mencari nilai tabel durbin watson kita dengan melihat jumlah (n) observasi dan (k) variabel bebas, seperti gambar dibawah.

  • Menyimpulkan nilai Durbin Watson
setelah kita mendapatkan nilai tabel durbin watson maka kita harus melakukan kesimpulan seperti gambar dan keterangan seperti yang ada dibawah. hal ini bertujuan apakah nilai tabel durbin watson yang kita peroleh dari tabel DW tersebut bebas adari autokorelasi atau tidak. seperti yang sudah kita ketahui hasil dari tabel durbin watson ditemukan nilai du = 1.649 dan nilai dl  =  1.213 kurangi 4  hasil du dan dl (4-1.649 dan 4-1.213)

pengujian Autokorelasi dapat dilihat hasil yang diperoleh nilai DW sebesar 2,111 berdasarkan tabel Durbin Watson untuk nilai dl = 1,213 dan du = 1,643 maka dari nilai DW = 2,111 tersebut berada diantara 1,643 dan 4 - 1,643 = 2,351. sehingga kita dapat menyimpulkan bahwa tidak tedapat autokorelasi. maka dapat disimpulan bahwa tidak ada kecenderungan terjadi autokorelasi positif maupun negative pada uji autokorelasi.

Uji Heteroskedastisitas Dengan SPSS

Uji heteroskedastisitas bertujuan untuk menguji apakah dalam model regresi terjadi ketidaksamaan variance dari residual suatu pengamatan kepengamatan yang lain (Imam Ghozali, 2016). dalam uji hetroskedastisitas ada beberapa uji yang biasa dilakukan diantaranya iyalah analisis grafik dan uji statistik. diantara kedua uji tersebut merupakan pedoman yang digunakan untuk menyimpulkan apakah adanya heteroskedastisitas atau tidak. Deteksi ada tidaknya Heteroskedastisitas yaitu dilakukan dengan cara:
a. menganalisi grafik scatterplot
dalam menganalisis grafik scatterplot ada beberapa ketentuan yang menjadi acuan apakah terjadinya heteroskedastisitas, ketentuannya adalah jika ada pola tertentu seperti titik-titik membentuk suatu pola tertentu yang teratur (bergelombang, melebar kemudian menyampit), maka mengindikasikan telah terjadinya heteroskedastisitas. namun sebaliknya jika titik- titik pada grafik scatterplot menyebar secara acak (tidak membentuk pola) serta tersebar baik diatas maupun di bawah angka nol maka tidak adanya heteroskedastisitas. contoh grafik yang ada dibawah.
 
dapat kita lihat grafik scetterplots yang terdapat diatas bahwa  titik- titik menyebar secara acak (tidak membentuk pola) serta tersebar baik diatas maupun dibawah angka 0 (nol) pada sumbu Y. Hali ini dapat disimpulkan bahwa tidak terjadinya heteroskedastisitas pada model regresi.
b. Uji glejser
uji glejer merupakan uji statistik yang menggambarkan lebih jelas tentang adanya gejala pada uji heteroskedastisitas, karna jika hanya menggunakan analisa grafik scatterplot pada uji heteroskedastisitas dengan jumlah pengamatan yang sedikit (responden) akan cenderung signifikan. maka uji glejser merupakan uji statistik yang menjamin keakuratan ada atau tidaknya heteroskedastisitas pada suatu penelitian. dasar pengambilan keputusan dalam uji glejser yaitu:
-Jika probabilitas signifikan lebih besar dari 5 %. maka tidak terjadi heteroskedastisitas
-Jika probabilitas signifikan lebih kecil dari 5 %. maka terjadi heteroskedastisitas
Cara melakukan uji glajser dengan menggunakan SPSS:
1. Pilih menu Transform dan kelik dibagian Computer Variabel
 
2. Beri nama dan kode pada Target Variabel dan Numeric Expression seperti gambar di bawah kemudian kelik ok.
3. pilih menu Analyce kemudian Regression lalu kelik Linear
4. Masukkan RES2 ketempat kolom Dependent dan Variabel independen ke kolom Block 1 of 1, kemudian tekan Save dan hilangkan tanda centang pada Unstandardized, kelik Continu dan ok.
setelah melakukan langkah-langkah uji glejser diatas kita dapat melihat output data SPSS yaitu coefficients. Berdasarkan pengujian heteroskedastisitas dengan menggunakan uji glajer yang harus di perhatikan adalah nilai sig (signifikansi) variabel bebas yaitu variabel tangible, empathy dan reliability lebih besar dari 0,05. Hal ini dapat dilihat bahwa tidak ada nilai variabel yang di bawah 0,05 maka dapat di simpulkan tidak terjadinya terjadinya heteroskedastisitas



 




Sunday, April 16, 2017

Uji Multikolinearitas

Uji multikolinieritas bertujuan untuk menguji apakah model regresi ditemukan adanya korelasi antar varibel bebas (independen). Model regresi yang baik seharusnya tidak terjadi korelasi di antara varibel independen. jika variabel independen memiliki korelasi yang kuat maka diindikasikan terjadinya problem multikolinieritas, dalam uji multikolinieritas tentunya yang kita harapkan adalah tidak terjadinya problem multikolinieritas sehingga dalam penelitian kita lancar tanpa kendala, untuk itu kita harus mengetahui gejala terjadinya problem multikolinieritas yang cukup tinggi.
cara mengetahui gejala terjadinya problem multikolinieritas yang cukup tinggi dapat dilakukan dengan beberapa cara yaitu diantaranya adalah:
➤Menganalisis matrik korelasi variabel-variabel independen. Jika antar varibel
    independen ada korelasi yang cukup tinggi (umumnya di atas 0,90) maka hal ini
    merupakan ada indikasi adanya multikolinieritas.
CONTOH :
variabel-variabel independen yang kita miliki adalah tiga variabel:
1. Reliability
2. Tangible
3. Empathy

varibel indevenden yang berada pada tabel di atas tampak bahwa variabel reliability, tangible dan empathy dibawah korelasi yang tinggi yaitu 0,90. maka dapat disimpulkan tidak terjadinya problem multikolinieritas.
untuk menganalisa tabel matriks korelasi yaitu dengan menganalisa masing-masing variabel independen dengan variabel independen lainya. sebagai contoh yaitu variabel reliability dengan variabel tangible dengan koralsi sebesar -195. artinya variabel reliability dengan variabel tangible jauh dari korelasi yang tinggi yaitu 0,90. maka dapat disimpulkan tidak terjadinya problem multikolinieritas.
➤Besaran nilai VIF (Variance Inflation Factor) dan Tolerance merupakan pedoman
    suatu model regresi yang bebas multikolineiritas adalah :
a. Dikatakan bebas multikolineritas jika nilai VIF lebih dari 10
b. Dikatakan multikolineritas jika nilai tolerance kurang dari 0,10
CONTOH :
variabel-variabel independen yang kita miliki adalah tiga variabel:
1. Reliability
2. Tangible
3. Empathy







Berdasarkan pengujian multikolinieritas dengan besaran nilai VIF (Variance Inflation Factor) dan Tolerance, perhitungan nilai tolerance menunjukkan tidak ada variabel bebas yaitu tangible, empathy dan reliability yang memiliki nilai kurang dari 0,10. Dan hasil perhitungan nilai VIF (Variance Inflation Factor) jugak menunjukkan tidak ada variabel bebas yaitu tangible, empathy dan reliability yang memiliki nilai VIF lebih dari 0,10. Hal ini dapat disimpulkan bahwa tidak ada problem multikolonieritas.







Popular Posts