Rabu, September 19, 2007

Nol Mutlak : Apa Maksudnya?

(kisah berikut ini hanya rekaan. Jika ada nama orang atau tempat yang sama itu hanyalah kebetulan belaka)

Alkisah seorang mahasiswa bertanya kepada dosennya:"Apa sih perbedaan antara Variabel Interval dan Ratio? Apakah hanya ada atau tidaknya nilai nol?"

Sang dosen pun mengangguk-angguk setengah mengantuk (karena semalam baru saja main game PC terbaru). Dengan gaya Kogoro Tidur sang dosen pun menjawab,"Ya perbedaan utamanya terletak pada nilai nol mutlak."

"Tapi apa maksudnya nilai nol mutlak? Bukannya semua pengukuran interval ya punya nilai nol?" mahasiswa ini mengejar.
"Benar. Bisa dibilang semua skala pengukuran interval memiliki nilai nol, tetapi bukan nilai nol mutlak", dosen itu hening sejenak.
"Lalu?" mahasiswa itu bertanya lagi, kuatir ditinggal tidur oleh sang dosen.
"Nilai nol mutlak itu maksudnya...jika suatu atribut memiliki kuantitas sebanyak nol, maka dapat dikatakan atributnya tidak ada atau nol...nihil...zip. Selain itu jika atribut tersebut diukur dengan menggunakan berbagai macam unit pengukuran yang berbeda-beda hasilnya akan tetap nol", dosen pun mulai membuka mata seolah telah kembali dari dunia yang lain.
"Maaf, Pak. Bisakah memberi contoh?" mahasiswa itu bertanya lagi.
"Ng...contohnya...jam berapa sekarang?" tiba-tiba sang dosen bertanya. Mahasiswa itu sedikit gelagapan melihat jam tangannya, tidak menyangka akan ditanya seperti itu.
"Eh...anu pak...jam 12 siang. Bapak ada janjian? atau mengajar?"
"Oh...nggak. Cuma heran saja kok sudah lapar...", jawab sang dosen tanpa merasa bersalah,"ternyata memang jamnya makan siang."
Mahasiswa pun hanya bisa diam, bengong tidak percaya apa yang dilihatnya,"Ini nih dosen yang dibilang pinter statistik?" pikirnya dalam hati.

"Contohnya begini",sang dosen sekarang mulai pasang tampang serius,"Contoh klasik tapi sangat manjur. Suhu. Misalnya kita mengukur suhu dengan menggunakan derajat celcius. Dalam skala ini tentu saja ada nilai nol derajat celcius bukan? Tapi nol derajat celcius tidak berarti tidak ada suhu sama sekali. Memang sih dingin buangett tapi bukan berarti tidak ada suhu sama sekali. Buktinya? Kalau kita menggunakan unit pengukuran yang lain, misalnya Fahrenheit maka kita akan mendapatkan angka 32 derajat. Oleh karena itu suhu termasuk dalam skala interval bukan ratio karena nilai nolnya bersifat relatif. Nilai nol dalam derajat celcius hanya berarti satu derajat lebih rendah dari 1 derajat celcius".
Mahasiswa sekarang manggut-manggut, mulai mengerti...sepertinya...


"Berbeda dengan berat," sang dosen melanjutkan,"berat memiliki nilai nol mutlak. misalnya ada meja dengan berat nol kilogram. Nilai nol disini benar-benar bermakna nol, tidak ada, meja itu tidak memiliki berat sama sekali, nol. Selain itu jika kita menggunakan unit pengukuran yang lain, misalnya pon atau ons, semua akan mengatakan hal yang sama bahwa berat meja ini nol pon atau nol ons. Dalam hal ini berat memiliki skala pengukuran ratio karena memiliki nilai nol mutlak."

Mahasiswa itu pun mengangguk-angguk mengerti. Dalam hatinya ia mulai mengakui kalo dosen ini mungkin memang layak dianggap pinter statistik.
Ia pun menjawab,"Oh begitu ya,Pak. Ya ya saya mengerti sekarang.Terima kasih ya,Pak"
"Ya, anytime," jawab dosen itu.
"Cieh sok kebarat-baratan banget,"pikir mahasiswa itu.
"Saya pamit dulu ya,Pak. Lain kali saya tanya-tanya lagi", mahasiswa itu pun pamit.
"Eh tunggu sebentar."
"Iya,Pak?"
"beli capcay yang enak deket kampus di mana ya?"

Siang itu beberapa mahasiswa berbincang dekat lorong fakultas, sementara sang mahasiswa masih bingung dalam hatinya,"benarkah dosen ini pinter statistik?".....

Senin, September 17, 2007

Uji Asumsi 1: Uji Normalitas Regresi

Adakah yang berbeda dari uji normalitas pada regresi?
Sebenarnya tidak banyak berbeda dari uji normalitas dalam analisis lain, hanya saja dalam regresi yang diuji normalitas bukan skor variabel dependennya, melainkan residu atau errornya.

Praktek yang selama ini terjadi (setahu saya), ketika peneliti menguji normalitas sebaran dalam regresi, yang diuji adalah variabel dependennya. Hal ini kurang tepat, karena dalam pengujian hipotesis nol dari regresi (uji signifikasi) yang dibutuhkan adalah normalitas sebaran residunya bukan normalitas sebaran variabel dependennya (Pedhazur,1997).

Tapi apa sih yang dimaksud residu atau error?

Teknik regresi akan menghasilkan persamaan regresi. Persamaan regresi dalam sampel akan berwujud : Y'= a + bX (beberapa buku menuliskan dengan notasi yang berbeda). Nah Y' (prediksi dari Y) ini tidak selalu sama besarnya dengan Y yang dihasilkan dari data penelitian. Ini diakibatkan Y' hanyalah prediksi nilai Y yang didasarkan pada X, dan setiap prediksi akan mengandung error dalam jumlah tertentu. Semakin besar error yang dihasilkan berarti semakin buruk prediksi yang dilakukan, dan sebaliknya.

Dari penjelasan di atas dapat ditemukan cara mencari error ini untuk tiap subjek; yaitu:
e=Y'-Y
Nah nilai e inilah yang diasumsikan mengikuti distribusi normal bukan nilai Y nya.
(penjelasan menyeluruh mengenai regresi akan dibahas dalam posting tersendiri).

Uji Normalitas Residu dalam SPSS

Ada beberapa tahap yang perlu dilakukan untuk melakukan Uji Normalitas Residu dalam SPSS

1. Menghitung nilai residu untuk tiap subjek. Menghitung? tenang saja, yang saya maksud bukan kita menghitung satu-satu residu dari tiap subjek, tapi memerintahkan SPSS untuk menghitung nilai residu dari tiap subjek. Begini caranya :
Pertama kita pilih Analyze - Regression - Linear

sehingga akan muncul dialog box seperti berikut :

Anggap saja kita hendak melakukan penelitian untuk mengetahui prediksi kecemasan dari inteligensi seseorang. Oleh karena itu dalam kotak Dependent kita masukkan variabel cemas, dan dalam kotak Independent kita masukkan variabel iq.

Setelah variabel diletakkan pada tempatnya, kita mengklik tombol Save untuk memerintahkan SPSS menghitung nilai residu.
Dalam kotak ini kita perlu mengklik Unstandardized dalam kotak Residuals untuk memerintahkan SPSS menghitung residu. Kemudian klik Continue dan OK. Maka SPSS akan menampilkan hasil analisis regresi. Lalu di mana nilai residu untuk tiap subjek?
Nilai residu ini ditempatkan dalam tampilan data view dalam satu kolom tersendiri seolah-olah manjadi variabel baru dengan nama Res_1.

2.Nah selanjutnya kita tinggal melakukan uji normalitas seperti kita melakukan uji normalitas pada umumnya. Kalau kamu lupa, kamu bisa lihat posting sebelumnya mengenai Uji Normalitas dalam SPSS

OK demikian kiranya melakukan uji normalitas pada residu. Saya masih menanti pertanyaan dari anda semua.

Further Readings
  • Pedhazur,E.J.(1997) Multiple regression in behavioral research. Wadsworth:Thomson Learning

Minggu, September 16, 2007

Uji Asumsi 1 : Uji Normalitas dalam SPSS

Dua post saya terdahulu tentang Uji Asumsi 1 berbicara hal-hal teoritis mengenai uji normalitas. Sekarang bagaimana prakteknya? Maksud saya dengan praktek tentu saja bagaimana cara menghitungnya.

Dalam kesempatan ini saya akan banyak berbicara mengenai bagaimana cara melakukan uji normalitas menggunakan SPSS. Saya memilih SPSS dengan alasan program ini paling banyak dipakai oleh mahasiswa psikologi sehingga bisa dikatakan paling familiar. Selain itu SPSS termasuk program yang cukup user friendly sehingga cukup mudah digunakan meskipun oleh orang yang tidak mempelajari statistik sangat dalam.

Langkah Awal
Saya berasumsi paling tidak pembaca artikel ini adalah orang yang sudah pernah berurusan dengan SPSS. Paling tidak tahu bagaimana memulai SPSS dan membuka file. Jadi saya akan langsung berkisah mengenai cara melakukan analisis datanya.

Cara Pertama
Ada satu kebiasaan yang saya amati ketika teman-teman hendak melakukan uji normalitas dengan SPSS. Biasanya mereka memilih menu :

Analyze - Non Parametrik Test - 1 Sample KS

Setelah diklik pada menu ini, akan muncul dialog box seperti ini:

Sekarang yang kita lakukan hanya memasukkan variabel yang ingin kita uji normalitasnya ke dalam kotak Test Variable List. Kemudian klik OK. Hasil yang akan didapat kurang lebih seperti ini:

Lalu bagaimana cara membacanya? Untuk kepentingan uji asumsi, yang perlu dibaca hanyalah 2 item paling akhir, nilai dari Kolmogorov-Smirnov Z dan Asymp. Sig (2-tailed).
  • Kolmogorov-Smirnov Z merupakan angka Z yang dihasilkan dari teknik Kolmogorov Smirnov untuk menguji kesesuaian distribusi data kita dengan suatu distribusi tertentu,dalam hal ini distribusi normal. Angka ini biasanya juga dituliskan dalam laporan penelitian ketika membahas mengenai uji normalitas.
  • Asymp. Sig. (2-tailed). merupakan nilai p yang dihasilkan dari uji hipotesis nol yang berbunyi tidak ada perbedaan antara distribusi data yang diuji dengan distribusi data normal. Jika nilai p lebih besar dari 0.1 (baca posting sebelumnya) maka kesimpulan yang diambil adalah hipotesis nol gagal ditolak, atau dengan kata lain sebaran data yang kita uji mengikuti distribusi normal.
  • Jangan terkecoh dengan catatan di bawah tabel yang berbunyi Test distribution is Normal. Catatan ini tidak bertujuan untuk memberitahu bahwa data kita normal, tetapi menunjukkan bahwa hasil analisis yang sedang kita lihat adalah hasil analisis untuk uji normalitas.
Cara Kedua
Cara yang pertama biasanya menghasilkan hasil analisis yang kurang akurat dalam menguji apakah sebuah distribusi mengikuti kurve normal atau tidak. Ini disebabkan uji Kolmogorov Smirnov Z dirancang tidak secara khusus untuk menguji distribusi normal, tetapi distribusi apapun dari satu set data. Selain normalitas, analisis ini juga digunakan untuk menguji apakah suatu data mengikuti distribusi poisson, dsb.

Cara kedua merupakan koreksi atau modifikasi dari cara pertama yang dikhususkan untuk menguji normalitas sebaran data.

Kita memilih menu
Analyze - Descriptive Statistics - Explore...

Sehingga akan muncul dialog box seperti ini:

Yang perlu kita lakukan hanyalah memasukkan variabel yang akan diuji sebarannya ke dalam kotak Dependent List. Setelah itu kita klik tombol Plots... yang akan memunculkan dialog box kedua seperti ini:

Dalam dialog ini kita memilih opsi Normality plots with tests, kemudian klik Continue dan OK. SPSS akan menampilkan beberapa hasil analisis seperti ini:

SPSS menyajikan dua tabel sekaligus di sini. SPSS akan melakukan analisis Shapiro-Wilk jika kita hanya memiliki kurang dari 50 subjek atau kasus. Uji Shapiro-Wilk dianggap lebih akurat ketika jumlah subjek yang kita miliki kurang dari 50.

Jadi bagaimana membacanya? Kurang lebih sama seperti cara pertama. Untuk memastikan apakah data yang kita miliki mengikuti distribusi normal, kita dapat melihat kolom Sig. untuk kedua uji (tergantung jumlah subjek yang kita miliki). Jika sig. atau p lebih dari 0.1 maka kita simpulkan hipotesis nol gagal ditolak, yang berarti data yang diuji memiliki distribusi yang tidak berbeda dari data yang normal. Atau dengan kata lain data yang diuji memiliki distribusi normal.

Cara Ketiga
Jika diperhatikan, hasil analisis yang kita lakukan tadi juga menghasilkan beberapa grafik. Nah cara ketiga ini terkait dengan cara membaca grafik ini.
Ada empat grafik yang dihasilkan dari analisis tadi yang penting juga untuk dilihat sebelum melakukan analisis yang sebenarnya, yaitu:
  • Stem and Leaf Plot. Grafik ini akan terlihat seperti ini:
Grafik ini akan terlihat mengikuti distribusi normal jika data yang kita miliki memiliki distribusi normal. Di sini kita lihat sebenarnya data kita tidak dapat dikatakan terlihat normal, tapi bentuk seperti ini ternyata masih dapat ditoleransi oleh analisis statistik sehingga p yang dimiliki masih lebih besar dari 0.1.
Dari grafik ini kita juga dapat melihat ada satu data ekstrim yang nilainya kurang dari 80 (data paling atas). Melihat situasi ini kita perlu berhati-hati dalam melakukan analisis berikutnya.
  • Normal Q-Q Plots. Grafik Q-Q plots akan terlihat seperti ini:

Garis diagonal dalam grafik ini menggambarkan keadaan ideal dari data yang mengikuti distribusi normal. Titik-titik di sekitar garis adalah keadaan data yang kita uji. Jika kebanyakan titik-titik berada sangat dekat dengan garis atau bahkan menempel pada garis, maka dapat kita simpulkan jika data kita mengikuti distribusi normal.
Dalam grafik ini kita lihat juga satu titik yang berada sangat jauh dari garis. Ini adalah titik yang sama yang kita lihat dalam stem and leaf plots. Keberadaan titik ini menjadi peringatan bagi kita untuk berhati-hati melakukan analisis berikutnya.

  • Detrended Normal Q-Q Plots. Grafik ini terlihat seperti di bawah ini:
Grafik ini menggambarkan selisih antara titik-titik dengan garis diagonal pada grafik sebelumnya. Jika data yang kita miliki mengikuti distribusi normal dengan sempurna, maka semua titik akan jatuh pada garis 0,0. Semakin banyak titik-titik yang tersebar jauh dari garis ini menunjukkan bahwa data kita semakin tidak normal. Kita masih bisa melihat satu titik 'nyeleneh' dalam grafik ini (sebelah kiri bawah).

Sekilas Mengenai Outlier
Dari tadi kita membahas satu titik nyeleneh di bawah sana, tapi itu sebenarnya apa? Dan bagaimana kita tahu itu subjek yang mana?

Titik 'nyeleneh' ini sering juga disebut Outlier. Titik yang berada nun jauh dari keadaan subjek lainnya. Ada beberapa hal yang dapat menyebabkan munculnya outlier ini:
  1. Kesalahan entry data.
  2. Keadaan tertentu yang mengakibatkan error pengukuran yang cukup besar (misal ada subjek yang tidak kooperatif dalam penelitian sehingga mengisi tes tidak dengan sungguh-sungguh)
  3. Keadaan istimewa dari subjek yang menjadi outlier.
Jika outlier disebabkan oleh penyebab no 1 dan 2, maka outlier dapat dihapuskan dari data. Tetapi jika penyebabnya adalah no 3, maka outlier tidak dapat dihapuskan begitu saja. Kita perlu melihat dan mengkajinya lebih dalam subjek ini.

Lalu bagaimana tahu subjek yang mana yang menjadi outlier? Kita bisa melihat pada grafik berikutnya yang dihasilkan dari analisis yang sama, grafik boxplot seperti berikut ini:


Sebelum terjadi kesalahpahaman saya mau meluruskan dulu bahwa tulisan C10,Q1, Median, Q3 dan C90 itu hasil rekaan saya sendiri. SPSS tidak memberikan catatan seperti itu dalam hasil analisisnya. Grafik ini memberi gambaran mengenai situasi data kita dengan menyajikan 5 angka penting dalam data kita yaitu: C10 (percentile ke 10), Q1 (kuartil pertama atau percentil ke 25), Median (yang merupakan kuartil kedua atau percentile 50), Q3 (atau kuartil ketiga atau percentile 75) dan C90 (percentile ke 90).

Selain itu dalam data ini kita juga dapat melihat subjek yang menjadi outlier, dan SPSS memberitahu nomor kasus dari subjek kita ini; yaitu no 3. Jadi jika kita telusuri data kita dalam file SPSS, kita akan menemukan subjek no 3 ini yang menjadi outlier dalam data kita.

Catatan akhir: Sangat penting bagi kita untuk tidak sepenuhnya bergantung pada hasil analisis statistik dalam bentuk angka. Kita juga perlu untuk 'melihat' (dalam arti yang sebenarnya) data kita dalam bentuk grafik bahkan keadaan data kita dalam worksheet SPSS untuk memeriksa kejanggalan-kejanggalan yang mungkin terjadi.

Sabtu, September 15, 2007

Uji Asumsi 1 Revised : Isu Seputar Uji Normalitas

Saya sempat ingin merevisi secara langsung post saya mengenai Uji Asumsi 1 karena ada beberapa pemikiran tradisional di sana yang menurut saya kurang pas sekarang, seperti pemilihan nilai signifikasi. Tapi kemudian saya putuskan untuk menulis satu post sendiri agar pembaca bisa membandingkannya dengan post saya terdahulu, sehingga tahu mana yang saya anggap kurang pas. Saya dengan sengaja juga mengubah tanggal post terdahulu supaya bisa berdekatan dengan post yang ini, dengan harapan bisa mengurangi diskontinuitas pembahasan.

Jadi ada masalah apa dengan post terdahulu?

Memilih Nilai Alpha

Dalam post terdahulu saya menuliskan bahwa taraf signifikasi yang digunakan untuk menguji asumsi normalitas sebaran adalah 0,05. Ini adalah taraf signifikasi yang sering juga digunakan dalam praktek penelitian selama ini. Pemilihan taraf signifikasi sebesar ini kurang tepat. Alasan utamanya terkait dengan error tipe II. Saya akan membahas singkat mengenai error tipe I dan II dan hubungan antara keduanya sebelum mengajukan pendapat saya mengenai berapa besar taraf signifikasi yang bisa dipakai.

Error dalam pengambilan keputusan

Ketika kita mengambil keputusan terkait dengan penolakan hipotesis nol, kita selalu akan melakukan satu di antara dua tipe error ini. Tipe error I adalah tipe error yang paling sering kita jumpai (kita sering menganggapnya sebagai taraf signifikasi:"signifikan dengan taraf..."). Dinyatakan juga dengan lambang alpha merupakan besarnya kemungkinan kita menolak hipotesis nol yang benar. Misalnya begini, dalam sebuah penelitian untuk menguji efektivitas pelatihan, peneliti melakukan uji statistik dengan alpha sebesar 0,05. Setelah dilakukan analisis, ditemukan bahwa hipotesis nol ditolak dengan alpha sebesar 0,05. Ini berarti sebenarnya kita masih punya kemungkinan atau kans melakukan kesalahan sebesar 5% bahwa sebenarnya hipotesis nol yang kita tolak itu benar. Jadi seharusnya kita tidak menolak hipotesis nol ini. Nah karena kemungkinan melakukan kesalahan ini 'hanya' 5%, maka kita masih cukup pede untuk berpegang pada kesimpulan bahwa hipotesis nol ditolak.
Tipe Error II diberi lambang Beta adalah kemungkinan kita gagal menolak hipotesis nol yang seharusnya ditolak. Maksudnya begini, dalam penelitian tadi misalnya ternyata hipotesis nol gagal ditolak. Ketika hipotesis nol gagal ditolak, sebenarnya keputusan ini juga memiliki kemungkinan error, bahwa sebenarnya mungkin saja hipotesis nol seharusnya ditolak.

Mari saya beri ilustrasi mengenai Tipe Error II. Ilustrasi ini sering saya pakai di kelas : Pada suatu hari tertangkaplah seorang maling. Setelah diinterogasi, si maling mengaku kalau dia adalah mahasiswa Universitas ANU. Dia tidak membawa kartu pengenal apapun. Kemudian dia ditanya nomor mahasiswanya untuk dicocokkan dengan nomor mahasiswa di universitas ANU. Kemudian dia menyebutkan dengan benar sebuah nomor mahasiswa. Pertanyaan yang muncul: benarkah orang ini salah satu mahasiswa universitas tersebut? Asumsi di balik perilaku menanyakan nomor mahasiswa mungkin kurang lebih seperti ini: kecil kemungkinan orang yang bukan mahasiswa sebuah universitas mengetahui secara tepat nomor mahasiswanya, apalagi pas dengan nama mahasiswanya. Jadi kita gagal menolak bahwa orang ini bukan mahasiswa universitas ANU.Tapi sebenarnya orang ini mengetahui nama dan nomor mahasiswa dari KTM yang dia temukan dalam dompet yang dia copet. Jadi seharusnya kita menolak hipotesis nol yang menyatakan orang ini adalah mahasiswa ANU, tapi kita gagal menolaknya.

Demikian juga dengan Tipe error II. Tipe error II terjadi ketika seharusnya kita menolak hipotesis nol tapi gagal menolaknya.

Hubungan antara Tipe error I dan Tipe error II. Tipe error I dan II saling bertolak belakang. Maksudnya jika kita memperkecil Tipe error I maka secara otomatis tipe error II akan menjadi lebih besar. Sayangnya sampai sekarang kita belum dapat menentukan dengan pasti (dengan cara yang mudah) besarnya tipe error II yang dibuat dalam suatu penelitian. Jadi sampai sekarang aturan ini yang dipegang. Semakin kecil kita menentukan Tipe error I, maka makin besar kemungkinan kita melakukan tipe error II.

Terus pilih mana Tipe error I atau II? Karena kita nggak mungkin terlepas dari kedua error ini (memperkecil yang satu memperbesar yang lain), maka kita harus memilih error yang kita ijinkan menjadi lebih besar. Misalnya begini : kita ingin menentukan apakah seseorang memiliki kecenderungan bunuh diri atau tidak. Kita memiliki data mengenai perilaku-perilaku yang menunjukkan kemungkinan orang yang akan melakukan bunuh diri. Ketika kita melihat seseorang melakukan perilaku-perilaku ini, kita harus memilih untuk menganggap orang ini termasuk orang yang akan bunuh diri tapi sebenarnya tidak (gagal menolak hipotesis nol yang seharusnya ditolak, tipe error II), atau menganggap orang ini baik-baik saja tapi sebenarnya akan bunuh diri (menolak hipotesis nol yang benar, tipe error I). Jadi pemilihan tipe error I atau II sangat terkait dengan resiko apa yang akan kita tanggung dengan melakukan kesalahan ini.
Mana yang lebih baik menyatakan suatu terapi itu dapat membuat perbedaan antara yang menerima dan yang tidak padahal tidak ada efeknya (menolak hipotesis nol yang benar,tipe error I) atau menganggap terapi ini tidak efektif padahal sebenarnya dapat membuat perbedaan (gagal menolak hipotesis nol yang salah)?

Hubungannya dengan Uji Asumsi?
Begini : dalam uji asumsi kita ingin membuktikan apakah sebaran data yang kita miliki itu mengikuti kurve normal atau tidak. Dalam hal ini hipotesis nolnya berbunyi: "tidak ada perbedaan antara sebaran data yang kita miliki dengan sebaran data yang normal". Jika p lebih kecil dari alpha yang kita tentukan maka kita akan menolak hipotesis nol ini sehingga disimpulkan data kita tidak normal. Jika p lebih besar dari alpha yang kita tentukan kita akan gagal menolak hipotesis nol, sehingga disimpulkan data kita normal.
Nah dalam kasus ini, mana yang lebih riskan: melakukan tipe error I (menganggap data kita tidak normal padahal normal) atau melakukan tipe error II (menganggap data normal padahal tidak normal). Menurut pendapat saya jauh lebih riskan melakukan tipe error II daripada tipe error I. Jika kita menentukan alpha yang kecil, berarti beta akan semakin besar. Dengan kata lain makin besar kemungkinan kita menganggap data kita normal padahal tidak normal.
Kita tahu bahwa normalitas sebaran merupakan salah satu asumsi yang mendasari pengujian parametrik, sehingga kita perlu memiliki keyakinan cukup besar mengenai kondisi data kita yang sebenarnya. Oleh karena itu akan lebih baik jika kita memperbesar nilai alpha menjadi 0,10 (dengan demikian memperkecil beta). Sehingga data kita baru bisa dianggap normal jika p lebih besar dari 0,1.

Rasanya memang sedikit aneh karena kita terbiasa menguji dengan taraf 0,05 untuk segala macam bentuk hipotesis. Tapi demikian pendapat saya dan alasan saya menggunakan taraf 0,1 untuk menguji hipotesis nol terkait dengan asumsi normalitas.

Fiuhh.... baiklah untuk menghilangkan kepenatan teman-teman bisa melihat klip yang kereeen abeees berikut ini:
Il divo dan Celine Dion

Jumat, September 14, 2007

Uji Asumsi 1 : Uji Normalitas

Setelah cukup lama bingung pilih-pilih tema yang mau diangkat perdana, saya akhirnya mencoba memilih satu tema ini : Uji Asumsi Statistik Parametrik. Uji Asumsi yang pertama akan saya bahas adalah Uji Normalitas.

Apa itu ?

Kita mulai dulu dari apa itu uji normalitas. Uji normalitas adalah uji yang dilakukan untuk mengecek apakah data penelitian kita berasal dari populasi yang sebarannya normal. Uji ini perlu dilakukan karena semua perhitungan statistik parametrik memiliki asumsi normalitas sebaran. Formula/rumus yang digunakan untuk melakukan suatu uji (t-test misalnya) dibuat dengan mengasumsikan bahwa data yang akan dianalisis berasal dari populasi yang sebarannya normal. Ya bisa ditebak bahwa data yang normal memiliki kekhasan seperti mean, median dan modusnya memiliki nilai yang sama. Selain itu juga data normal memiliki bentuk kurva yang sama, bell curve. Nah dengan mengasumsikan bahwa data dalam bentuk normal ini, analisis statistik baru bisa dilakukan.

Bagaimana Caranya?
Ada beberapa cara melakukan uji asumsi normalitas ini yaitu menggunakan analisis Chi Square dan Kolmogorov-Smirnov. Bagaimana analisisnya untuk sementara kita serahkan pada program analisis statistik seperti SPSS dulu ya. Tapi pada dasarnya kedua analisis ini dapat diibaratkan seperti ini :

1. pertama komputer memeriksa data kita, kemudian membuat sebuah data virtual yang sudah dibuat normal.

2. kemudian komputer seolah-olah melakukan uji beda antara data yang kita miliki dengan data virtual yang dibuat normal tadi.

3. dari hasil uji beda tersebut, dapat disimpulkan dua hal :
    • jika p lebih kecil daripada 0,05 maka dapat disimpulkan bahwa data yang kita miliki berbeda secara signifikan dengan data virtual yang normal tadi. Ini berarti data yang kita miliki sebaran datanya tidak normal.
    • jika p lebih besar daripada 0,05 maka dapat disimpulkan bahwa data yang kita miliki tidak berbeda secara signifikan dengan data virtual yang normal. Ini berarti data yang kita miliki sebaran datanya normal juga.

Ukuran inilah yang digunakan untuk menentukan apakah data kita berasal dari populasi yang normal atau tidak.

Bagaimana Jika Tidak Normal?
Tenang...tenang... data yang tidak normal tidak selalu berasal dari penelitian yang buruk. Data ini mungkin saja terjadi karena ada kejadian yang di luar kebiasaan. Atau memang kondisi datanya memang nggak normal. Misal data inteligensi di sekolah anak-anak berbakat (gifted) jelas tidak akan normal, besar kemungkinannya akan juling positif.
Lalu apa yang bisa kita lakukan?

1. Kita perlu ngecek apakah ketidaknormalannya parah nggak. Memang sih nggak ada patokan pasti tentang keparahan ini. Tapi kita bisa mengira-ira jika misalnya nilai p yang didapatkan sebesar 0,049 maka ketidaknormalannya tidak terlalu parah (nilai tersebut hanya sedikit di bawah 0,05). Jika ketidaknormalannya tidak terlalu parah lalu kenapa? Ada beberapa analisis statistik yang agak kebal dengan kondisi ketidaknormalan ini (disebut memiliki sifat robust), misalnya F-test dan t-test. Jadi kita bisa tetap menggunakan analisis ini jika ketidaknormalannya tidak parah.

2. Kita bisa membuang nilai-nilai yang ekstrem, baik atas atau bawah. Nilai ekstrem ini disebut outliers. Pertama kita perlu membuat grafik, dengan sumbu x sebagai frekuensi dan y sebagai semua nilai yang ada dalam data kita (ini tentunya bisa dikerjakan oleh komputer). Nah dari sini kita akan bisa melihat nilai mana yang sangat jauh dari kelompoknya (tampak sebagai sebuah titik yang nun jauh di sana dan nampak terasing...sendiri...). Nilai inilah yang kemudian perlu dibuang dari data kita, dengan asumsi nilai ini muncul akibat situasi yang tidak biasanya. Misal responden yang mengisi skala kita dengan sembarang yang membuat nilainya jadi sangat tinggi atau sangat rendah.

3. Tindakan ketiga yang bisa kita lakukan adalah dengan mentransform data kita. Ada banyak cara untuk mentransform data kita, misalnya dengan mencari akar kuadrat dari data kita, dll.

4. Bagaimana jika semua usaha di atas tidak membuahkan hasil dan hanya membuahkan penyesalan (wah..wah.. nggak segitunya kali ya?) . Maka langkah terakhir yang bisa kita lakukan adalah dengan menggunakan analisis non-parametrik. Analisis ini disebut juga sebagai analisis yang distribution free. Sayangnya analisis ini seringkali mengubah data kita menjadi data yang lebih rendah tingkatannya. Misal kalo sebelumnya data kita termasuk data interval dengan analisis ini akan diubah menjadi data ordinal.
Well, demikian kiranya paparan atau sharing tentang normalitas. Semoga dalam waktu dekat saya bisa tahu gimana caranya meng-upload gambar ke dalam blog ini dalam posisi yang manis jadi penjelasan saya bisa jadi lebih visualized gitu deh. Semoga juga saya juga bisa segera mengubah tampilan SPSS menjadi JPG, jadi kita bisa belajar baca hasil analisis di blog ini, OK? Semoga..... (kayak lagunya katon nih)