Jumat, Januari 18, 2008

Pertanyaan Keempat Seputar Uji Asumsi

Setelah beberapa saat saya menerima pertanyaan keempat dari Bu Susan. Begini pertanyaannya:

satu lagi pertanyaan, Pak... mengapa di buku Hair dkk. itu untuk
residunya menggunakan studentdized residual ya bukan
unstandardized residual?...
Jawab:
Ya ada beberapa macam residual yang dapat diperoleh ketika kita melakukan analisis regresi. Yang pernah saya tuliskan di posting mengenai normalitas dalam regresi adalah unstandardized residual.
Selain studentized, masih ada standardized residual, deleted standardized residual, dan deleted studentized.

Standardized residual.
Standardized residual, seperti namanya, adalah residual yang distandardkan. Maksudnya seperti mencari nilai Z dari residual. Keuntungan menggunakan standardized residual ini adalah tidak terpengaruh terhadap unit ukur, karena semua distandardkan. Jadi pengukuran menggunakan dua skala yang berbeda unit ukurnya (misalnya yang satu skor maksimalnya 10 yang lain skor maksimalnya 100) akan muncul dalam unit yang sama yaitu SD.

Studentized Residual
Kelemahan dari Standardized Residual adalah asumsi bahwa varians untuk semua residu adalah sama. Kenyataannya, semakin jauh sebuah skor dari prediksinya, ia cenderung memiliki variasi yang makin besar. Oleh karena itu diperbaiki dengan menerapkan rumus tertentu (sering disebut leverage atau h) untuk memperbaiki situasi ini. Dengan menggunakan rumus ini, makin jauh residu dari meannya (yang menggambarkan makin jauh individu menyimpang dari prediksinya), makin besar varians residunya. Nah ketika digambarkan dalam grafik, maka studentized residual ini akan mengikuti distribusi t (ini makanya dikasih nama studentized, dari student t distribution).

Deleted Standardized dan Deleted Studentized
Kedua ukuran residu ini sebenarnya memiliki pemikiran yang sama dengan ukuran residu tanpa deleted. Hanya saja, kelemahan Standardized atau Studentized Residual adalah 'turut campur'nya observasi yang didiagnostik dalam perhitungan Standardized atau Studentized Residual. Sehingga jika observasi itu memiliki residu yang besar, ia juga akan memperkecil standardized dan studentized residual. Hal ini tentunya akan membuat kedua ukuran itu menjadi kurang sensitif mendeteksi adanya outlier atau influential observation (untuk sementara sebut saja keduanya observasi yang cari gara-gara atau observasi bermasalah sampai kita membahas mengenai regresi sampai tuntas ...tas...tas...tas...). Mengapa begitu? Pertama, residu yang besar akan memperbesar standard error yang digunakan untuk membagi besarnya residu karena memperbesar mean. Jika standard error membesar, ini berarti hasil bagi antara residu dengan standard error residu akan mengecil. Jadi, residu yang besar akan terlihat tidak terlalu besar dengan ukuran ini.
Oleh karena itu, ketika menghitung standard error residunya, observasi yang akan dianalisis tidak disertakan dalam perhitungan. Ini akan membuat ukuran ini lebih peka terhadap observasi yang bermasalah ini. Inilah makanya disebut sebagai deleted studentized atau deleted standardized.

Dari beberapa ukuran itu, menurut saya, Deleted Studentized Residual merupakan ukuran yang paling sensitif terhadap observasi bermasalah. Jadi jika menghendaki analisis yang peka, memang sebaiknya menggunakan Deleted Studentized. Nah seberapa peka itu terserah pemakainya.
Kelemahan semua ukuran residu ini adalah kita tidak memiliki ukuran pembanding 'kekuatan' observasi bermasalah ini dalam mempengaruhi hasil analisis regresi. Oleh karena itu seringkali peneliti melihat ukuran lain seperti Leverage atau Cook's D, atau bahkan DFBeta dalam melakukan diagnostik. Ukuran residu ini digunakan sebagai 'screening' awal untuk melihat observasi bermasalah yang berpotensi mempengaruhi hasil penelitian, dengan cara memplotkan ukuran residu ini dalam scatter plot, kemudian dilihat mana observasi yang menyimpang sangat jauh dari rekan-rekannya. Kemudian dilakukan diagnostik mendalam menggunakan Leverage atau Cook's D.

terkait dengan uji normalitas menurut saya (lagi-lagi pendapat tidak didasarkan pada kajian atau analisis mendalam dari penelitian. Jadi lagi-lagi ini bisa diangkat jadi penelitian untuk mengkaji adakah perbedaan hasil analisis normalitas untuk keempat ukuran tersebut. Ada yang berminat? Mahasiswa lagi skripsi? Dosen yang lagi getol penelitian?), keempat ukuran itu tidak akan memberikan hasil yang jauh berbeda terkait dengan uji normalitas. Tentu saja jika mencari yang terbaik kita bisa menggunakan Deleted Studentized Residual.

OK demikian jawaban saya Bu Susan. Semoga bisa memberi tambahan ide seputar uji normalitas ini.

Rabu, Januari 09, 2008

Tiga Pertanyaan Mengenai Asumsi Normalitas

Demikan tiga pertanyaan mengenai asumsi normalitas (pertanyaan ini diberikan dalam posting mengenai Uji Asumsi dalam Regresi):

1. Pak Agung yang baik saya masih bingung mengenai pernyataan ini: central limit theorem disebutkan juga bahwa bagaimanapun bentuk distribusi data di populasinya, semakin besar sampel semakin normal distribusi mean sampelnya (Keppel & Wickens, 2004; Howell, 1984). Dan distribusi terlihat ‘cukup’ normal ketika sampel berisi sekitar 30 orang. Mungkin ini juga alasan mengapa kita sering mendengar ‘minimal sampel’ sebesar 30 orang. Pembahasan mengenai besar sampel akan dilakukan tersendiri.
Sebab ketika saya membaca Bukunya Leech, Barrret, & Morgan (2005) yang berjudul SPSS for intermediate statistics pada hal 28 disebutkan begini:

SPSS recommends that you divide the skewness by its standard error. If the result is less than 2.5 (which is approximately the p = .01 level), then the skewness is not significantly different from normal. A problem from this method, aside from having to use a calculator, is that the standard error depends on the sample size, so with large samples most variable would be found to be nonnormal.

apa yang dimaksud dengan so with large samples most variable would be found to be nonnormal? bgaimana kaitan pernyataan ini dengan central limit theorem?

2. Yang kedua, pada regresi, jika yang dihitung adalah normalitas residu, bagaimana jika asumsi normalitas tidak terpenuhi? bagaimana cara transformasinya, apakah caranya sama dengan transformasi biasa?

3. Terus yang ketiga bagaimana dengan pernyataan bahwa regresi bivariat digunakan untuk memprediksi skor satu variable tergantung yang normal atau berupa skala dari satu variabel bebas yang normal atau skala (Leech, Barret, & Morgan, 2005, hal 198). Apakah dari pernyataan tersebut dapat diinterpretasikan bahwa kita perlu menguji normalitas kedua variabel (bebas dan tergantung)? lalu apakah masih perlu diuji normalitas residunya?


Terima kasih banyak Pak... salam

Tjipto Susana

Saya akan berusaha menjawab pertanyaan ini sebaik mungkin. Semoga bisa menjawab dengan baik.

Pertanyaan Pertama. Jawaban ini dilakukan sebelum saya membaca buku yang diacu Bu Susan, semoga tidak meleset jawaban saya. Menurut saya yang dimaksud normalitas dalam central limit theorem itu berbeda dengan yang dimaksud di SPSS dalam skewness dibagi standard error skewness. Yang saya bahas dalam central limit theorem itu adalah normalitas dari distribusi mean sampel dalam populasi, sementara yang dimaksud dalam skewness adalah distribusi skor subjek dalam populasi.

Dalam central limit theorem disebutkan bahwa semakin besar n (besar sampel) maka distribusi mean sampel akan makin mendekati normal tanpa mempedulikan distribusi skor subjeknya. Jadi meskipun, anggap saja distribusi skor subjek di populasi itu nggak normal, tapi jika kita mengambil jumlah subjek yang mencukupi, maka dapat diasumsikan bahwa bentuk distribusi dari mean sampelnya normal.

Nah, yang diungkapkan Leech, Barrret, & Morgan (2005), itu merupakan 'kelemahan' dari uji signifikasi pada umumnya. Makin besar sampel, maka makin kecil standard error (mungkin bisa dibaca juga di posting mengenai signifikan tak selalu berarti besar), ini mengakibatkan makin besar kemungkinan kita memperoleh statistik yang besar (hasil bagi antara skewness dan standard error dari skewness), yang kemudian mengakibatkan makin besar kemungkinan kita menolak hipotesis nol dan menyatakan distribusi data di populasi tidak normal. Dalam hal ini kita cenderung melakukan tipe error I. Nah, di sini terjadi tarik ulur antara memilih menganggap distribusi data di populasi normal padahal tidak (tipe error II), atau memilih menganggap distribusi data di populasi tidak normal padahal normal (tipe errorI).
Saya pribadi akan memilih melakukan tipe error II lebih besar, dengan alasan central limit theorem tadi dan juga robustness dari statistik t dan F. Selain itu juga sangat disarankan untuk melihat bentuk data di sampelnya dengan menggunakan grafik seperti q-q plot atau stem and leaf plot sebelum mengambil keputusan mengenai uji normalitas ini (bisa juga dibaca di posting saya mengenai uji asumsi dalam SPSS). Ini kebiasaan baik yang tidak kita miliki saat ini. Mungkin bisa dimulai sejak posting ini diupload? (semoga... nyanyi lagu Katon deh).

Pertanyaan Kedua. Mengenai normalitas residu, jika tidak normal maka transformasi tetap dilakukan seperti biasa pada skor independen variabel. Hanya saja perlu berhati-hati karena mencari transformasi yang tepat untuk mengatasi ketidaknormalan data sepertinya cukup sulit . Saya sendiri belum banyak belajar mengenai transformasi ini, hanya pernah mendengar komentar seseorang seperti ini,"It can be forever". Saran saya, pertama perlu dilihat apakah ketidaknormalannya dapat dinilai parah. Jika iya, maka perlu dilakukan diagnostik dulu untuk mencari skor subjek atau observasi yang jadi biang keladinya. Jika semua baik-baik saja, baru kita cari transformasi yang pas.

Pertanyaaan Ketiga.Nah untuk pertanyaan satu ini saya agak ragu menjawabnya, karena kurang yakin dengan pemahaman saya sendiri mengenai Regresi bivariat. Setahu saya regresi biasanya selalu univariat. Nah regresi dengan model bivariat itu mungkin adalah model korelasi product moment. Dalam hal ini, tidak ada prediktor dan kriterion. Biasanya keduanya disebut sebagai response variable. Dalam model ini, kedua variabel berupa random variable, atau variabel yang datanya tidak ditentukan terlebih dulu oleh peneliti, melainkan berasal dari data di lapangan. Oke itu pemahaman saya mengenai Regresi bivariat.
Nah, terkait apakah kedua variabel ini harus memiliki sebaran data yang normal begini: Normalitas residu terkait sangat erat dengan pengujian hipotesis dalam Regresi. Misalnya kita ingin menguji apakah F yang dihasilkan itu signifikan. Jika Regresi dilakukan hanya untuk melihat koefisien korelasinya (atau koefisien regresinya), maka uji normalitas residu tidak perlu dilakukan.
Lalu misalnya kita hendak melakukan uji hipotesis terkait dengan F-nya? maka menurut saya yang diuji normalitas tetap residunya. Hanya saja kita melakukan uji normalitas residu dua kali.Anggaplah kita memiliki dua variabel X dan Y. Uji normalitas residu pertama dilakukan ketika X menjadi 'prediktor' dan Y menjadi 'kriterion' (ingat bahwa sebenarnya dalam model ini tidak ada yang namanya prediktor atau kriterion). Uji yang normalitas residu kedua dilakukan ketika Y yang menjadi 'prediktor' dan X yang menjadi 'kriterion'.

Demikian jawaban saya terhadap tiga pertanyaan ini. Semoga cukup jelas dan menjawab dengan memuaskan.
Jika belum, please feel free to deliver more questions.

Selasa, Januari 08, 2008

Anava Identity : Varians (Part 1)

Saya pernah bertanya iseng di kelas Statistik,”Anava itu singkatan Analisis Varians berarti yang dianalisis kan varians nya. Tapi kok digunakan untuk menguji beda mean?” Pertanyaan itu jadi kuis dengan hadiah coklat. Sayang sekali coklatnya tidak jadi dibagi karena nggak ada yang jawab.

Menjawab pertanyaan ini sebenarnya sama saja dengan menjelaskan apa itu Analisis Varians. Dan semua berawal dari Varians itu sendiri, lebih tepatnya Varians dari Variabel Dependen.

Pada Awalnya: Variasi Variabel Dependen

Penelitian biasanya melibatkan satu atau lebih variabel. Variabel didefinisikan sebagai atribut yang dapat bervariasi. Namanya juga Vary-able, dapat bervariasi. Misalnya tinggi badan, ada yang tinggi ada yang pendek. Tinggi badan adalah variabel karena ia bervariasi. Variasi di sini dapat berarti variasi antara orang satu dengan yang lain, bisa juga antara orang yang sama dalam waktu yang berbeda. Variasi juga bisa terjadi antara kelompok satu dengan yang lain.

Nah mengapa variasi ini bisa terjadi? Mengapa tinggi badan orang-orang bisa bervariasi? Orang yang sama pada waktu yang berbeda juga memiliki variasi tinggi badan. Ketika kita masih usia 5 tahun, mungkin tinggi badan kita nggak lebih dari 1 meter. Sekarang kita mungkin punya tinggi badan yang lebih dari 1,5 meter.

Beberapa pertanyaan mengenai variasi ini menjadi pertanyaan yang cukup penting untuk dijelaskan sehingga menjadi kajian ilmu tertentu. Misalnya mengapa prestasi siswa bisa bervariasi? Adakah suatu penjelasan mengenai variasi ini? Kemudian psikologi pendidikan atau ilmu kependidikan berusaha mencari penjelasan mengenai variasi prestasi ini.

Kemudian misalnya, ada yang mengajukan teori bahwa prestasi siswa itu bervariasi karena jam belajar yang bervariasi. Siswa dengan jam belajar yang banyak biasanya prestasinya baik juga. Atau dengan kata lain orang ini menyatakan bahwa variasi prestasi itu mengikuti variasi jam belajar, bahkan jika ia cukup berani akan mengatakan variasi prestasi itu diakibatkan variasi jam belajar. Sementara yang lain berkata variasi prestasi itu mengikuti variasi model pembelajarannya. Dalam kelompok yang mengikuti model pembelajaran A, prestasi siswanya cenderung lebih tinggi daripada kelompok yang mengikuti model B. Orang yang lain lagi akan berkata variasi prestasi akan mengikuti variasi dari variabel lain lagi.

Jika digambarkan maka paragraf di atas akan tampak seperti ini:

Gambar 1.

Dalam gambar ini, tiap lingkaran mewakili variasi tiap variabel. Perpotongan antara dua lingkaran (yang berwarna-warni) merupakan variasi dari satu variabel yang mengikuti variabel lain. Perpotongan antara dua lingkaran ada yang besar dan kecil. Ini menggambarkan juga bahwa variasi prestasi siswa yang mengikuti variasi variabel ada yang besar dan kecil.

Selain perpotongan antara dua lingkaran, ada juga perpotongan tiga lingkaran (lihat bagian berwarna merah). Bagian ini merupakan perpotongan antara variasi prestasi siswa, jam belajar dan model pembelajaran. Apa maksudnya. Ini berarti ada sebagian variasi prestasi siswa yang mengikuti interaksi variabel model pembelajaran dan jam belajar. Untuk sementara diingat dulu saja ya. Saya akan jelaskan panjang lebar nanti ketika kita membahas desain faktorial.

Nah bagian dari variasi prestasi siswa yang tidak diwarnai merupakan variasi prestasi siswa yang tidak dapat dijelaskan oleh ketiga variabel. Bisa jadi variasi ini bisa dijelaskan variabel lain yang belum disebutkan, atau (beberapa ahli percaya) merupakan efek dari error yang bersifat random, tak ada variabel yang mampu menjelaskannya.

Lalu?

Jika variasi prestasi siswa yang mengikuti variasi variabel lain itu besar, bisa dibilang variabel ini cukup berperan dalam menjelaskan variasi prestasi siswa, dalam gambar misalnya variasi model pembelajaran. Jadi jika ada dua orang siswa yang berbeda prestasinya, kita bisa bilang bahwa mereka berdua memiliki kemungkinan besar mengikuti model pembelajaran yang berbeda. Anggaplah jika model A lebih baik, maka kemungkinan besar siswa yang memiliki prestasi lebih baik berasal dari kelompok yang mengikuti model A.

Nah jika kita memiliki cara untuk memilah variasi-variasi itu dari data kita, kita akan dapat menentukan mana variabel yang penting untuk menjelaskan variasi prestasi siswa. Hmmm… lalu gimana cara?

Varians sebagai ukuran Variasi

Sebelum melangkah lebih jauh… sepertinya memang kita tidak bisa melangkah lebih jauh sebelum membahas tema ini.Pertanyaan yang muncul berikutnya, gimana kita bisa tahu besarnya variasi kelompok? Apakah kita lihat satu-satu data kita? (saya bisa mendengar nada cemas nih). Nggak lah. Ada kok ukuran untuk menggambarkan variasi ini : Varians (sayang nggak ada musiknya, ini bisa diiringi musik misterius nih).

Sepertinya pernah denger atau baca? Iya di posting-posting terdahulu saya cukup banyak bicara ini. Karena kita akan banyak bicara analisis varians, maka varians ini yang akan jadi tema sentral.

“Maaf, Kang, Varians teh apa ya?” (Ini yang nanya dari jawa barat, blog ini dibaca sampe medan lo. Terima kasih untuk Pak Azuar di medan)

Varians itu sebenarnya rata-rata dari kuadrat jarak skor subjek dari mean kelompoknya. Agak susah bayanginnya ya? Bayangkan kita main lempar ladam (sepatu kuda). Peraturannya kita melempar ladam ini ke sebuah tonggak kayu yang jaraknya 5 meter dari tempat kita berdiri. Nah setelah semua peserta melempar, kita ukur jarak tiap ladam dari tonggak. Ada yang dekat, ada yang jauh seperti dalam gambar berikut.

Gambar 2.

Hasil pengukuran jarak tiap ladam dari tonggak ini kemudian dikuadratkan lalu dijumlahkan. Setelah itu kita membaginya dengan banyaknya ladam yang dilempar. Hasil baginya berupa rata-rata kuadrat dari jarak ladam dengan tonggaknya. Kalau dirumuskan bisa seperti ini:

Nah analogi ini kita terapkan pada varians menjadi:

Bagaimana menghitung jarak skor individu dari mean? Skor individu pada satu variabel akan digambarkan dalam satu garis lurus.

Gambar 3.

Jika begini keadaannya, bagaimana mengukur jarak skor individu dari mean? Aha! Kita tinggal mengurangi jarak skor individu dari nol dengan jarak mean dari nol. Jadi seperti ini:

Nah mari kita terapkan pada rumus tadi, sehingga menjadi begini:
Aaah sepertinya sering melihat rumus seperti ini di buku statistik bukan? Jika nanti bertemu dengan rumus ini lagi atau kata Varians, bayangkan gambar ladam tadi. Varians adalah rata-rata dari kuadrat jarak skor individu dari mean kelompoknya.

“Wah sorry, man. Tapi why, man ? (baca: kenapa harus dikuadratkan?)” (yang nanya anak gaul)

Gini coy…ups ketularan gaul. Kalo kita menghitung jarak skor dari mean kelompoknya, maka akan ada yang bernilai positif ada yang bernilai negatif. Nah kalo kita jumlahkan begitu saja, hasil penjumlahannya akan sama dengan nol. Jadi kesannya janggal, semua titik itu punya jarak dari meannya tapi kok jumlahnya nol? Kalo jaraknya nol harusnya kan jarak semua titik itu dari mean ya nol, atau tidak berjarak (tumpuk undhung). Tentu saja ini terjadi karena ada nilai positif dan negatif. Ada titik yang skornya berada di sebelah kiri ada yang di sebelah kanan dari mean. Untuk mengatasi ini ada dua cara, yaitu menghilangkan semua tanda dengan membuat nilainya absolut, atau dengan mengkuadratkannya.

Dengan beberapa alasan (untuk saat ini percaya dulu sama saya ya. Saya akan bahas mengenai alasan ini suatu hari nanti), para ahli memilih menggunakan cara mengkuadratkannya.

“Tapi Lo bakalan dapet ukuran dalam unit kuadrat, dong” (wah orang jakarte yang nanya).

Iye …duh ketularan lagi. Iya, varians memang ukuran variasi skor subjek dalam unit kuadrat. Jika kita menginginkan ukuran variasi skor subjek dalam unit satuan, kita tinggal menghitung akar dari variansnya. Nah ukuran ini yang kemudian disebut sebagai standard deviasi. (Saya bisa mendengar suara O panjang sekali). Begini rumusnya

Varians dalam Sampel

Yang saya sajikan di atas adalah menghitung varians dari populasi. Bagaimana jika kita ingin menghitung varians dari sampel. Apakah sama saja? Pada dasarnya sama. Hanya saja begini, jika varians yang kita hitung di sampel ingin dijadikan estimasi varians populasi, kita perlu sedikit mengubah rumusnya.

Masih ingat mengenai derajat kebebasan? Saya membahas hal ini dalam posting mengenai t-test. Tiap kali kita mengestimasi satu parameter, kita akan kehilangan satu derajat kebebasan. Di sini karena kita mengestimasi varians populasi dari varians sampel, kita kehilangan satu derajat kebebasan. Oleh karena itu sekarang kita tidak membagi jumlah kuadrat jarak skor dari mean dengan N tetapi dengan n-1. Rumusnya menjadi begini:

Nah varians yang dirumuskan seperti ini yang merupakan ukuran dari variasi skor subjek dalam suatu sampel tertentu.Standard deviasinya? Hmm tinggal mencari akar kuadratnya saja tentunya.

Mempartisi Varians dan Jumlah Kuadrat

Waduh apa pula ini? Seperti mempartisi harddisk saja?

Ya, yang bisa dipartisi ternyata nggak cuma harddisk aja. Mempartisi varians sebenarnya memiliki arti yang sama dengan berusaha menemukan besarnya perpotongan dua lingkaran dalam gambar 1. Kita berusaha memilah berapa besar variasi dari variabel dependen yang mengikuti variasi variabel lain. Misalnya berapa besar variasi variabel prestasi siswa yang mengikuti variasi model pembelajaran.

“Kepriben carane?”(yang nanya orang tegal).

Baiklah, sebelum membahas caranya, kita perkenalkan dulu satu ukuran variasi yang lain, yaitu Jumlah Kuadrat (Sum of Square), lengkapnya Jumlah dari Deviasi Kuadrat (Sum of Squared Deviation). Sebenarnya kita sudah bertemu dengan tamu kita ini, hanya saja tersembunyi dalam rumus Varians. Seperti namanya Jumlah dari Kuadrat Deviasi… Yak! Benar sekali! Jumlah Kuadrat ini adalah numerator (pembilang) dari rumus varians:

Ini adalah rumus umumnya, yang tentunya bisa diaplikasikan pada setiap situasi. Dengan mengaplikasikan satu rumus ini dalam setiap situasi, kita nggak perlu mengingat rumus yang sangat banyak yang ada di buku-buku. Cukup satu rumus ini untuk segala situasi. Hmm… tidak percaya? Akan saya buktikan.

Nah melalui JK (atau SS) inilah kita akan mempartisi variasi dari variabel dependen. Mengapa? (ini yang nanya saya sendiri). Karena SS memiliki sifat aditif yang tidak dimiliki oleh varians. Maksudnya dapat dijumlahkan dan dapat dikurangi satu sama lain di antara bagian-bagiannya. Jelasnya begini, kita lihat gambar berikut:

Gambar 2.

Lingkaran Variasi Model Pembelajaran digambar dengan garis putus-putus karena tidak menjadi fokus perhatian saat ini. Kita akan banyak memperhatikan Lingkaran Variasi Prestasi Siswa.

Keseluruhan lingkaran Variasi Prestasi Siswa ini merupakan variasi dari semua siswa yang diukur prestasinya, sering juga disebut sebagai Variasi Total. Jika kita menghitung JK-nya maka kita akan mendapatkan JK total (sounds familiar?). Nah keseluruhan variasi ini dipartisi dalam bagian yang mengikuti variasi variabel model pembelajaran (bagian berwarna biru) diberi lambang A, dan bagian yang tidak mengikuti variasi variabel model pembelajaran (yang tidak berwarna) diberi lambang e. Sehingga keseluruhan variasi prestasi siswa merupakan penjumlahan dari A dan e, dapat dirumuskan sebagai berikut:

Lalu bagaimana rumus tiap JK ini?

Rumusnya persis seperti yang telah saya berikan tapi diaplikasikan dalam situasi yang berbeda.

Jumlah Kuadrat Total

Nah namanya saja jumlah kuadrat total, berarti ini menggambarkan keseluruhan variasi sampel dalam penelitian tanpa memperhatikan asal sampel (dari model pembelajaran A atau B). Oleh karena itu kita perlu terlebih dulu mencari mean yang mencakup semua subjek disebut juga Grand Mean (GM). Kita tinggal menjumlahkan semua skor semua subjek dan membaginya dengan banyaknya subjek.

Jangan terbebani dengan rumus ya. Ini sebenarnya rumus mencari mean biasa, hanya saja diberlakukan pada seluruh subjek penelitian tanpa melihat kelompoknya.

Kemudian kita menerapkan rumus JK secara umum untuk mencari Jumlah Kuadrat Total:

Beberapa buku memberikan rumusan yang berbeda-beda untuk Jumlah Kuadrat Total ini. Salah satunya antara lain:

Keduanya akan memberikan hasil yang persis sama, karena rumus kedua merupakan penyederhanaan rumus pertama.

Baiklah sebagai ilustrasi saya sajikan contoh saja ya:

Tabel 1

Berapa JK Total dari data ini?

Jadi JK Total dari data di atas adalah 46.4. Cobalah kamu cari dengan menggunakan rumus kedua, lalu bandingkan apakah hasilnya sama.

Jumlah Kuadrat dari Bagian Variasi Variabel Dependen yang Mengikuti Variabel Independen.

Wah namanya panjan banget ya. Kita akan menggunakan nama lainnya saja agar lebih ringkas yaitu JK Antar Kelompok. Penjelasan mengenai asal usul nama ini akan diberikan di akhir posting. Jadi untuk sementara kita ingat dulu saja bahwa JK Antar ini adalah JK dari Bagian Variasi Variabel Dependen yang Mengikuti Variabel Independen.

Ilustrasi di gambar 1 maupun 2 merupakan salah satu cara penjelasan mengenai JK Antar ini. Di sini saya akan menyajikan konsep yang sama dari cara penjelasan yang berbeda. Kita lihat lagi Tabel 1. A1, A2, A3 merupakan variasi dari variabel independen, misalnya saja proses pembelajaran. Nah variasi variabel dependen yang mengikuti variasi variabel independen dapat dilihat dari perbandingan antar kolom A1, A2, A3. Misalnya kita lihat di kolom A1,skor di dalam kolom ini cenderung kecil berkisar antara 2 sampai 5. Sementara kolom A2 berisi skor dari 4 hingga 7 dan kolom A3 berisi skor antara 5 sampai 8. Kita bisa melihat bahwa kolom yang berbeda memiliki kecenderungan skor variabel dependen yang berbeda. Ini yang dimaksud dengan variasi variabel dependen yang mengikuti variasi variabel independen. Secara grafis bisa dilihat dalam gambar 3 berikut:

Gambar 3.

Dalam gambar tersebut, dapat kita lihat kecenderungan A1 berada di bawah sementara A2 berada di tengah dan A3 berada di paling atas. Jadi ketika kita melihat kelompok yang berbeda, sebaran skor variabel dependennya juga berbeda dari sebaran pada kelompok yang lain.

Nah apa yang bisa kita anggap mewakili kecenderungan tiap kelompok ini? Mean. Ya kita bisa melihat mean untuk mewakili kecenderungan kelompok. Jadi jika kita ingin melihat variasi dari variabel dependen yang mengikuti variabel independen, kita akan melihat variasi dari mean kelompok. Dengan kata lain kita akan mencari JK dari mean antar kelompok.

Bagaimana caranya?

Kita akan menerapkan rumus JK secara umum yang diaplikasikan untuk mean kelompok. Kurang lebih begini:

Mean dari mean akan sama dengan Grand Mean yang kita cari tadi.

Dengan demikian, rumus dari JK mean akan menjadi seperti ini:

Atau dapat juga diekspresikan dengan:

Kita coba terapkan dulu di contoh kasus kita. Sebelumnya kita mencoba menghitung mean dari tiap kelompok seperti ini:

Kemudian kita menerapkan rumus tadi menjadi begini:

Nah ada sedikit masalah dengan JK mean ini, yaitu kita cenderung untuk memperoleh JK Mean yang kecil. Ini diakibatkan kita menghitung variasi ini berdasarkan mean dari skor subjek. Variasi dari mean skor subjek tentunya akan lebih kecil daripada variasi skor subjek. Untuk mengatasi hal ini, kita akan mengalikan JK Mean ini dengan banyaknya subjek di tiap kelompok. Hasil perkalian ini yang kemudian dianggap secara tepat mewakili variasi variabel dependen yang mengikuti variasi variabel independen.

Saya akan menunjukkan juga alasan lain mengapa kita perlu mengalikan JK mean ini dengan banyaknya subjek dalam tiap sampel di posting lain.

Tapi apakah ini sama dengan rumus yang ada di buku-buku? Saya yakin sama. Kita buktikan ya(jika dirasa terlalu kecil klik saja pada pembuktian, maka akan muncul image yang lebih besar):

Nah rumus terakhir ini yang sering kita lihat di buku-buku bukan? Aha! Ternyata tidak serumit yang dibayangkan bukan? Kita tidak perlu menghafal pembuktian ini tentunya. Pembuktian ini hanya dilakukan untuk menunjukkan bahwa rumus yang saya tawarkan dan rumus yang di buku sama. Keuntungan rumus dari buku ini, kita bisa berurusan degan sampel dengan n yang berbeda, sementara menggunakan rumus yang saya tawarkan memang sederhana tapi akan kesulitan jika harus berurusan dengan kelompok dengan n yang berbeda.

Sekarang cobalah menghitung JK Antar dengan menggunakan rumus kedua ini lalu bandingkan hasilnya.

(to be continued…)


Rabu, Januari 02, 2008

t-test (truly) Final Encounter: Asumsi Homogenitas

Posting ini secara khusus membahas mengenai uji homogenitas karena saya anggap cukup penting. Selain itu, asumsi ini dapat dicek dengan menggunakan teknik statistik tertentu seperti asumsi normalitas. Berbeda dengan asumsi lain yang (sementara) hanya dapat dicek melalui cek prosedur penelitian. Posting ini akan membahas dua hal yaitu ide mengenai cara mengecek homogenitas dan bagaimana melakukannya di SPSS.

Uji asumsi homogenitas = uji beda varians

Ide dasar uji asumsi homogenitas sebenarnya merupakan uji perbedaan antara dua kelompok juga. Hanya saja yang dibedakan sekarang bukan mean kelompok melainkan varians kelompok. Pemikirannya begini yang dapat berbeda di antara dua kelompok itu sangat banyak. Semua karakteristik populasi dapat bervariasi antara satu populasi dengan yang lain. Dua di antaranya adalah mean dan varians (selain itu masih ada bentuk distribusi, median, modus, range, dll).

Penelitian yang ada selama ini baru menggunakan mean sebagai tolak ukur perbedaan antara dua populasi. Para peneliti belum ada (setahu saya) yang melakukan pengujian atau membuat hipotesis terkait dengan kondisi varians di antara dua kelompok. Padahal ini memungkinkan dan bisa menjadi kajian yang menarik. Misalnya saja sangat memungkinkan suatu treatmen tidak hanya mengakibatkan perbedaan mean, tapi juga perbedaan varian. Jadi misalnya, metode pengajaran tertentu itu cocok untuk anak-anak dengan kesiapan belajar yang tinggi tapi akan menghambat mereka yang kesiapan belajarnya rendah. Ketika diberikan pada kelas yang mencakup kedua golongan ini, maka siswa yang memiliki kesiapan belajar tinggi akan terbantu sehingga skornya akan tinggi, sementara yang kesiapan belajarnya rendah akan terhambat, sehingga skornya rendah. Nah karena yang satu mengalami peningkatan skor sementara yang lain penurunan, ini berarti variasi dalam kelompok itu makin lebar. Sehingga variansnya akan membesar.

Semoga ini bisa jadi ide penelitian baru ya. (Ayo yang mau skripsi… atau dosen yang lagi ngejer CCP hehe, proyeksi diri sendiri…)

Nah lalu gimana ngukurnya?

Ada sangat banyak cara mengukur beda varians ini. Kabarnya ada 56 formula yang berbeda untuk mengukur beda varian ini (nah lo). Tapi ada tiga yang paling sering disebut. Mereka adalah …(drum roll please):

(1). Pendekatan Hartley. Yaitu membagi varians terbesar dibagi varians terkecil. Ini akan menghasilkan nilai F max. Formula ini dianggap paling sederhana tapi juga bermasalah. Oleh karena itu sering hanya dijadikan patokan kasar. Masalahnya? Sangat peka terhadap ketidaknormalan data. Sehingga estimasi p nya akan melenceng jauh dari tabel F max jika data yang kita miliki nggak normal.

(2). Pendekatan kedua dan ketiga sebenarnya memiliki ide dasar yang sama. Keduanya berbeda hanya pada acuan yang dipakai saja. Idenya begini: Pertama kita menghitung terlebih dulu deviasi skor tiap subjek dari tendensi sentral kelompok nya. Nah jika varians antara dua kelompok sama, maka mean dari deviasi skor subjek ini (dengan mengabaikan nilai negatif) tidak akan jauh berbeda antara satu kelompok dengan yang lain. Untuk mengeceknya, kita bisa melakukan analisis varians pada data deviasi skor subjek dari tendensi sentralnya. Dari ide ini ada dua formula yang dibuat. Pertama adalah Levene’s test (yang diprogramkan oleh SPSS) dan pendekatan Brown-Forsythe. Pendekatan Levene menggunakan mean sebagai ukuran tendensi sentralnya oleh karena itu lebih peka terhadap ketidaknormalan data. Sementara Brown-Forsythe menggunakan median, sehingga lebih robust terhadap ketidaknormalan data. (Tapi kita lebih sering menggunakan Levene karena itu yang tersedia di SPSS).

Contoh Kasus

Anggaplah kita ingin menguji apakah data berikut ini melanggar asumsi homogenitas varians.Ini memang contoh tidak riil karena data yang digunakan sangat sedikit. Ini dilakukan demi kemudahan tampilan saja. Nah, dalam contoh kasus ini saya hanya akan menunjukkan cara menguji perbedaan varians dengan menggunakan SPSS, oleh karena itu hanya menggunakan pendekatan Levene’s test (kalau memang banyak yang berminat melihat cara pendekatan brown-forsythe akan saya tampilkan juga. Tapi tergantung demand…cieileh…).

Pendekatan Levene biasanya akan langsung disajikan oleh SPSS ketika kita melakukan t-test untuk sampel yang independen. Begini caranya:

(1). Bentuk data di atas tentunya harus diubah dulu menjadi seperti di bawah ini agar bisa dianalisis menggunakan SPSS:(2)kemudian kita klik Analyze-Compare means-Independent sample T Test

(3).Setelah klik maka akan tampil dialog box seperti ini:

(4). Kemudian variabel dependen dimasukkan dalam kotak Test Variable(s) dan independen masuk ke kotak Grouping Variable. Ketika variabel independen dimasukkan ke Grouping Variable, SPSS akan meminta identifikasi kelompok. Ini dapat dilakukan dengan mengklik Define Groups. Sehingga muncul dialog seperti ini:

Kita masukkan 1 ke kotak Group 1 dan 2 ke kotak Group 2 (ini tergantung bagaimana data yang ada di kolom A. Jika data berupa 0 dan 1 maka yang dimasukkan ke sini ya 0 dan 1 bukan 1 dan 2). Setelah itu klik Continue

(5).Kemudian klik OK sehingga output ditampilkan.

(6).Karena pembahasan hanya seputar uji beda varians maka yang ditampilkan di sini hanya Levene’s test saja seperti berikut:

Dari tampilan ini bisa kita lihat nilai F yang didapatkan adalah 6.584 dengan p=0.033. Ini berarti bahwa kita dapat menyimpulkan adanya perbedaan varians antara kedua populasi. Atau dalam kerangka asumsi homogenitas varians, asumsi ini telah dilanggar, sehingga kita perlu melakukan beberapa langkah seperti yang telah dijelaskan dalam posting sebelumnya mengenai asumsi t-test.

OK sepertinya pembahasan mengenai t-test sudah tuntas.Kita akan masuk dalam pembahasan yang lebih seru lagi mengenai Anava di postingan berikutnya. Sudah ada yang punya ide cerita?