Rabu, November 05, 2008

Analisis Varians Desain Faktorial (bagian 1)

Analisis varians dapat dikembangkan aplikasinya untuk menganalisis data penelitian yang terdiri dari satu variabel dependen kontinum dan lebih dari satu variabel independen kategorik. Nah pengembangan ini yang dinamakan Analisis Varians Desain Faktorial.
“Dari namanya sudah terdengar susah…,” terdengar dari lubuk hati beberapa pembaca,”Mungkinkah kita melakukan analisis varians sederhana sebanyak variabel independen saja?”
Ya…ya mungkin saja. Hanya saja, kita akan memperoleh beberapa manfaat dengan melakukan analisis desain faktorial ini; yaitu analisis interaksi antar variabel independen dan masalah tuntutan besarnya sampel. Analisis interaksi antar variabel independen akan dijelaskan lebih jauh dalam tulisan terkait dengan ini. Terkait dengan manfaat kedua, Analisis varians desain faktorial menuntut jumlah subjek lebih sedikit dibandingkan dengan analisis varians sederhana untuk memperoleh kekuatan analisis yang sama. Atau dengan kata lain, dengan jumlah subjek yang sama, kekuatan analisis anava 2 jalur lebih besar daripada anava satu jalur. Hal ini tidak dibahas di sini secara detil. Bagi yang berminat untuk mendiskusikan ini bisa menghubungi saya langsung atau membaca buku “Statistical Power Analysis” yang ditulis Cohen (1988).

Kembali ke Variasi Variabel Dependen

Masih ingat gambar ini bukan? Ini adalah gambar model dari analisis varians sederhana (atau disebut juga satu jalur). Nah anggaplah kita kemudian menambahkan satu variabel lagi untuk menjelaskan variasi prestasi siswa, misalnya variasi jenis kelamin. Sehingga gambar modelnya sekarang menjadi seperti ini:
Nah dalam gambar di atas, bisa dilihat bahwa variasi prestasi siswa sekarang berusaha dijelaskan oleh variasi model pembelajaran dan variasi jenis kelamin. Selain kedua variabel ini, ada satu bagian lagi yang menjadi akibat dari ‘pertemuan’ dua variabel ini, yaitu interaksi. Kemudian bagian lain dari variasi prestasi siswa yang tidak dijelaskan oleh variasi model pembelajaran, jenis kelamin, maupun interaksi keduanya merupakan error atau residu.

Apa Maksudnya Interaksi?

Kita dapat membayangkan interaksi ini seperti mencampur dua bahan kimia. Contoh klasiknya misalnya kita mencampur Hidrogen (yang mudah terbakar) dan Oksigen (yang juga mudah terbakar). Ketika dicampur, kedua bahan kimia ini menjadi air (H2O) yang justru memadamkan api.
Bagaimana contoh nyatanya?
Begini, misalnya kita memiliki dua jenis model pembelajaran; yaitu: diskusi dan experiential learning (EL). Nah misalnya model pembelajaran yang efektif untuk tiap jenis kelamin itu berbeda. Siswa laki-laki memperoleh manfaat lebih banyak jika mereka mendapat model pembelajaran diskusi, sementara siswa perempuan melalui model EL. Oleh karena itu, ketika siswa laki-laki memperoleh EL, prestasinya tidak meningkat sebanyak siswa perempuan. Sebaliknya ketika siswa perempuan memperoleh diskusi, prestasinya tidak meningkat sebanyak siswa laki-laki. Nah jika ini terjadi, ini berarti ada interaksi antara model pembelajaran dengan jenis kelamin.

Main Effect

Hmm… saya agak bingung nerjemahinnya… Akibat Utama? Hehe… bercanda… kita tetap menggunakan bahasa aslinya saja ya (saya singkat ME), supaya teman2 terbiasa dengan istilah ini jika nanti membaca buku-buku luar tentang statistik.
Main Effect (ME) ini merupakan efek yang ditimbulkan oleh adanya variabel independen. Banyaknya ME ini sama dengan banyaknya variabel independen yang dilibatkan dalam penelitian. ME ini bisa dibilang efek atau ‘pengaruh’ langsung suatu variabel independen terhadap variabel dependen, tanpa memperhitungkan kehadiran variabel independen lain. (kata pengaruh saya beri tanda kutip, karena interpretasi tentang adanya pengaruh hanya dapat dilakukan jika kita melakukan penelitian eksperimental).
ME ini sama seperti ketika kita melakukan analisis varian sederhana (satu jalur). Cara menghitungnya pun persis sama dengan analisis varian sederhana, sehingga hasil perhitungannya juga akan sama saja. Saya buktikan ya:


Kedua tabel di atas berasal dari data yang sama. Tabel pertama, merupakan hasil analisis varians 2 jalur dengan melibatkan model pembelajaran (model) dan jenis kelamin (jenkel), sementara tabel kedua merupakan hasil analisis varians satu jalur dengan model sebagai variabel independennya. Kedua tabel menunjukkan antara hasil hitung yang sama antara Jumlah Kuadrat (Sum of Squares), db (df), dan Mean Kuadrat (Mean Squares) untuk model dalam tabel pertama dan kedua.
“Tapi … nilai F dan p nya berbeda,” mungkin begitu komentar seseorang di sana.
Ya nilai F dan p nya memang berbeda, karena dalam analisis dua jalur, variasi error yang tidak dapat dijelaskan menjadi lebih kecil karena kehadiran variabel lain (dalam contoh kita tadi variabel lain ini adalah jenis kelamin), dan interaksi antar variabel independen. Oleh karena itu dalam analisis varian 2 jalur, kita memiliki kemungkinan lebih besar untuk menolak hipotesis nol. (Ini yang saya sebut di atas “dengan jumlah subjek yang sama, kekuatan analisis anava 2 jalur lebih besar daripada anava satu jalur”). Kita akan bahas ini lebih detil ketika sampai pada masalah variasi error.

Interaction Effect

Kita singkat IE saja ya. Ini adalah efek dari kehadiran kedua variabel independen bersama-sama seperti yang sudah saya ilustrasikan di atas.
Bagaimana menghitungnya?
Perhitungan IE ini diawali dengan perhitungan JK antar sel yang diakibatkan pertemuan dua variabel independen. Konkretnya dapat dilihat dalam gambar berikut:

Kita memiliki 4 sel dalam kasus ini, karena tiap variabel independent terdiri dari 2 kelompok. Banyaknya sel akan sama dengan perkalian jumlah level/kelompok dalam tiap variabel independen. Ok lalu bagaimana menghitung Jumlah Kuadrat antar sel ini?
Menghitung jumlah kuadrat dari sel, sangat mirip dengan menghitung jumlah kuadrat antar di analisis varian satu jalur. Hanya saja, sekarang kita menghitung jumlah kuadrat antar sel di analisis varians dua jalur. Masih ingat kan dengan rumus JK antar di anava 1 jalur? Begini: Nah, jika menghitung JK antar sel, maka rumusnya akan menjadi begini:Atau jika kita bongkar rumus ini akan menjadi seperti ini:

Lagi-lagi jangan kuatir harus menghafal banyak rumus. Cobalah lihat persamaan-persamaannya dengan JK antar. Ketika menghitung JK sel, kita hanya memperlakukan sel seolah-olah sebagai kelompok. (kalau kamu bandingkan, rumus JK sel dan JK antar persis sama. Yang berbeda hanya konteksnya saja).
Setelah kita menghitung JK sel, berikutnya kita baru bisa menghitung JK interaksi dengan rumus berikut:


Mengapa JK interaksi didapat dari mengurangi JK sel dengan JKA dan JKB?
Karena begini pandangannya: Variasi antar sel itu di’pengaruhi’ oleh variasi dari JKA, JKB dan JK interaksi. JK interaksi sendiri agak sulit untuk dihitung secara langsung, sementara JK sel cukup mudah dihitung secara langsung dari data. Oleh karena itu kita menghitung dulu JK sel, lalu mengurangi variasi yang terjadi antar sel ini dengan JKA dan JKB.

JK residu/error

Nah setelah menghitung semua urusan efek-efek tadi, sekarang saat nya kita menghitung JK residu. JK residu atau disebut juga JK dalam, dihitung dari variasi antar individu di dalam sel. Masih ingat menghitung JK dalam di Anava satu jalur? Cara menghitungnya persis sama, hanya berbeda konteks. Rumus di atas merupakan rumus mencari JK dalam untuk anava satu jalur. Jika diterapkan pada anava desain faktorial, maka rumus tersebut diterapkan pada sel, menjadi begini:
Huruf a dan b itu menunjukkan kelompok pada variabel independen pertama (a) dan kedua (b). Jadi jika menggunakan contoh di atas, jika a=1 dan b=1, ini berarti kita menghitung JK dalam kelompok pria yang diberi treatment diskusi. Setelah tiap sel kita hitung JK dalam tiap sel, kemudian kita jumlahkan menjadi JK dalam.
Mean Square/Mean Kuadrat

Perhitungan mean kuadrat (MK) untuk anava 2 jalur sama dengan anava 1 jalur, yaitu JK dibagi df.
Banyaknya MK antar akan sama dengan banyaknya variabel independen. Dalam contoh kita di atas, kita akan memiliki 2 MK antar, satu untuk variabel model pembelajaran dan satu untuk jenis kelamin.
Tapi bagaimana menghitung db nya?
Pada dasarnya sama saja dengan sebelumnya :
Nilai F dan Signifikasi

Seperti anava satu jalur, nilai F didapatkan dari pembagian MK dari efek yang diteliti dengan MK dalam. Dalam contoh kita memiliki tiga efek yang ingin dilihat, yaitu efek dari metode pembelajaran, efek dari jenis kelamin dan efek interaksi metode pembelajaran dengan jenis kelamin. Oleh karena itu kita akan mendapatkan tiga nilai F, satu untuk masing-masing efek.
Nah masing-masing nilai F ini tentunya juga memiliki nilai p yang akan menentukan apakah variabel independen tersebut memiliki efek yang signifikan terhadap variabel dependen. Kita dapat mengetahui besarnya nilai p ini dari tabel F, atau menggunakan program komputer seperti excell dan SPSS.

Contoh Hasil Analisis Menggunakan SPSS


Karena artikel dalam blog ini lebih menekankan pada ide dan konsep, maka saya memutuskan untuk tidak menampilkan contoh hitungan manual. Semua perhitungan manual akan mirip dengan analisis varian satu jalur. Jadi pembaca bisa membaca-baca lagi artikel tersebut. Walaupun demikian saya tetap menganjurkan pembaca untuk mencoba-coba menganalisis secara manual untuk mendapatkan ‘feeling’ dari proses analisisnya, khususnya jika jumlah data yang dianalisis tidak banyak. Dalam arti, kita akan lebih memahami bagaimana kita bisa sampai pada hasil analisis seperti ini atau itu.
Contoh dalam tabel berikut diproduksi dari program analisis SPSS.


Dalam tabel di atas, dapat kita lihat bahwa kedua variabel independen tidak memberikan efek yang signifikan terhadap prestasi siswa. Dengan kata lain tidak ada perbedaan mean antara mereka yang berjenis kelamin pria dan wanita (F(1,16)=1.855, p=0.192), dan antara mereka yang mendapat model diskusi dan EL (F(1,16)=.464, p=.506). Selain kedua Main Effect tersebut, kita bisa melihat bahwa interaksi antara model pembelajaran dan jenis kelamin memiliki efek yang signifikan (F(1,16)=9.391, p=.007).
Lalu artinya apa? Mengapa Main Effects nya tidak signifikan tetapi interaksinya bisa signifikan. Seperti apa interaksi yang terjadi antara kedua variabel independen tersebut?
Untuk menjawabnya pertanyaan tersebut kita akan berjumpa lagi di artikel berikutnya.

Selasa, Juli 29, 2008

Anava Identity : Post Hoc dan Kontras

Anava ternyata tidak membereskan masalah sampai ke akar-akarnya. Bahkan menyisakan pertanyaan di benak kita...wah wah wah bahasanya... Ya, selesai analisis kita hanya bisa bilang bahwa salah satu dari segala kemungkinan perbandingan antar kelompok memiliki perbedaan yang signifikan.

Jadi kalo misalnya kita punya 3 kelompok: A, B, C, kita akan memiliki kurang lebih 3 perbandingan, yaitu antara A dengan B, A dengan C, dan B dengan C. Jika Analisis varians menghasilkan nilai F yang signifikan, ini berarti salah satu dari ketiga perbandingan itu yang signifikan. Yang mana? hmm... kalo Tora Sudiro akan bilang,"Mene Ketehe?".

Multiple Comparison

Keren bener bahasanya. Ya ini istilah lainnya perbandingan jamak... agak janggal sih jadi kita pake istilah aslinya aja ya, disingkat MC.
Kembali ke masalah si Anava ini, lalu gimana dong?
Mungkin ada yang usul juga gimana kalo kita pake t-test dibandingin satu-satu? (Kenapa nggak dari awal aja sekalian, jadi nggak harus pake anava...ya nggak ya nggak?).

Boleh-boleh... (saya dengar di sana ada yang bilang,"Tapi...." hehe). Menggunakan t-test berkali-kali akan memiliki dampak kurang baik terhadap uji hipotesis. Ilustrasinya begini: Kalau saya punya 3 bola, dua berwarna biru dan satu berwarna merah, lalu saya menutup mata si A, dan memintanya menebak bola apa yang saya lempar ke udara saat ini. Setelah A menebak saya akan memberitahunya bola apa yang saya lempar sebenarnya. Anggaplah saja percobaan pertama gagal ditebak, si A jawab merah padahal saya lempar biru. Nah percobaan kedua masih gagal, si A jawab biru padahal saya lempar merah. Dapat dipastikan percobaan ketiga pasti dapat ditebak dengan benar bukan? Jadi dalam hal ini, tiap kali kita melakukan uji, kita akan meningkatkan kemungkinan untuk mendapatkan t yang signifikan.

Contoh yang lebih konkret: kita ingin menguji apakah perbedaan antara kelompok A dan B signifikan dengan taraf 5%. nah karena ketersediaan dana kita bisa mengambil 100 sampel. kemudian kita tes sampel ini satu demi satu. Bisa dijamin, meskipun sebenarnya tidak ada perbedaan antara A dan B di populasi, tapi karena kita melakukan uji sampe 100 kali, kesempatan kita mendapat sampel yang A dan B nya memiliki perbedaan yang signifikan semakin besar di tiap kali pengujian. Besarnya kemungkinan mendapatkan paling tidak 1 perbedaan yang signifikan dengan taraf 5% sebesar:

1-(1-p)^k

k dalam hal ini adalah banyaknya pengujian yang dilakukan, sementara p adalah taraf signifikasi yang kita gunakan. misalnya kita melakukan 3 kali, jadi k=3, dengan taraf 5%. Ini berarti kemungkinan mendapatkan 1 sampel yang memiliki perbedaan mean yang signifikan tidak lagi 5% tapi :

1-(1-0.05)^3=1-0.8575
=0.142625

Bisa dibilang sekarang taraf signifikasinya nggak lagi 5% melainkan 14.2625%.

Oleh karena itu kita tidak dapat menggunakan pengujian t-test berkali-kali tanpa melakukan penyesuaian terhadap taraf signifikasinya.

Jadi sebenarnya bisa hanya harus disesuaikan?

anda benar! kita bisa menggunakan t-test dengan menyesuaikan taraf signifikasinya. Selain t-test ada beberapa teknik lain yang memperhitungkan taraf signifikasi ini. Kumpulan teknik-teknik ini kemudian dinamai post hoc test. Karena dilakukan setelah dilakukannya Anava. Post hoc test ini tidak hanya terkait dengan membandingkan mean dari dua kelompok, tapi juga membandingkan mean dari beberapa kelompok dengan konfigurasi tertentu.
Maksud saya begini. Anggaplah kita memiliki 3 kelompok, A, B dan C. Kelompok A dan B merupakan kelompok yang diberi treatmen sementara kelompok C adalah kelompok yang tidak diberi treatmen sama sekali. Dalam analisis ini kita bisa melihat apakah ada perbedaan yang diberi treatment dengan yang tidak, jadi seolah menggabung A dan B kemudian dibandingkan dengan C. Analisis ini dinamai Kontras (Contrast). Ini gambaran umumnya, lalu gimana melakukan perbuatan ini?


Analisis Kontras
Hmm…. Ini tidak ada kaitannya dengan masalah kekerasan dan HAM ya. Analisis kontras di sini dimaksudkan sebagai analisis antara dua mean yang di’kontras’kan atau dibandingkan. Analisis Kontras ini seringkali juga disebut sebagai Single df analysis (karena semua analisis kontras memiliki df sebesar 1 untuk pembilangnya). Analisis Kontras ini mencakup banyak teknik analisis. Daripada saya sebutkan, mendingan saya gambarkan saja seperti apa ya cakupan analisis kontras ini (lihat gambar 1.)




Huaduh…. Kok banyak banget? Hmm…. Ya memang banyak. Tapi tidak semua harus dilakukan dalam satu penelitian kok. Penelitian selama ini biasanya melibatkan variabel independen yang kategorik, maka biasanya kita hanya melakukan analisis kontras yang di sebelah kanan diagram. Nah tulisan ini berfokus pada bagian kanan dari diagram ini. Bagian kirinya nanti ya dalam postingan sendiri.

Analisis Kontras Sederhana (Simple Contrast Analysis) dan Perbandingan Pasangan Keseluruhan (Complete Pairwise Comparison).
Kedua teknik ini dijadikan satu karena mirip sekali. Keduanya sama-sama menganalisis perbedaan antara mean dari dua kelompok. Perbedaannya, perbandingan pasangan keseluruhan menganalisis semua perbandingan pasangan mean antar kelompok yang memungkinkan, sementara analisis kontras sederhana hanya membandingkan pasangan mean antar kelompok yang menjadi perhatian peneliti.
Contoh: penelitian membandingkan mean tingkat stress pada mahasiswa antara kelompok A, B, C dan D. Jika kita menggunakan perbandingan pasangan keseluruhan, maka kita akan melakukan sebanyak [k*(k-1)]/2 atau sama dengan 6 perbandingan. Sementara jika melakukan analisis kontras sederhana kita dapat memilih pasangan kelompok yang ingin dilihat saja. Misalnya kita hanya tertarik membandingkan A dengan B, A dengan C, dan A dengan D saja.

Hmm… apakah berbeda analisisnya? Bukankah menganalisis semua kemungkinan pasangan kelompok toh juga akan bisa dilihat perbandingan pasangan tertentu.
Ya tentu saja bisa. Permasalahannya terletak pada power dari analisisnya. Ketika melakukan 6 perbandingan, power dari analisis akan cenderung lebih kecil karena kita melakukan penyesuaian yang lebih ketat terhadap tipe error I. Kita akan menuntut perbedaan antar mean kelompok yang lebih besar dengan melakukan 6 perbandingan daripada jika hanya melakukan 3 perbandingan. Analisis yang dianjurkan (Keppel & Wickens, 2004) untuk kedua situasi itu juga berbeda. Untuk analisis kontras sederhana yang dianjurkan adalah teknik Sidak-Bonferroni atau Dunett’s Test. Sementara untuk perbandingan pasangan keseluruhan dianjurkan menggunakan Tukey’s HSD procedure atau REGW (Ryan-Einot-Gabriel-Welsch). Semua teknik ini ada dalam SPSS jadi kita tidak perlu menghitung secara manual karena untuk beberapa teknik akan sangat repot. Anjuran ini didasarkan pada pertimbangan keakuratan dalam mengestimasi nilai p dan juga usaha meningkatkan power dari analisisnya.

Analisis Kontras Kompleks (Complex contrast analysis)
Hmm…dari namanya sepertinya agak mengerikan…kompleks…. Nggak kok sebenernya dia orang baik…. Lo opo to iki?
Jika Analisis Kontras Sederhana membandingkan mean dari dua kelompok, Analisis Kontras Kompleks membandingkan mean dari lebih dari dua kelompok. Misalnya kita melakukan penelitian dengan tiga kelompok. Dua kelompok treatment dan satu kelompok kontrol. Kemudian kita hendak membandingkan dua kelompok treatmen jadi satu dengan kelompok kontrol. Ini misalnya karena kita tertarik untuk membandingkan apakah pemberian treatment secara umum memang memberikan dampak terhadap skor subjek dibandingkan kelompok kontrol.
Cara melakukan analisis ini mirip sekali dengan analisis kontrast sederhana oleh karena itu teknik mengontrol tipe error I yang dianjurkan juga sama dengan Analisis kontras sederhana yaitu Sidak-Bonferoni.

Analisis Kontras Eksploratori
Analisis ini jika dilihat secara sekilas mirip sekali dengan analisis-analisis sebelumnya. Perbedaannya: pada analisis yang disebutkan sebelumnya, rencana analisis sudah dibuat sebelum penelitian dilakukan. Jadi kita sudah merencanakan perbandingan mana yang akan kita lihat jika nilai F nya signifikan.
Nah pada analisis kontras eksploratori (Keppel & Wickens menyebutnya post hoc test, sementara Howell, menyebutnya posteriori test), kita tidak melakukan rencana apapun sebelumnya. Keputusan untuk melakukan perbandingan pasangan kelompok-kelompok tertentu didasarkan setelah melihat nilai F dan mean-mean kelompok. Kita ‘mencari’ dan kemudian menguji perbedaan mean setelah melihat hasil analisis, jadi kita seolah2 sudah melakukan analisis berulang2. Oleh karena itu, kita perlu melakukan kontrol error tipe I secara lebih ketat lagi (Keppel & Wickens, 2004).
Pengontrolan error tipe I yang dianjurkan oleh Keppel dan Wickens (2004) adalah Scheffe. Karena teknik ini berusaha mengendalikan error tipe I dengan sangat ketat, maka ia kehilangan kekuatan untuk mengidentifikasi perbedaan yang tidak terlalu besar.

OK sementara demikianlah analisis kontras dan perbandingan pasangan. Tentang bagaimana melakukannya di SPSS… kita lihat di postingan berikutnya…OK?
(OKEEEEEE…..)

Sabtu, Juli 19, 2008

Korelasi Antara A Dan B Positif Signifikan = Jika A Tinggi Maka B Juga Tinggi?

Kisah berikut ini kisah nyata yang sudah dimodifikasi karena keterbatasan ingatan saya. Data penelitian yang ditunjukkan di sini berasal dari penelitian sungguhan, dan telah mendapat ijin dari penelitinya. Nama dan identitas disamarkan, kecuali nama saya tentunya…

Saya sempat mendapat pertanyaan yang sangat bagus dari seorang teman mahasiswa. Penelitiannya menggunakan teknik analisis korelasi produk momen pearson. Hasil analisisnya menyatakan adanya korelasi yang positif dan signifikan.
Masalah muncul ketika ia melakukan kategorisasi subjek ketika menggunakan kriteria hipotetik(lihat catatan kaki no 1). Jumlah subjek dengan kategori rendah dan sangat rendah pada variabel A jauh lebih sedikit daripada subjek dengan kategori rendah dan sangat rendah di variabel B. Keadaannya bahkan lebih dramatis; tidak ada subjek yang berada pada kategori rendah dan sangat rendah di variabel A (lihat tabel 1.).
tabel 1.

Hal ini kemudian dipertanyakan oleh dosen-dosen pengujinya. Apakah hasil analisisnya sudah benar? Asumsinya mungkin begini: Korelasi yang positif signifikan berarti jika skor subjek pada variabel A tinggi, maka skor subjek pada variabel B juga tinggi. Dengan berpegang pada asumsi tersebut, maka jika jumlah subjek dengan skor rendah dan sangat rendah pada variabel B itu banyak, seharusnya di variabel A juga banyak subjek masuk kategori rendah dan sangat rendah. Logis bukan? hmm…

Permasalahan ini muncul karena dua asumsi yang keliru bahwa (1) Korelasi yang positif signifikan berarti jika skor subjek pada variabel A tinggi berdasarkan kriteria hipotetik, maka skor subjek pada variabel B juga tinggi pada kriteria hipotetik; dan (2) korelasi signifikan itu berarti hubungan linear sempurna.

Pertama: Interpretasi korelasi bukan seperti yang dituliskan di atas, melainkan semakin tinggi skor subjek pada variabel A, maka skor pada variabel B juga semakin tinggi. Apa bedanya? Artinya skor subjek tidak selalu harus tinggi, tapi jika skor si Budi di variabel A itu lebih tinggi daripada Wati, maka skor Budi di variabel B juga cenderung lebih tinggi daripada Wati. Pernyataan ini tidak berbicara mengenai posisi skor Budi berdasarkan kriteria hipotetik sama sekali. Korelasi berbicara mengenai konsistensi posisi seseorang dalam kelompok relatif terhadap mean empirik(lihat catatan kaki 2) pada variabel A dan variabel B.

Jika posisi subjek konsisten (cenderung tinggi pada variabel A dan juga variabel B relatif terhadap mean empirik) maka korelasi akan tinggi dan positif. Jika konsisten terbalik (cenderung tinggi pada variabel A tapi rendah pada variabel B atau sebaliknya, relatif terhadap mean empirik) maka korelasi akan tinggi dan negatif. Jika tidak konsisten korelasinya akan mendekati nol.

Sebagai bukti penjelasan saya ini saya sajikan dua grafik. Dalam grafik pertama, garis-garis tipis didasarkan pada kategorisasi hipotetik, sementara dalam grafik kedua, garis-garis tipis didasarkan pada kategorisasi empirik.

grafik 1. Kategori Hipotetik

grafik 2. Kategori Empirik

Dalam kedua grafik ini dapat dilihat bahwa ketika menggunakan kategori hipotetik, data penelitian terlihat seolah-olah tersebar tidak merata di tiap kategori khususnya ditinjau dari variabel A. Data mengumpul dalam dua kategori paling kanan. Sementara jika menggunakan kategori empirik, data penelitian terlihat cukup merata dalam tiap kategori ditinjau dari variabel A. Situasi ini dapat dibuktikan juga dengan membandingkan tabel 1 di atas yang menggunakan kriteria hipotetik dengan tabel 2 yang menggunakan kriteria empirik berikut ini:

tabel 2.

Dari sini dapat disimpulkan tidak ada yang salah dengan hasil analisisnya. Masalah muncul ketika interpretasi korelasi diterapkan pada kategorisasi hipotetik, sementara korelasi sendiri dihitung berdasarkan mean empirik.

Hmm… tapi bahkan ketika menggunakan kategori berdasarkan mean empirik sebaran antara kedua variabel tetap tidak sama. Coba lihat pada bagian sedang dan rendah. Pada Variabel B prosentase subjek dalam kategori Sedang 26.2% sementara pada Variabel A mencapai 40.47%. Situasi ini berbalik di kategori rendah, prosentase subjek dengan kategori rendah di Variabel B ada 40.47% sementara di Variabel A 26.19%. Mengapa demikian?

Kedua. Jawabannya terdapat pada kesalahan asumsi kedua: korelasi signifikan itu berarti hubungan linear sempurna. Kesan yang kita tangkap ketika membaca pernyataan “korelasi signifikan” itu seolah-olah sama dengan mengharapkan adanya hubungan linear yang sempurna atau paling tidak sangat tinggi. Kita akan mengharapkan pola sebaran subjek dalam tiap kategori (dalam kategori empirik) akan sama untuk variabel A dan B. Tentu saja tidak demikian. Konsistensi pola sebaran antara variabel A dan B tidak ada kaitannya dengan signifikasi, tetapi dengan nilai korelasi yang didapatkan. Dalam penelitian ini meskipun nilai korelasi yang didapatkan itu signifikan, tetapi nilai korelasinya sendiri hanya 0.34, jadi dapat dibilang tidak terlalu kuat. Lebih jauh lagi, ini berarti kita tidak dapat berharap banyak akan menjumpai pola sebaran yang sangat konsisten antara variabel A dan B. Pola sebaran seperti dalam tabel 2, menurut saya, memang pola yang dapat diharapkan dari angka korelasi sebesar 0.34.


Catatan Kaki
1 Kategori hipotetik yang dimaksud dalam tulisan ini adalah kategori yang dibuat berdasarkan mean hipotetik dan SD hipotetik. Pembuatan kategori hipotetik ini dapat dilihat dalam buku Penyusunan Skala Psikologi yang ditulis oleh Saiffuddin Azwar.
2 Mean empirik mengacu pada mean dari data sampel. Istilah ini digunakan untuk membedakannya dari mean hipotetik yang berasal dari nilai tengah skala di tiap item dikali jumlah item. Sumber bacaan mengenai mean empirik dan mean hipotetik/teoretik dapat dilihat dalam buku Penyusunan Skala Psikologi yang ditulis oleh Saiffuddin Azwar.

Jumat, Mei 09, 2008

Asumsi Linearitas

Atas permintaan beberapa teman, saya akhirnya memutuskan untuk menulis dulu mengenai topik ini sebelum melanjutkan topik mengenai Analisis Varian. Apa itu asumsi linearitas? Bagaimana mengetahui apakah asumsi ini terpenuhi atau tidak? Dan mungkin beberapa pertanyaan lain yang akan saya coba jawab dalam posting ini… omong-omong kok saya jadi serius gini ya? Hmm…

Apa itu Asumsi Linearitas?
Ada beberapa teknik statistik yang didasarkan pada asumsi linearitas, lengkapnya linearitas hubungan. Teknik statistik yang dimaksud adalah teknik yang terkait dengan korelasi, khususnya korelasi product momen, termasuk di dalamnya teknik regresi. Jadi tentunya tidak semua teknik statistik didasarkan pada asumsi ini.
Jadi apa itu asumsi linearitas hubungan? Kurang lebih asumsi ini menyatakan bahwa hubungan antar variabel yang hendak dianalisis itu mengikuti garis lurus. Jadi peningkatan atau penurunan kuantitas di satu variabel, akan diikuti secara linear oleh peningkatan atau penurunan kuantitas di variabel lainnya. Gambarannya kurang lebih begini:

Memangnya ada yang nggak mengikuti garis lurus? Ya banyak sekali model hubungan yang nggak mengikuti garis lurus. Misalnya seperti di gambar ini:
Dalam gambar ini, hubungan antar variabelnya bersifat kurvilinear, khususnya hubungan kuadratik. Masih banyak pola hubungan yang lain selain ini, seperti eksponensial, logistik, dll.

Mengapa harus Linear?
Korelasi produk momen dan turunannya, mengasumsikan hubungan antar variabelnya bersifat linear. Jika ternyata pola hubungannya tidak linear, maka teknik korelasi produk momen akan cenderung melakukan underestimasi kekuatan hubungan antara dua variabel. Jadi sangat mungkin sebenarnya kedua variabel memiliki hubungan yang kuat tetapi diestimasi oleh produk momen sebagai tidak ada hubungan atau memiliki hubungan yang lemah, hanya karena pola hubungannya tidak linear.

Bagaimana Mengecek Asumsi Linearitas ini?
Ada beberapa cara untuk mengecek asumsi linearitas ini dalam program SPSS:
1. Menggunakan test for linearity dalam SPSS
Cara ini termasuk cara yang sangat lazim dilakukan selama ini ketika berurusan dengan pengecekan asumsi linearitas. Saya sendiri tidak terlalu yakin dengan cara ini, hanya saja sampai hari ini saya tidak memiliki bukti untuk menolak penggunaan cara ini.
Kita akan memulai dengan mengklik Analyze->Compare Means->Means, lalu muncullah sebuah dialog box berikut ini.

Pilihlah variabel dependen dari daftar variabel di sebelah kiri, lalu pindahkan ke kolom Dependent Variable, begitu juga variabel independen dipindah ke kolom Independent Variable.
Kemudian klik Option, lalu muncul lagi satu dialog box seperti ini:


Kita klik kotak di sebelah kiri Test for linearity, untuk memilihnya. Kita dapat membersihkan kotak Cell Statistics jika tidak ingin ada hasil output lain karena memang tidak dibutuhkan. Klik Continue, dan kita kembali ke dialog box sebelumnya, lalu klik OK.
Output analisis yang akan kita baca hanya bagian seperti gambar di bawah ini:
Nah pada bagian ini dapat kita lihat tabel yang sangat mirip dengan Anova, karena memang sebenarnya ini analisis varians. Pada bagian paling atas kita dapat melihat baris Between (Subject). Ini sebenarnya sama dengan JK Antar dalam analisis varians sederhana seperti yang pernah saya bahas di Anava Identity. Dalam analisis ini, JK Antar dipartisi lagi menjadi dua bagian. Yaitu bagian yang mengikuti garis linier, dan bagian yang tidak mengikuti garis linier.
Bagian yang mengikuti garis linier itu yang diwakili oleh baris Linearity sementara bagian yang tidak mengikuti garis linier diwakili oleh baris Deviation from Linearity. Bagian ini sebenarnya merupakan ‘sisa’ dari bagian dari JK Antar setelah dikurangi bagian yang mengikuti garis linear. Mungkin dapat digambarkan seperti ini:

Bagian yang berwarna biru merupakan bagian dari variasi variabel dependen yang mengikuti variasi variabel independen, diberi lambang A. Ini adalah bagian yang sering diwakili oleh JK Antar. Bagian yang tidak berwarna, diberi lambang e, merupakan bagian dari variabel dependen yang tidak mengikuti variabel independen. Nah ternyata oh ternyata… bagian berwarna ini, JK Antar, masih dapat dipartisi lagi menjadi dua bagian yaitu yang mengikuti garis linear, diwakili oleh baris linearity, dan yang tidak mengikuti garis linear, diwakili oleh deviation from linearity.

Nah lalu bagaimana memutuskan apakah asumsi linearitas ini terpenuhi atau tidak?

Ada beberapa pendapat yang beredar saat ini. Pendapat pertama menyatakan keputusan diambil dengan melihat baris linearity, karena baris ini dianggap merupakan bagian JK Antar yang mengikuti trend linear. Jika F untuk baris linearity ini signifikan, kita bisa bilang bahwa bagian dari JK Antar yang mengikuti garis linear cukup besar, sehingga dapat disimpulkan trend antara variabel independen dan dependen itu linear. Atau dapat juga dikatakan bahwa garis linear dapat memberikan penjelasan yang baik mengenai hubungan antara kedua variabel, dengan kata lain fit.

Ada juga pendapat yang mengatakan keputusan diambil dengan melihat baris deviation from linearity. Deviation from linearity merupakan bagian dari A yang tidak mengikuti garis linear. Jika baris ini tidak signifikan, maka dapat dikatakan bahwa hubungan antar variabel dependen dan independen linear. Pemikirannya kurang lebih begini, sangat mungkin hubungan antar variabel itu fit dengan garis linear, tapi tidak seluruh variasi dari hubungan antar variabel ini dapat dijelaskan dengan garis linear ini. Ada sebagian lain yang mengikuti pola hubungan yang tidak linear. Dalam hal ini, jika deviation from linearity signifikan, ini menunjukkan bahwa sebagian lain variasi hubungan antar variabel ini tidak mengikuti garis linear. Jadi disamping model linear kita perlu juga melihat model non-linear. Nah, jika deviation from linearity ini tidak signifikan, ini berarti variasi hubungan antar variabel hampir sepenuhnya mengikuti pola hubungan linear.

Jadi gimana nih?
Kalo menurut saya begini: patokan pertama yang bisa dipakai adalah linearity, karena baris ini menggambarkan apakah model linear dapat menjelaskan dengan baik hubungan antar variabel. Jika linearity signifikan, maka itu berarti hubungan antar variabel dapat dijelaskan menggunakan model linear, dalam hal ini korelasi produk momen atau regresi linear. Deviation from linearity merupakan informasi tambahan mengenai pola hubungan yang tidak dapat dijelaskan oleh garis linear. Jika ternyata baris ini signifikan. Ini berarti, hanya memberikan penjelasan linear mengenai hubungan antar variabel akan memberikan informasi yang kurang lengkap mengenai hubungan antar variabel. Sehingga perlu kiranya menguji juga model hubungan antar variabel dengan model non-linear pada data yang sama. Ini dilakukan untuk melihat manakah model yang terbaik menjelaskan pola hubungan ini.

Masalah
Saya pribadi kurang merasa ‘sreg’ dengan pendekatan ini, apalagi jika digunakan sebagai satu-satunya sumber informasi untuk mengecek asumsi linearitas data.
Keberatan saya yang pertama, sebenarnya analisis ini merupakan analisis trend, jadi bukan analisis yang memang dirancang untuk melihat linearitas hubungan antara dua variabel dengan data kontinum. Apa bedanya? Analisis trend sebenarnya menganalisis mean dari beberapa kelompok dari sampel penelitian. Kelompok-kelompok ini dibentuk menurut kuantitas dari variabel independent. Misalnya variabel independennya obat A, maka kelompok pertama misalnya diberi obat A sebanyak 10 gram, kelompok berikutnya 20 gram, dan seterusnya. Yang ingin dilihat apakah pemberian obat dengan kuantitas tertentu ini akan memiliki efek yang linier terhadap variabel dependen, misalnya kecepatan sembuh. Terkait dengan ini akan ada dua masalah yaitu:

a. Jika tiap nilai variabel independen hanya memiliki satu nilai unik untuk variabel dependennya (misalnya setiap subjek yang memiliki skor IQ 100 memiliki nilai raport 10), analisis trend di SPSS ini tidak akan dapat dijalankan, karena SPSS tidak dapat menghitung varians errornya.

b. Jika range dari variabel independent sangat besar, misalnya 100 point, maka derajat kebebasan (df) untuk baris deviation from linearity akan cenderung besar. Ini mengakibatkan Rerata Kuadratnya (MS deviation from linearity) akan cenderung kecil, sehingga nilai F nya akan cenderung kecil juga. Hal ini mengakibatkan makin besar kemungkinan untuk mendapatkan F yang tidak signifikan terlepas dari apakah kondisi datanya linear atau tidak.

Kedua, terkait dengan ketergantungan teknik ini terhadap jumlah subjek. Semakin besar subjek, makin kecil Rerata Kuadrat untuk error (MS error), yang mengakibatkan makin besar kemungkinan untuk menolak hipotesis nol. Dalam baris linearity ini berarti makin besar kecenderungan untuk mengatakan hubungan antar variabel itu linear padahal tidak demikian. Dalam baris deviation from linearity ini berarti makin besar kecenderungan untuk mengatakan hubungan antar variabel dapat dijelaskan dengan model non linear.

Alasan ketiga terkait dengan ‘sense of data’…cieileh…keren betul bahasanya. Maksud saya begini, mengenali dan melihat data itu penting bagi peneliti. Peneliti perlu mendapat ‘sense’ atas datanya sendiri. Nah, mengandalkan uji asumsi saja hanya akan membatasi pandangan kita mengenai data kita sendiri. Kita perlu melihatnya secara langsung baik dalam arti memandangi datanya (ini serius nggak guyon…) atau membuat grafik yang bisa menggambarkan data kita. Nah terkait dengan ini kita masuk ke pendekatan kedua.

2. Menggunakan Grafik Scatter Plot antar Variabel
Saya menganggap penting sekali mengecek data secara visual. Ini dapat dilakukan dengan melihat datanya secara langsung atau melihatnya dalam bentuk grafik. Ada cukup banyak informasi yang bisa kita peroleh dengan melihat data dengan grafik dibandingkan hanya melihat hasil output berupa tabel.

Scatter plot termasuk grafik yang menurut saya cukup berguna untuk mengecek linearitas hubungan antar variabel. Beberapa manfaat yang dapat diperoleh antara lain, dapat melihat secara langsung bentuk hubungan antar variabel. Seandainya hubungan antar variabel tidak linear, dengan scatter plot kita dapat memperkirakan seperti apa bentuk hubungannya; kuadratik, kubik, logaritmik, atau yang lain. Manfaat lainnya adalah dapat mengecek outlier dalam data kita, keberadaannya dan pada variabel mana data tersebut menjadi outlier.

Lalu bagaimana melakukannya dengan SPSS?
Kita dapat menggunakan menu Graph->Interactive->Scatterplot, yang akan memunculkan dialog box seperti ini:

Dalam dialog box tersebut kita bisa memasukkan variabel independen dalam kotak pada garis horizontal dan variabel dependen dalam kotak pada garis vertikal. Kemudian klik OK, yang akan memunculkan grafik seperti berikut:
Nah dari grafik ini bisa dilihat bahwa hubungan kedua variabel dapat dikatakan linear. Jika kita menarik garis lurus seperti di atas, kita dapat melihat titik-titik tersebut memiliki jarak yang relatif dekat dengan garis. Dalam grafik ini juga dapat dilihat beberapa outlier sekaligus kemungkinan heterogenitas varians.

Masalah utama terkait dengan grafik adalah subjektivitas penilaian seperti apa grafik yang dapat dikatakan linear dan seperti apa yang dikatakan non linear. Dalam gambar di atas, kita dapat melihat dengan cukup jelas bahwa hubungan keduanya linear, tetapi dalam grafik lain sangat mungkin ada perbedaan pendapat mengenai linearitas hubungan antara dua variabel. Oleh karena itu meminta penilaian orang lain mengenai bentuk hubungan dalam hal ini cukup penting.

Saat ini saya sedang menggali kemungkinan-kemungkinan lain untuk menguji linearitas hubungan ini. Saya belum menemukan sampai saya menyelesaikan tulisan ini. Jika suatu hari nanti saya memperolehnya tentu saja akan saya upload artikel baru di blog ini. Salam!

Jumat, Maret 28, 2008

Anava Identity : Analisis Varians Sederhana / Satu Jalur (Part II)

Aaah setelah bertapa cukup lama bisa juga akhirnya saya menulis bagian ini. Sebelumnya saya minta maaf pada beberapa teman yang mengharapkan bagian ini segera, karena tidak dapat memenuhi harapan anda semua.
Pada bagian sebelumnya saya sudah membahas mengenai keseluruhan variasi dan satu bagian dari variasi variabel dependen. Nah, bagian berikutnya adalah variasi dari variabel dependen yang tidak mengikuti variasi variabel independennya, sering disebut sebagai variasi error atau variasi residu.
Variasi Error
Beberapa ahli membedakan istilah residu dan error ini. Tapi untuk sementara saya akan menggunakan istilah error saja ya. Variasi error itu adalah bagian yang tidak berwarna dalam gambar di bawah ini (e).

Bagian ini adalah bagian yang tidak mengikuti variasi dari variabel independen. Jika kita melakukan eksperimen, maka bagian ini adalah bagian yang tidak dipengaruhi atau bukan merupakan hasil treatmen dalam eksperimen.Terkadang variasi ini berupa variasi akibat perbedaan individual. Variasi ini akan terlihat dalam tabel data kita, seperti ini:
Bisa kita lihat bahwa meskipun kelompok A1 itu cenderung memiliki nilai yang rendah, tetapi di dalam kelompok A1 tetap ada variasi skornya. Tidak semua menjadi 1 atau 2 atau 3. Jika seluruh variasi variabel dependen mengikuti variasi variabel independen, maka di tiap kelompok hanya akan ada satu nilai untuk semua subjek. Jadi dalam A1 semua subjek akan bernilai 3 misalnya, di A2 akan bernilai 4 semua, dst.Tentu saja ini merupakan peristiwa sangat langka dalam kehidupan sehari-hari. Jadi hampir selalu akan ada variasi dalam tiap kelompok.Oh ya, karena variasi ini terjadi di dalam kelompok, seringkali juga variasi ini disebut sebagai variasi dalam di beberapa buku.

Lalu gimana ngitungnya?
Kita masih bisa menerapkan rumus yang telah diberikan sebelumnya. Hanya saja karena kita menghitung variasi dari tiga kelompok, maka sekarang kita akan menjumlahkan variasi ketiga kelompok ini.
Rumus untuk mencari JK di dalam tiap kelompok akan seperti ini:
Nah jika JK dalam dari tiap kelompok ini dijumlahkan akan menjadi seperti ini:
Lagi-lagi bukan maksud saya untuk meminta kamu menghafalkan semua ini. Ini hanya untuk membuktikan bahwa menghitung JK dalam tiap kelompok lalu dijumlahkan itu akan sama dengan menggunakan rumus dalam buku seperti pada persamaan yang terakhir.

Penerapan dalam contoh akan seperti ini:

Nah cobalah menggunakan rumus alternatifnya.

Salah satu keuntungan JK ini adalah sifatnya yang aditif, sehingga kita bisa menjumlahkan JK dalam dan JK antar yang besarnya akan sama dengan JK total. Ini juga merupakan salah satu cara cepat mengecek apakah hitungan kita sudah benar. Benarkah hitungan saya?

Yak betul!. Kemungkinan besar hitungan saya sudah benar. (Cobalah cek lagi. Sebelum ini hitungan saya sempat salah lo. Adakah yang mengetahuinya?).

Apa yang Kita Lakukan Selanjutnya?

Baiklah, sekarang kita sudah punya JK Total, JK Antar, dan JK dalam. Permasalahan dengan JK adalah bahwa semakin besar jumlah subjek yang digunakan untuk menghitung JK, makin besar JKnya. Sehingga meskipun situasinya sama, tapi jumlah N nya berubah, maka JK akan cenderung berubah. Oleh karena itu kita perlu men-standardkan JK ini.

Caranya? Dengan membagi tiap JK dengan derajat kebebasannya. Hmmm rasanya pernah dengar ya. Lagi-lagi derajat kebebasan memiliki rumus umum yang dapat diterapkan di tiap situasi:

Maksudnya komponen di sini adalah komponen yang terlibat dalam perhitungan JK. Jadi misalnya dalam perhitungan JK total, komponen di sini adalah jumlah subjek secara keseluruhan. Estimasi maksudnya berapa banyak statistik yang diestimasi dalam tiap perhitungan. Dalam perhitungan JKtotal kita hanya mengestimasi satu mean populasi, sehingga estimasinya 1. Baiklah rumus lengkapnya begini:

Dalam db Antar, kita menghitung JK dari total tiap kelompok. Oleh karena itu komponen pembentuknya ada sejumlah kelompok, dan kita mengestimasi GrandMean dalam populasi, sehingga hanya ada satu estimasi. Ketika menghitung db dalam, kita menggunakan subjek dalam tiap kelompok sebagai komponennya, dan di tiap kelompok kita mengestimasi satu mean populasi. Oleh karena itu kita mengalikan n-1 dengan banyaknya kelompok. Kemudian dapat dirumuskan juga dengan jumlah keseluruhan subjek dikurangi banyaknya kelompok.

Nah jika kita terapkan dalam contoh akan menjadi seperti ini:
Langkah berikutnya kita membagi JK dengan db yang terkait. JK Total dibagi db Total, JK Antar dibagi db Antar, JK dalam dibagi db dalam. Hanya saja biasanya, dalam tabel anava, hasil bagi JK Total dengan db Total tidak dicantumkan. Lalu hasil baginya berupa apa? Atau apa namanya? Hasil bagi ini dinamai Mean Kuadrat (Mean Square).

Mean Kuadarat? Mana meannya? Kalau diamati sebenarnya jika kita hilangkan semua (-1), kita seolah-olah sedang mencari rerata bukan? begini ilustrasinya:

Bukankah begitu? Oleh karena itu nama dari hasil bagi itu adalah mean dari kuadrat jarak X dari reratanya, yang sering disingkat mean kuadrat. Lalu mengapa dibagi N-1? Ini sangat terkait dengan masalah estimasi. Rerata yang sebenarnya hendak kita gunakan di rumus adalah rerata populasi. Tapi karena kita nggak tahu rerata populasinya, kita mengestimasi rerata populasi ini dengan menggunakan rerata sampel. Karena hanya berupa estimasi maka kita akan selalu kehilangan satu derajat kebebasan. Demikian asal-usulnya.

Kalau kamu amati lagi, sebenarnya Mean Kuadrat ini juga bicara tentang hal lain. Coba amati rumusnya, bukankah familiar? Hmm… yak ok jadi sama dengan suatu rumus ya….. Aha! Rumusnya jadi sama dengan rumus varians! Yup! You’ve got it.Ya, bisa dibilang MK itu setara dengan Varians, menceritakan hal yang sama dengan varians. Jadi kita sekarang kita kembali ke Varians setelah sebelumnya (posting sebelumnya) kita meninggalkannya sementara.

Sekarang mari kita terapkan …(mariii….):

Demikianlah kita temukan MK untuk tiap sumber variasi. Lalu apa berikutnya?

Uji F

Masih ingat gambar berikut ini bukan?

Sebagian dari variasi prestasi siswa itu mengikuti variasi dari model pembelajaran (A), dan sebagian lagi tidak mengikuti model pembelajaran (e). Kalau kita ingin tahu apakah variasi prestasi siswa yang mengikuti model pembelajaran itu besar atau kecil,maka kita perlu membandingkan variasi prestasi yang mengikuti model pembelajaran ini dengan sesuatu. Apakah itu? (kok jadi main tebak-tebakan gini ya?).

Saya mendengar nun jauh di sana menjawab,”dengan variasi error!”, Yak Benar!

Sekarang kita akan membandingkan variasi yang mengikuti model pembelajaran (A), atau bisa dibilang juga sebagai variasi yang di’akibat’kan adanya model pembelajaran yang berbeda, dengan variasi yang tidak mengikuti model pembelajaran (e). Atau bisa disebut juga variasi yang diakibatkan bukan oleh model pembelajaran.

Nah ternyata, jika kita membagi A dengan e kita dapat membandingkannya dengan suatu distribusi khusus dalam statistik yaitu distribusi F. F ini dari nama ‘penemu’nya yaitu Sir Ronald Aymer Fisher. (kenapa nggak distribusi R atau A? ada yang tahu?). Hasil baginya juga diberi simbol F. Jadi :

Nilai F ini kemudian dapat dibandingkan dengan F kritis dalam tabel F atau dihitung dengan computer untuk menemukan p-value nya. Ini seperti yang kita lakukan setelah memperoleh nilai t dari t-test. Sekarang mari kita terapkan lagi dalam contoh:

Dengan F sebesar ini, hampir bisa dipastikan jika p-valuenya pasti lebih kecil dari 0.05. Tapi untuk memastikan kita cek saja. Kamu bisa juga lo menggunakan MS Excel untuk mencari p-value ini. Ketikkan saja perintah berikut ini:

Jika kamu benar mengetiknya maka akan dihasilkan p sebesar 0.002595. Mari kita bandingkan dengan hasil dari SPSS:

Aha! Tepat sama! Wow Keren Banget! Yeah! (jujur saja saya juga nggak nyangka lo angkanya bisa tepat sama seperti ini).

Nah gimana kalo kita ingin melihat tabel F? (hmm….masih ingin lihat tabel F setelah melihat kecanggihan teknologi seperti ini?)

Untuk melihat nilai kritis dalam tabel F kita memerlukan dua nilai db yaitu db Antar dan db dalam untuk mencari nilai kritis dari F.

Nah tugasmu sekarang mencari berapa nilai kritis F untuk tiap taraf signifikasi?

Lalu Apa?

Ketika membandingkan nilai p yang kita dapat dengan taraf signifikasi, kita bisa mengambil kesimpulan mengenai situasi mean di antara kelompok-kelompok. Jika signifikan kita bisa mengambil kesimpulan bahwa perbedaan mean di populasi yang diwakili sampel kita tidak sama dengan nol.

Apakah ini berarti kita dapat mengambil kesimpulan bahwa A1 berbeda dari A2? Atau A2 berbeda dari A3? Atau dapatkah disimpulkan bahwa ketiga kelompok itu saling berbeda meannya?

Jawabnya : TIDAK! (duh galak betul…).

“But why?” (orang sok keminggris nih…).

Because…. Duh ketularan deh. Ini dikarenakan kita menggunakan varians mean antar kelompok bukan menggunakan perbandingan pasangan-pasangan mean. Varians mean antar kelompok akan menjadi cukup besar (untuk menghasilkan F yang signifikan) cukup dengan adanya satu saja pasangan kelompok yang memiliki perbedaan mean yang signifikan. Ilustrasinya begini, misalnya ada mean ketiga kelompok berturut-turut adalah 15, 15, dan 30. Kondisi ini akan membuat varians antar mean tidak sama dengan nol.

Hal ini yang membuat Anova disebut juga sebagai analisis yang bersifat global atau omnibus. Hipotesis nol yang diuji adalah mean kelompok 1 = mean kelompok 2 = mean kelompok 3. Nah ketika hipotesis ini ditolak maka kesimpulannya ada paling tidak satu diantara 3 pasangan kelompok ini yang meannya berbeda. Tapi berapa banyak dan kelompok mana yang berbeda tidak dapat dideteksi oleh Anava. Oleh karena itu dibutuhkan analisis lanjutan untuk melakukannya. Ini disebut juga analisis post hoc atau post hoc test. Post hoc test ini akan dibahas dalam posting tersendiri.

Demikianlah kisah Anava Sederhana ini. Dalam posting berikut-berikutnya saya akan membahas juga mengenai post hoc, anova desain faktorial dan anova untuk amatan ulang (repeated measure).

Jumat, Januari 18, 2008

Pertanyaan Keempat Seputar Uji Asumsi

Setelah beberapa saat saya menerima pertanyaan keempat dari Bu Susan. Begini pertanyaannya:

satu lagi pertanyaan, Pak... mengapa di buku Hair dkk. itu untuk
residunya menggunakan studentdized residual ya bukan
unstandardized residual?...
Jawab:
Ya ada beberapa macam residual yang dapat diperoleh ketika kita melakukan analisis regresi. Yang pernah saya tuliskan di posting mengenai normalitas dalam regresi adalah unstandardized residual.
Selain studentized, masih ada standardized residual, deleted standardized residual, dan deleted studentized.

Standardized residual.
Standardized residual, seperti namanya, adalah residual yang distandardkan. Maksudnya seperti mencari nilai Z dari residual. Keuntungan menggunakan standardized residual ini adalah tidak terpengaruh terhadap unit ukur, karena semua distandardkan. Jadi pengukuran menggunakan dua skala yang berbeda unit ukurnya (misalnya yang satu skor maksimalnya 10 yang lain skor maksimalnya 100) akan muncul dalam unit yang sama yaitu SD.

Studentized Residual
Kelemahan dari Standardized Residual adalah asumsi bahwa varians untuk semua residu adalah sama. Kenyataannya, semakin jauh sebuah skor dari prediksinya, ia cenderung memiliki variasi yang makin besar. Oleh karena itu diperbaiki dengan menerapkan rumus tertentu (sering disebut leverage atau h) untuk memperbaiki situasi ini. Dengan menggunakan rumus ini, makin jauh residu dari meannya (yang menggambarkan makin jauh individu menyimpang dari prediksinya), makin besar varians residunya. Nah ketika digambarkan dalam grafik, maka studentized residual ini akan mengikuti distribusi t (ini makanya dikasih nama studentized, dari student t distribution).

Deleted Standardized dan Deleted Studentized
Kedua ukuran residu ini sebenarnya memiliki pemikiran yang sama dengan ukuran residu tanpa deleted. Hanya saja, kelemahan Standardized atau Studentized Residual adalah 'turut campur'nya observasi yang didiagnostik dalam perhitungan Standardized atau Studentized Residual. Sehingga jika observasi itu memiliki residu yang besar, ia juga akan memperkecil standardized dan studentized residual. Hal ini tentunya akan membuat kedua ukuran itu menjadi kurang sensitif mendeteksi adanya outlier atau influential observation (untuk sementara sebut saja keduanya observasi yang cari gara-gara atau observasi bermasalah sampai kita membahas mengenai regresi sampai tuntas ...tas...tas...tas...). Mengapa begitu? Pertama, residu yang besar akan memperbesar standard error yang digunakan untuk membagi besarnya residu karena memperbesar mean. Jika standard error membesar, ini berarti hasil bagi antara residu dengan standard error residu akan mengecil. Jadi, residu yang besar akan terlihat tidak terlalu besar dengan ukuran ini.
Oleh karena itu, ketika menghitung standard error residunya, observasi yang akan dianalisis tidak disertakan dalam perhitungan. Ini akan membuat ukuran ini lebih peka terhadap observasi yang bermasalah ini. Inilah makanya disebut sebagai deleted studentized atau deleted standardized.

Dari beberapa ukuran itu, menurut saya, Deleted Studentized Residual merupakan ukuran yang paling sensitif terhadap observasi bermasalah. Jadi jika menghendaki analisis yang peka, memang sebaiknya menggunakan Deleted Studentized. Nah seberapa peka itu terserah pemakainya.
Kelemahan semua ukuran residu ini adalah kita tidak memiliki ukuran pembanding 'kekuatan' observasi bermasalah ini dalam mempengaruhi hasil analisis regresi. Oleh karena itu seringkali peneliti melihat ukuran lain seperti Leverage atau Cook's D, atau bahkan DFBeta dalam melakukan diagnostik. Ukuran residu ini digunakan sebagai 'screening' awal untuk melihat observasi bermasalah yang berpotensi mempengaruhi hasil penelitian, dengan cara memplotkan ukuran residu ini dalam scatter plot, kemudian dilihat mana observasi yang menyimpang sangat jauh dari rekan-rekannya. Kemudian dilakukan diagnostik mendalam menggunakan Leverage atau Cook's D.

terkait dengan uji normalitas menurut saya (lagi-lagi pendapat tidak didasarkan pada kajian atau analisis mendalam dari penelitian. Jadi lagi-lagi ini bisa diangkat jadi penelitian untuk mengkaji adakah perbedaan hasil analisis normalitas untuk keempat ukuran tersebut. Ada yang berminat? Mahasiswa lagi skripsi? Dosen yang lagi getol penelitian?), keempat ukuran itu tidak akan memberikan hasil yang jauh berbeda terkait dengan uji normalitas. Tentu saja jika mencari yang terbaik kita bisa menggunakan Deleted Studentized Residual.

OK demikian jawaban saya Bu Susan. Semoga bisa memberi tambahan ide seputar uji normalitas ini.

Rabu, Januari 09, 2008

Tiga Pertanyaan Mengenai Asumsi Normalitas

Demikan tiga pertanyaan mengenai asumsi normalitas (pertanyaan ini diberikan dalam posting mengenai Uji Asumsi dalam Regresi):

1. Pak Agung yang baik saya masih bingung mengenai pernyataan ini: central limit theorem disebutkan juga bahwa bagaimanapun bentuk distribusi data di populasinya, semakin besar sampel semakin normal distribusi mean sampelnya (Keppel & Wickens, 2004; Howell, 1984). Dan distribusi terlihat ‘cukup’ normal ketika sampel berisi sekitar 30 orang. Mungkin ini juga alasan mengapa kita sering mendengar ‘minimal sampel’ sebesar 30 orang. Pembahasan mengenai besar sampel akan dilakukan tersendiri.
Sebab ketika saya membaca Bukunya Leech, Barrret, & Morgan (2005) yang berjudul SPSS for intermediate statistics pada hal 28 disebutkan begini:

SPSS recommends that you divide the skewness by its standard error. If the result is less than 2.5 (which is approximately the p = .01 level), then the skewness is not significantly different from normal. A problem from this method, aside from having to use a calculator, is that the standard error depends on the sample size, so with large samples most variable would be found to be nonnormal.

apa yang dimaksud dengan so with large samples most variable would be found to be nonnormal? bgaimana kaitan pernyataan ini dengan central limit theorem?

2. Yang kedua, pada regresi, jika yang dihitung adalah normalitas residu, bagaimana jika asumsi normalitas tidak terpenuhi? bagaimana cara transformasinya, apakah caranya sama dengan transformasi biasa?

3. Terus yang ketiga bagaimana dengan pernyataan bahwa regresi bivariat digunakan untuk memprediksi skor satu variable tergantung yang normal atau berupa skala dari satu variabel bebas yang normal atau skala (Leech, Barret, & Morgan, 2005, hal 198). Apakah dari pernyataan tersebut dapat diinterpretasikan bahwa kita perlu menguji normalitas kedua variabel (bebas dan tergantung)? lalu apakah masih perlu diuji normalitas residunya?


Terima kasih banyak Pak... salam

Tjipto Susana

Saya akan berusaha menjawab pertanyaan ini sebaik mungkin. Semoga bisa menjawab dengan baik.

Pertanyaan Pertama. Jawaban ini dilakukan sebelum saya membaca buku yang diacu Bu Susan, semoga tidak meleset jawaban saya. Menurut saya yang dimaksud normalitas dalam central limit theorem itu berbeda dengan yang dimaksud di SPSS dalam skewness dibagi standard error skewness. Yang saya bahas dalam central limit theorem itu adalah normalitas dari distribusi mean sampel dalam populasi, sementara yang dimaksud dalam skewness adalah distribusi skor subjek dalam populasi.

Dalam central limit theorem disebutkan bahwa semakin besar n (besar sampel) maka distribusi mean sampel akan makin mendekati normal tanpa mempedulikan distribusi skor subjeknya. Jadi meskipun, anggap saja distribusi skor subjek di populasi itu nggak normal, tapi jika kita mengambil jumlah subjek yang mencukupi, maka dapat diasumsikan bahwa bentuk distribusi dari mean sampelnya normal.

Nah, yang diungkapkan Leech, Barrret, & Morgan (2005), itu merupakan 'kelemahan' dari uji signifikasi pada umumnya. Makin besar sampel, maka makin kecil standard error (mungkin bisa dibaca juga di posting mengenai signifikan tak selalu berarti besar), ini mengakibatkan makin besar kemungkinan kita memperoleh statistik yang besar (hasil bagi antara skewness dan standard error dari skewness), yang kemudian mengakibatkan makin besar kemungkinan kita menolak hipotesis nol dan menyatakan distribusi data di populasi tidak normal. Dalam hal ini kita cenderung melakukan tipe error I. Nah, di sini terjadi tarik ulur antara memilih menganggap distribusi data di populasi normal padahal tidak (tipe error II), atau memilih menganggap distribusi data di populasi tidak normal padahal normal (tipe errorI).
Saya pribadi akan memilih melakukan tipe error II lebih besar, dengan alasan central limit theorem tadi dan juga robustness dari statistik t dan F. Selain itu juga sangat disarankan untuk melihat bentuk data di sampelnya dengan menggunakan grafik seperti q-q plot atau stem and leaf plot sebelum mengambil keputusan mengenai uji normalitas ini (bisa juga dibaca di posting saya mengenai uji asumsi dalam SPSS). Ini kebiasaan baik yang tidak kita miliki saat ini. Mungkin bisa dimulai sejak posting ini diupload? (semoga... nyanyi lagu Katon deh).

Pertanyaan Kedua. Mengenai normalitas residu, jika tidak normal maka transformasi tetap dilakukan seperti biasa pada skor independen variabel. Hanya saja perlu berhati-hati karena mencari transformasi yang tepat untuk mengatasi ketidaknormalan data sepertinya cukup sulit . Saya sendiri belum banyak belajar mengenai transformasi ini, hanya pernah mendengar komentar seseorang seperti ini,"It can be forever". Saran saya, pertama perlu dilihat apakah ketidaknormalannya dapat dinilai parah. Jika iya, maka perlu dilakukan diagnostik dulu untuk mencari skor subjek atau observasi yang jadi biang keladinya. Jika semua baik-baik saja, baru kita cari transformasi yang pas.

Pertanyaaan Ketiga.Nah untuk pertanyaan satu ini saya agak ragu menjawabnya, karena kurang yakin dengan pemahaman saya sendiri mengenai Regresi bivariat. Setahu saya regresi biasanya selalu univariat. Nah regresi dengan model bivariat itu mungkin adalah model korelasi product moment. Dalam hal ini, tidak ada prediktor dan kriterion. Biasanya keduanya disebut sebagai response variable. Dalam model ini, kedua variabel berupa random variable, atau variabel yang datanya tidak ditentukan terlebih dulu oleh peneliti, melainkan berasal dari data di lapangan. Oke itu pemahaman saya mengenai Regresi bivariat.
Nah, terkait apakah kedua variabel ini harus memiliki sebaran data yang normal begini: Normalitas residu terkait sangat erat dengan pengujian hipotesis dalam Regresi. Misalnya kita ingin menguji apakah F yang dihasilkan itu signifikan. Jika Regresi dilakukan hanya untuk melihat koefisien korelasinya (atau koefisien regresinya), maka uji normalitas residu tidak perlu dilakukan.
Lalu misalnya kita hendak melakukan uji hipotesis terkait dengan F-nya? maka menurut saya yang diuji normalitas tetap residunya. Hanya saja kita melakukan uji normalitas residu dua kali.Anggaplah kita memiliki dua variabel X dan Y. Uji normalitas residu pertama dilakukan ketika X menjadi 'prediktor' dan Y menjadi 'kriterion' (ingat bahwa sebenarnya dalam model ini tidak ada yang namanya prediktor atau kriterion). Uji yang normalitas residu kedua dilakukan ketika Y yang menjadi 'prediktor' dan X yang menjadi 'kriterion'.

Demikian jawaban saya terhadap tiga pertanyaan ini. Semoga cukup jelas dan menjawab dengan memuaskan.
Jika belum, please feel free to deliver more questions.

Selasa, Januari 08, 2008

Anava Identity : Varians (Part 1)

Saya pernah bertanya iseng di kelas Statistik,”Anava itu singkatan Analisis Varians berarti yang dianalisis kan varians nya. Tapi kok digunakan untuk menguji beda mean?” Pertanyaan itu jadi kuis dengan hadiah coklat. Sayang sekali coklatnya tidak jadi dibagi karena nggak ada yang jawab.

Menjawab pertanyaan ini sebenarnya sama saja dengan menjelaskan apa itu Analisis Varians. Dan semua berawal dari Varians itu sendiri, lebih tepatnya Varians dari Variabel Dependen.

Pada Awalnya: Variasi Variabel Dependen

Penelitian biasanya melibatkan satu atau lebih variabel. Variabel didefinisikan sebagai atribut yang dapat bervariasi. Namanya juga Vary-able, dapat bervariasi. Misalnya tinggi badan, ada yang tinggi ada yang pendek. Tinggi badan adalah variabel karena ia bervariasi. Variasi di sini dapat berarti variasi antara orang satu dengan yang lain, bisa juga antara orang yang sama dalam waktu yang berbeda. Variasi juga bisa terjadi antara kelompok satu dengan yang lain.

Nah mengapa variasi ini bisa terjadi? Mengapa tinggi badan orang-orang bisa bervariasi? Orang yang sama pada waktu yang berbeda juga memiliki variasi tinggi badan. Ketika kita masih usia 5 tahun, mungkin tinggi badan kita nggak lebih dari 1 meter. Sekarang kita mungkin punya tinggi badan yang lebih dari 1,5 meter.

Beberapa pertanyaan mengenai variasi ini menjadi pertanyaan yang cukup penting untuk dijelaskan sehingga menjadi kajian ilmu tertentu. Misalnya mengapa prestasi siswa bisa bervariasi? Adakah suatu penjelasan mengenai variasi ini? Kemudian psikologi pendidikan atau ilmu kependidikan berusaha mencari penjelasan mengenai variasi prestasi ini.

Kemudian misalnya, ada yang mengajukan teori bahwa prestasi siswa itu bervariasi karena jam belajar yang bervariasi. Siswa dengan jam belajar yang banyak biasanya prestasinya baik juga. Atau dengan kata lain orang ini menyatakan bahwa variasi prestasi itu mengikuti variasi jam belajar, bahkan jika ia cukup berani akan mengatakan variasi prestasi itu diakibatkan variasi jam belajar. Sementara yang lain berkata variasi prestasi itu mengikuti variasi model pembelajarannya. Dalam kelompok yang mengikuti model pembelajaran A, prestasi siswanya cenderung lebih tinggi daripada kelompok yang mengikuti model B. Orang yang lain lagi akan berkata variasi prestasi akan mengikuti variasi dari variabel lain lagi.

Jika digambarkan maka paragraf di atas akan tampak seperti ini:

Gambar 1.

Dalam gambar ini, tiap lingkaran mewakili variasi tiap variabel. Perpotongan antara dua lingkaran (yang berwarna-warni) merupakan variasi dari satu variabel yang mengikuti variabel lain. Perpotongan antara dua lingkaran ada yang besar dan kecil. Ini menggambarkan juga bahwa variasi prestasi siswa yang mengikuti variasi variabel ada yang besar dan kecil.

Selain perpotongan antara dua lingkaran, ada juga perpotongan tiga lingkaran (lihat bagian berwarna merah). Bagian ini merupakan perpotongan antara variasi prestasi siswa, jam belajar dan model pembelajaran. Apa maksudnya. Ini berarti ada sebagian variasi prestasi siswa yang mengikuti interaksi variabel model pembelajaran dan jam belajar. Untuk sementara diingat dulu saja ya. Saya akan jelaskan panjang lebar nanti ketika kita membahas desain faktorial.

Nah bagian dari variasi prestasi siswa yang tidak diwarnai merupakan variasi prestasi siswa yang tidak dapat dijelaskan oleh ketiga variabel. Bisa jadi variasi ini bisa dijelaskan variabel lain yang belum disebutkan, atau (beberapa ahli percaya) merupakan efek dari error yang bersifat random, tak ada variabel yang mampu menjelaskannya.

Lalu?

Jika variasi prestasi siswa yang mengikuti variasi variabel lain itu besar, bisa dibilang variabel ini cukup berperan dalam menjelaskan variasi prestasi siswa, dalam gambar misalnya variasi model pembelajaran. Jadi jika ada dua orang siswa yang berbeda prestasinya, kita bisa bilang bahwa mereka berdua memiliki kemungkinan besar mengikuti model pembelajaran yang berbeda. Anggaplah jika model A lebih baik, maka kemungkinan besar siswa yang memiliki prestasi lebih baik berasal dari kelompok yang mengikuti model A.

Nah jika kita memiliki cara untuk memilah variasi-variasi itu dari data kita, kita akan dapat menentukan mana variabel yang penting untuk menjelaskan variasi prestasi siswa. Hmmm… lalu gimana cara?

Varians sebagai ukuran Variasi

Sebelum melangkah lebih jauh… sepertinya memang kita tidak bisa melangkah lebih jauh sebelum membahas tema ini.Pertanyaan yang muncul berikutnya, gimana kita bisa tahu besarnya variasi kelompok? Apakah kita lihat satu-satu data kita? (saya bisa mendengar nada cemas nih). Nggak lah. Ada kok ukuran untuk menggambarkan variasi ini : Varians (sayang nggak ada musiknya, ini bisa diiringi musik misterius nih).

Sepertinya pernah denger atau baca? Iya di posting-posting terdahulu saya cukup banyak bicara ini. Karena kita akan banyak bicara analisis varians, maka varians ini yang akan jadi tema sentral.

“Maaf, Kang, Varians teh apa ya?” (Ini yang nanya dari jawa barat, blog ini dibaca sampe medan lo. Terima kasih untuk Pak Azuar di medan)

Varians itu sebenarnya rata-rata dari kuadrat jarak skor subjek dari mean kelompoknya. Agak susah bayanginnya ya? Bayangkan kita main lempar ladam (sepatu kuda). Peraturannya kita melempar ladam ini ke sebuah tonggak kayu yang jaraknya 5 meter dari tempat kita berdiri. Nah setelah semua peserta melempar, kita ukur jarak tiap ladam dari tonggak. Ada yang dekat, ada yang jauh seperti dalam gambar berikut.

Gambar 2.

Hasil pengukuran jarak tiap ladam dari tonggak ini kemudian dikuadratkan lalu dijumlahkan. Setelah itu kita membaginya dengan banyaknya ladam yang dilempar. Hasil baginya berupa rata-rata kuadrat dari jarak ladam dengan tonggaknya. Kalau dirumuskan bisa seperti ini:

Nah analogi ini kita terapkan pada varians menjadi:

Bagaimana menghitung jarak skor individu dari mean? Skor individu pada satu variabel akan digambarkan dalam satu garis lurus.

Gambar 3.

Jika begini keadaannya, bagaimana mengukur jarak skor individu dari mean? Aha! Kita tinggal mengurangi jarak skor individu dari nol dengan jarak mean dari nol. Jadi seperti ini:

Nah mari kita terapkan pada rumus tadi, sehingga menjadi begini:
Aaah sepertinya sering melihat rumus seperti ini di buku statistik bukan? Jika nanti bertemu dengan rumus ini lagi atau kata Varians, bayangkan gambar ladam tadi. Varians adalah rata-rata dari kuadrat jarak skor individu dari mean kelompoknya.

“Wah sorry, man. Tapi why, man ? (baca: kenapa harus dikuadratkan?)” (yang nanya anak gaul)

Gini coy…ups ketularan gaul. Kalo kita menghitung jarak skor dari mean kelompoknya, maka akan ada yang bernilai positif ada yang bernilai negatif. Nah kalo kita jumlahkan begitu saja, hasil penjumlahannya akan sama dengan nol. Jadi kesannya janggal, semua titik itu punya jarak dari meannya tapi kok jumlahnya nol? Kalo jaraknya nol harusnya kan jarak semua titik itu dari mean ya nol, atau tidak berjarak (tumpuk undhung). Tentu saja ini terjadi karena ada nilai positif dan negatif. Ada titik yang skornya berada di sebelah kiri ada yang di sebelah kanan dari mean. Untuk mengatasi ini ada dua cara, yaitu menghilangkan semua tanda dengan membuat nilainya absolut, atau dengan mengkuadratkannya.

Dengan beberapa alasan (untuk saat ini percaya dulu sama saya ya. Saya akan bahas mengenai alasan ini suatu hari nanti), para ahli memilih menggunakan cara mengkuadratkannya.

“Tapi Lo bakalan dapet ukuran dalam unit kuadrat, dong” (wah orang jakarte yang nanya).

Iye …duh ketularan lagi. Iya, varians memang ukuran variasi skor subjek dalam unit kuadrat. Jika kita menginginkan ukuran variasi skor subjek dalam unit satuan, kita tinggal menghitung akar dari variansnya. Nah ukuran ini yang kemudian disebut sebagai standard deviasi. (Saya bisa mendengar suara O panjang sekali). Begini rumusnya

Varians dalam Sampel

Yang saya sajikan di atas adalah menghitung varians dari populasi. Bagaimana jika kita ingin menghitung varians dari sampel. Apakah sama saja? Pada dasarnya sama. Hanya saja begini, jika varians yang kita hitung di sampel ingin dijadikan estimasi varians populasi, kita perlu sedikit mengubah rumusnya.

Masih ingat mengenai derajat kebebasan? Saya membahas hal ini dalam posting mengenai t-test. Tiap kali kita mengestimasi satu parameter, kita akan kehilangan satu derajat kebebasan. Di sini karena kita mengestimasi varians populasi dari varians sampel, kita kehilangan satu derajat kebebasan. Oleh karena itu sekarang kita tidak membagi jumlah kuadrat jarak skor dari mean dengan N tetapi dengan n-1. Rumusnya menjadi begini:

Nah varians yang dirumuskan seperti ini yang merupakan ukuran dari variasi skor subjek dalam suatu sampel tertentu.Standard deviasinya? Hmm tinggal mencari akar kuadratnya saja tentunya.

Mempartisi Varians dan Jumlah Kuadrat

Waduh apa pula ini? Seperti mempartisi harddisk saja?

Ya, yang bisa dipartisi ternyata nggak cuma harddisk aja. Mempartisi varians sebenarnya memiliki arti yang sama dengan berusaha menemukan besarnya perpotongan dua lingkaran dalam gambar 1. Kita berusaha memilah berapa besar variasi dari variabel dependen yang mengikuti variasi variabel lain. Misalnya berapa besar variasi variabel prestasi siswa yang mengikuti variasi model pembelajaran.

“Kepriben carane?”(yang nanya orang tegal).

Baiklah, sebelum membahas caranya, kita perkenalkan dulu satu ukuran variasi yang lain, yaitu Jumlah Kuadrat (Sum of Square), lengkapnya Jumlah dari Deviasi Kuadrat (Sum of Squared Deviation). Sebenarnya kita sudah bertemu dengan tamu kita ini, hanya saja tersembunyi dalam rumus Varians. Seperti namanya Jumlah dari Kuadrat Deviasi… Yak! Benar sekali! Jumlah Kuadrat ini adalah numerator (pembilang) dari rumus varians:

Ini adalah rumus umumnya, yang tentunya bisa diaplikasikan pada setiap situasi. Dengan mengaplikasikan satu rumus ini dalam setiap situasi, kita nggak perlu mengingat rumus yang sangat banyak yang ada di buku-buku. Cukup satu rumus ini untuk segala situasi. Hmm… tidak percaya? Akan saya buktikan.

Nah melalui JK (atau SS) inilah kita akan mempartisi variasi dari variabel dependen. Mengapa? (ini yang nanya saya sendiri). Karena SS memiliki sifat aditif yang tidak dimiliki oleh varians. Maksudnya dapat dijumlahkan dan dapat dikurangi satu sama lain di antara bagian-bagiannya. Jelasnya begini, kita lihat gambar berikut:

Gambar 2.

Lingkaran Variasi Model Pembelajaran digambar dengan garis putus-putus karena tidak menjadi fokus perhatian saat ini. Kita akan banyak memperhatikan Lingkaran Variasi Prestasi Siswa.

Keseluruhan lingkaran Variasi Prestasi Siswa ini merupakan variasi dari semua siswa yang diukur prestasinya, sering juga disebut sebagai Variasi Total. Jika kita menghitung JK-nya maka kita akan mendapatkan JK total (sounds familiar?). Nah keseluruhan variasi ini dipartisi dalam bagian yang mengikuti variasi variabel model pembelajaran (bagian berwarna biru) diberi lambang A, dan bagian yang tidak mengikuti variasi variabel model pembelajaran (yang tidak berwarna) diberi lambang e. Sehingga keseluruhan variasi prestasi siswa merupakan penjumlahan dari A dan e, dapat dirumuskan sebagai berikut:

Lalu bagaimana rumus tiap JK ini?

Rumusnya persis seperti yang telah saya berikan tapi diaplikasikan dalam situasi yang berbeda.

Jumlah Kuadrat Total

Nah namanya saja jumlah kuadrat total, berarti ini menggambarkan keseluruhan variasi sampel dalam penelitian tanpa memperhatikan asal sampel (dari model pembelajaran A atau B). Oleh karena itu kita perlu terlebih dulu mencari mean yang mencakup semua subjek disebut juga Grand Mean (GM). Kita tinggal menjumlahkan semua skor semua subjek dan membaginya dengan banyaknya subjek.

Jangan terbebani dengan rumus ya. Ini sebenarnya rumus mencari mean biasa, hanya saja diberlakukan pada seluruh subjek penelitian tanpa melihat kelompoknya.

Kemudian kita menerapkan rumus JK secara umum untuk mencari Jumlah Kuadrat Total:

Beberapa buku memberikan rumusan yang berbeda-beda untuk Jumlah Kuadrat Total ini. Salah satunya antara lain:

Keduanya akan memberikan hasil yang persis sama, karena rumus kedua merupakan penyederhanaan rumus pertama.

Baiklah sebagai ilustrasi saya sajikan contoh saja ya:

Tabel 1

Berapa JK Total dari data ini?

Jadi JK Total dari data di atas adalah 46.4. Cobalah kamu cari dengan menggunakan rumus kedua, lalu bandingkan apakah hasilnya sama.

Jumlah Kuadrat dari Bagian Variasi Variabel Dependen yang Mengikuti Variabel Independen.

Wah namanya panjan banget ya. Kita akan menggunakan nama lainnya saja agar lebih ringkas yaitu JK Antar Kelompok. Penjelasan mengenai asal usul nama ini akan diberikan di akhir posting. Jadi untuk sementara kita ingat dulu saja bahwa JK Antar ini adalah JK dari Bagian Variasi Variabel Dependen yang Mengikuti Variabel Independen.

Ilustrasi di gambar 1 maupun 2 merupakan salah satu cara penjelasan mengenai JK Antar ini. Di sini saya akan menyajikan konsep yang sama dari cara penjelasan yang berbeda. Kita lihat lagi Tabel 1. A1, A2, A3 merupakan variasi dari variabel independen, misalnya saja proses pembelajaran. Nah variasi variabel dependen yang mengikuti variasi variabel independen dapat dilihat dari perbandingan antar kolom A1, A2, A3. Misalnya kita lihat di kolom A1,skor di dalam kolom ini cenderung kecil berkisar antara 2 sampai 5. Sementara kolom A2 berisi skor dari 4 hingga 7 dan kolom A3 berisi skor antara 5 sampai 8. Kita bisa melihat bahwa kolom yang berbeda memiliki kecenderungan skor variabel dependen yang berbeda. Ini yang dimaksud dengan variasi variabel dependen yang mengikuti variasi variabel independen. Secara grafis bisa dilihat dalam gambar 3 berikut:

Gambar 3.

Dalam gambar tersebut, dapat kita lihat kecenderungan A1 berada di bawah sementara A2 berada di tengah dan A3 berada di paling atas. Jadi ketika kita melihat kelompok yang berbeda, sebaran skor variabel dependennya juga berbeda dari sebaran pada kelompok yang lain.

Nah apa yang bisa kita anggap mewakili kecenderungan tiap kelompok ini? Mean. Ya kita bisa melihat mean untuk mewakili kecenderungan kelompok. Jadi jika kita ingin melihat variasi dari variabel dependen yang mengikuti variabel independen, kita akan melihat variasi dari mean kelompok. Dengan kata lain kita akan mencari JK dari mean antar kelompok.

Bagaimana caranya?

Kita akan menerapkan rumus JK secara umum yang diaplikasikan untuk mean kelompok. Kurang lebih begini:

Mean dari mean akan sama dengan Grand Mean yang kita cari tadi.

Dengan demikian, rumus dari JK mean akan menjadi seperti ini:

Atau dapat juga diekspresikan dengan:

Kita coba terapkan dulu di contoh kasus kita. Sebelumnya kita mencoba menghitung mean dari tiap kelompok seperti ini:

Kemudian kita menerapkan rumus tadi menjadi begini:

Nah ada sedikit masalah dengan JK mean ini, yaitu kita cenderung untuk memperoleh JK Mean yang kecil. Ini diakibatkan kita menghitung variasi ini berdasarkan mean dari skor subjek. Variasi dari mean skor subjek tentunya akan lebih kecil daripada variasi skor subjek. Untuk mengatasi hal ini, kita akan mengalikan JK Mean ini dengan banyaknya subjek di tiap kelompok. Hasil perkalian ini yang kemudian dianggap secara tepat mewakili variasi variabel dependen yang mengikuti variasi variabel independen.

Saya akan menunjukkan juga alasan lain mengapa kita perlu mengalikan JK mean ini dengan banyaknya subjek dalam tiap sampel di posting lain.

Tapi apakah ini sama dengan rumus yang ada di buku-buku? Saya yakin sama. Kita buktikan ya(jika dirasa terlalu kecil klik saja pada pembuktian, maka akan muncul image yang lebih besar):

Nah rumus terakhir ini yang sering kita lihat di buku-buku bukan? Aha! Ternyata tidak serumit yang dibayangkan bukan? Kita tidak perlu menghafal pembuktian ini tentunya. Pembuktian ini hanya dilakukan untuk menunjukkan bahwa rumus yang saya tawarkan dan rumus yang di buku sama. Keuntungan rumus dari buku ini, kita bisa berurusan degan sampel dengan n yang berbeda, sementara menggunakan rumus yang saya tawarkan memang sederhana tapi akan kesulitan jika harus berurusan dengan kelompok dengan n yang berbeda.

Sekarang cobalah menghitung JK Antar dengan menggunakan rumus kedua ini lalu bandingkan hasilnya.

(to be continued…)