Sabtu, Juli 30, 2016

Fun Facts Koefisien Regresi (Terstandardisasi), Korelasi Parsial dan Semi-Parsial

Ketika berbicara tentang regresi, ada dua statistik lain yang memiliki hubungan sangat dekat dengan koefisien yang dihasilkannya, khususnya slope baik yang tidak terstandardisasi (unstandardized) maupuan yang terstandardisasi (standardized). Pembahasan kali ini dilakukan dengan tujuan menunjukkan kedekatan makna statistik-statistik tersebut, kesamaan dan perbedaannya dengan harapan dapat membantu pemahaman pembaca tentang empat statistik tersebut. 


Notasi

Sebelum pembahasan dimulai, ada baiknya saya memaparkan dulu lambang-lambang yang akan saya gunakan dalam artikel ini untuk mempermudah pembaca. 
  1. Huruf kecil b digunakan untuk melambangkan koefisien regresi yang tidak terstandardisasi, mengikuti lambang yang digunakan oleh SPSS yang kiranya banyak digunakan di Indonesia. 
  2. Huruf latin  digunakan untuk melambangkan koefisien regresi yang terstandardisasi, mengikuti lambang yang digunakan oleh SPSS. 
  3. Lambang  digunakan untuk melambangkan koefisien korelasi parsial antara y dan variabel prediktor pertama (X1) dengan mengendalikan variabel prediktor kedua (X2). 
  4. Lambang  digunakan untuk melambangkan koefisien korelasi semi-parsial antara y dan X1 dengan mengendalikan X2. 
  5. Lambang  digunakan untuk melambangkan koefisien korelasi antara y dan X1. 
  6. Lambang  digunakan untuk melambangkan koefisien korelasi antara X1 dan X2

Fun Facts No 1: Memiliki Pembilang yang Sama

Baiklah ini saatnya kita membandingkan keempat rumus koefisien-koefisien tersebut. Anggaplah kita saat ini berhadapan dengan kasus analisis yang melibatkan satu variabel kriterion (Y) dan dua variabel prediktor (X1 dan X2). Ilustrasi ini dilakukan untuk membuat perbandingan antar koefisien menjadi cukup jelas. Melibatkan terlalu banyak variabel prediktor akan membuat rumus menjadi terlalu kompleks sehingga justru akan mempersulit pemahaman pembaca. 

Rumus Koefisien b
Rumus Koefisien
Rumus Koefisien
Rumus Koefisien


Kita dapat melihat bahwa pembilang dari rumus-rumus tersebut sama persis satu dengan yang lain, yang membedakan hanyalah penyebutnya saja. Penyebutnya pun tidak jauh berbeda satu dengan yang lain. Jadi sebenarnya keempat rumus tersebut dapat dikatakan menceritakan kisah yang mirip tentang hubungan antara X1 dengan Y dengan mengendalikan X2. 

Misalnya, koefisien slope dari regresi, baik yang terstandardisasi maupun yang tidak, bercerita tentang seberapa banyak Y akan berubah ketika X1 memiliki nilai 1 point lebih tinggi, dengan mengendalikan X2. Atau dengan kata lain berapa banyak Y akan berubah ketika X1 memiliki nilai 1 point lebih tinggi, pada nilai X2 yang sama. 

Fun Facts 2: Memiliki Nilai yang Berbeda, tetapi Memberikan Hasil Uji Signifikansi yang Sama. 

Karena keempat statistik tersebut memiliki penyebut yang berbeda, maka wajar kiranya jika keempatnya memberikan hasil yang berbeda. Namun demikian, meskipun nilai yang dihasilkan berbeda, tetapi uji signifikansi dari keempatnya selalu memberikan hasil yang sama. 

Untuk membuktikannya, saya akan menunjukkan suatu ilustrasi menggunakan program R (Tips: anda bisa meng-copy-paste baris-baris perintah tersebut di bawah langsung ke dalam console R dan menekan "Enter" untuk menjalankannya. Perintah dari program R saya cetak tebal dan diberi warna biru). 

1. Pertama-tama saya perlu membuat terlebih dulu data simulasi dengan cara berikut:
set.seed(8888)
x1=rnorm(100)
x2=0.4*x1+sqrt(1-0.4^2)*rnorm(100)
y=0.1*x1+0.15*x2+sqrt(1-0.02)*rnorm(100)

2. Saya menghitung semua nilai yang saya butuhkan untuk menghitung keempat statistik menggunakan rumus di atas, seperti standard deviasi, korelasi antar variabel, dll, dengan perintah berikut ini: 
s1=sd(x1)
s2=sd(x2)
sy=sd(y)
ry1=cor(x1,y)
ry2=cor(x2,y)
r12=cor(x1,x2)
z1=(x1-mean(x1))/sd(x1)
z2=(x2-mean(x2))/sd(x2)
zy=(y-mean(y))/sd(y)

3.  Rumus dari keempat statistik di atas saya aplikasikan sebagai berikut:
b=(ry1-ry2*r12)/(1-r12^2)*(sy/s1)
beta=(ry1-ry2*r12)/(1-r12^2)
par.r=(ry1-ry2*r12)/sqrt((1-r12^2)*(1-ry2^2))
semi.par.r=(ry1-ry2*r12)/sqrt((1-r12^2))

4. Hasil perhitungan keempat rumus tersebut saya bandingkan dengan hasil dari program R (lambang > menunjukkan saya mengetik perintah ini langsung di console R):
     a. Untuk nilai koefisien yang tidak terstandardisasi
>b
[1] 0.1868164
>lm(y~x1+x2)

Call:
lm(formula = y ~ x1 + x2)

Coefficients:
(Intercept)       x1       x2
-0.01433     0.18682  0.26569
   
     b. Untuk nilai koefisien yang terstandardisasi
>beta
[1] 0.1740606
>lm(zy~z1+z2)

Call:
lm(formula = zy ~ z1 + z2)

Coefficients:
(Intercept)       z1        z2
-5.449e-17 1.741e-01 2.226e-01
    
   c. Untuk nilai korelasi parsial dan semi parsial (saya menggunakan paket program R bernama ppcor. Pembaca perlu menginstal paket ini terlebih dulu sebelum menjalankan baris perintah berikut ini):
>library(ppcor)
>par.r #korelasi parsial. Bagian setelah tanda pagar adalah komentar
[1] 0.1742675
>pcor(cbind(x1,x2,y))$estimate[3,1]
[1] 0.1742675
>semi.par.r #korelasi semi-parsial. Bagian setelah tanda pagar adalah komentar
[1] 0.1678641
>spcor(cbind(x1,x2,y))$estimate[3,1]
[1] 0.1678641
    
    d. Untuk uji signifikansi, kita bandingkan dari hasil analisis menggunakan program R:
>summary(lm(y~x1+x2))$coeff[2,1:4]
    Estimate  Std. Error     t value    Pr(>|t|)
  0.18681637  0.10718053  1.74300648    0.08450135
> summary(lm(zy~z1+z2))$coeff[2,1:4]
    Estimate  Std. Error     t value    Pr(>|t|)
  0.17406065  0.09986231  1.74300648    0.08450135
> c(pcor(cbind(x1,x2,y))$statistic[3,1],c(pcor(cbind(x1,x2,y))$p.value[3,1])
[1] 1.74300648 0.08133248
> c(spcor(cbind(x1,x2,y))$statistic[3,1],c(spcor(cbind(x1,x2,y))$p.value[3,1])
[1] 1.67706738 0.09352931
Dapat kita lihat, khususnya untuk no d. bahwa meskipun nilai yang dihasilkan keempat rumus tersebut berbeda, uji signifikansi memberikan kesimpulan yang sama, bahkan juga nilai t yang sama, kecuali untuk korelasi semi-parsial. 

Fun Facts 3: Kuadrat Korelasi Semi-Parsial Sama Dengan Besarnya Perubahan R Kuadrat. 

Jika kita mengkuadratkan nilai korelasi semi-parsial, maka hasilnya akan sama dengan besarnya perubahan nilai R kuadrat dari nilai yang diperoleh dengan hanya melibatkan X2 ke nilai yang diperoleh ketika memasukkan X1 ke dalam persamaan regresi. 

Ilustrasi dapat dilihat berikut ini: 
>summary(lm(y~x1+x2))$r.squared
[1] 0.1003169
>summary(lm(y~x2))$r.squared
[1] 0.07213849
>0.1003169-0.07213849
[1] 0.02817841
>semi.par.r^2
[1] 0.02817837


Fun Facts 4: Cara Lain Memperoleh Keempat Koefisien Di Atas

1. Proses memperoleh koefisien regresi tak terstandardisasi
  • Lakukan regresi dengan X1 sebagai kriterion dan X2 sebagai prediktor, simpan residualnya (sebut saja X1*)
  • Lakukan regresi dengan Y sebagai kriterion dan X2 sebagai prediktor, simpan residualnya (sebut saja YX2*)
  • Lakukan regresi dengan YX2* sebagai kriterion dan X1* sebagai prediktor
  • Ilustrasi:
>x1.star=lm(x1~x2)$residual
>yx2.star=lm(y~x2)$residual
>lm(yx2.star~x1.star)$coeff
    (Intercept)      x1.star
 -1.421335e-17  1.868164e-01

>lm(y~x1+x2)$coeff
   (Intercept)            x1          x2 

   -0.01433446    0.18681637  0.26569439 

  • Berdasarkan proses tersebut, kita dapat melihat bahwa koefisien regresi menggambarkan efek1  dari sebagian X1 yang tidak dapat dijelaskan X2 (residu dari hasil regresi X1 pada X2) pada bagian dari Y yang tidak dapat dijelaskan oleh X2 (yaitu residu dari hasil regresi Y pada X2). 
2. Proses memperoleh koefisien regresi terstandardisasi

  • Prosesnya sama dengan no 1, hanya saja sebelum dilakukan analisis, semua variabel diubah dalam skor standard. 
3. Proses memperoleh koefisien korelasi parsial
  • Lakukan regresi dengan X1 sebagai kriterion dan X2 sebagai prediktor, simpan residualnya (sebut saja X1*)
  • Lakukan regresi dengan Y sebagai kriterion dan X2 sebagai prediktor, simpan residualnya (sebut saja YX2*)
  • Lakukan korelasi antara YX2* dan X1*
  • Ilustrasi:
>x1.star=lm(x1~x2)$residual
>yx2.star=lm(y~x2)$residual
>cor(yx2.star,x1.star)
[1] 0.1742675

>pcor(cbind(x1,x2,y))$estimate[3,1]
[1] 0.1742675

  • Berdasarkan proses tersebut kita dapat melihat keterkaitan antara korelasi parsial dengan koefisien regresi. Korelasi parsial oleh karenanya berbicara tentang korelasi antara bagian X1 yang tidak dapat dijelaskan X2 dengan bagian Y yang tidak dapat dijelaskan X2. 
  • Kuadrat dari korelasi parsial memberikan gambaran besarnya proporsi variasi Y yang tidak dapat dijelaskan X2 yang secara unik dapat dijelaskan oleh X1. 

4.Proses memperoleh koefisien korelasi semi-parsial

  • Lakukan regresi dengan X1 sebagai kriterion dan X2 sebagai prediktor, simpan residualnya (sebut saja X1*)
  • Lakukan korelasi antara Y dengan X1* 
  • Ilustrasi:
>x1.star=lm(x1~x2)$residual
>cor(x1.star,y)$coeff
[1] 0.1678641 

>spcor(cbind(x1,x2,y))$estimate[3,1]
[1] 0.1678641

  • Berdasarkan proses tersebut kita dapat melihat bahwa korelasi semi parsial merupakan korelasi antara X1 dengan bagian dari Y yang tidak dapat dijelaskan oleh X2. 
Semoga penjelasan di atas dapat memberikan gambaran tentang keterkaitan keempat koefisien tersebut maupun gambaran tambahan mengenai apa yang dapat di'kisah'kan oleh tiap koefisien tersebut. 

Kode R di atas juga dapat dilihat (di-copy dan pastedari sini




1 Penulis menggunakan kata efek; hanya untuk kemudahan interpretasi. Kata 'efek' di sini tidak dimaksudkan untuk menunjukkan kemampuan regresi dalam memberikan bukti megenai hubungan sebab-akibat atau adanya pengaruh.

Rabu, Juli 27, 2016

Validitas Kesimpulan Penelitian (Bagian 2)

Tulisan ini merupakan lanjutan dari tulisan sebelumnya Validitas Kesimpulan Penelitian (Bagian 1). Dalam bagian ini, saya akan membahas dua tipe validitas yang berikutnya setelah dua lainnya dijelaskan di bagian pertama. 


3. Validitas Konstruk

Tipe validitas kesimpulan penelitian ini terkait dengan pertanyaan: "Apakah intervensi / tritmen dan / atau pengukuran yang dilakukan dalam suatu penelitian mewakili secara tepat konstruk yang hendak diwakili?". Misalnya jika seorang peneliti memilih melakukan perlakuan dalam bentuk berbicara di depan umum untuk mewakili konstruk situasi mencemaskan, maka apakah intervensi tersebut telah benar-benar mewakili konstruk 'situasi mencemaskan' tersebut. Validitas konstruk di sini berkenaan baik dengan intervensi maupun instrumen pengukuran. 

Ancaman terbesar terhadap validitas konstruk ini adalah "tindakan yang dimaksudkan untuk menggambarkan suatu konstruk mengenai sebab [variabel independen] atau akibat [variabel dependen] dapat ditafsirkan sebagai perwakilan dari lebih dari satu konstruk, yang masing-masing dinyatakan pada tingkatan reduksi yang sama"[1,hal 59]. Atau dengan kata lain, konstruk yang berbeda dapat memiliki operasionalisasi yang sama baik dalam bentuk intervensi maupun instrumen pengukuran. 

Beberapa ancaman lain terhadap validitas konstruk misalnya:
  1. Bias peneliti, khususnya dalam penelitian eksperimental ketika peneliti tidak melakukan blind atau double blind sehingga muncul perlakuan eksperimenter yang berbeda terhadap kelompok kontrol di luar perlakuan yang menjadi tujuan penelitian.
  2. Treatment diffusion, atau perlakuan yang 'bocor' akibat adanya komunikasi antara kelompok eksperimen dengan kelompok kontrol. 
  3. Resentful demoralization, atau menurunnya semangat kelompok kontrol karena mereka tidak 'terpilih' sebagai kelompok yang memperoleh perlakuan. 
  4. Compensatory rivalry, atau meningkatnya semangat kelompok kontrol sebagai usaha untuk menunjukkan bahwa mereka tetap memberikan hasil yang baik meskipun tidak menerima perlakuan. 
  5. Eksplikasi konstruk preoperasional yang tidak tepat terjadi ketika peneliti kurang berhati-hati dalam menentukan komponen utama dari konstruk yang hendak dijadikan dasar penyusunan intervensi atau pengukuran. Eksplikasi konstruk ini tidak hanya meliputi usaha mendefinisikan konstruk dengan komprehensif tetapi juga memberikan batasan yang jelas dari konstuk-konstruk lainnya, khususnya konstruk yang berdekatan maknanya. 
  6. Mono-operation bias, atau penggunaan hanya satu set perlakuan atau pengukuran untuk mewakili suatu konstruk, sementara ada beberapa kemungkinan set lain yang seharusnya dipertimbangkan. 

4. Validitas Eksternal

Validitas eksternal terkait dengan generalisasi hasil penelitian pada seluruh populasi atau lintas waktu dan keadaan. Kemampuan sampel untuk merepresentasikan populasi merupakan isu utama dalam validitas eksternal ini. Validitas eksternal dapat ditingkatkan dengan meningkatkan heterogenitas sampel, baik sampel subjek penelitian maupun sampel waktu dan keadaan.  


Pustaka

[1] Cook, T.D., & Campbell, D.T.(1979).Quasi-experimentation: Design and analysis issues for field settings. Chicago: Rand McNally.

Selasa, Juli 26, 2016

Validitas Kesimpulan Penelitian (Bagian 1)

Validitas kesimpulan penelitian dalam tulisan ini didasarkan pada dua buku [1,2] yang menurut saya sangat lengkap membahas validitas kesimpulan penelitian. Dalam beberapa 'ajaran' di kelas metodologi yang saya ingat, biasanya istilah yang sering digunakan untuk menggambarkan validitas pengambilan kesimpulan ini adalah validitas penelitian. Istilah ini sepertinya dipilih untuk memilahnya dari validitas pengukuran. Saya pribadi lebih sreg dengan istilah validitas kesimpulan (inferensi) penelitian, karena yang dinilai valid adalah kesimpulan penelitiannya bukan penelitiannya itu sendiri. 

Valid berarti benar atau tepat. Kesimpulan penelitian dianggap valid jika kesimpulan tersebut dengan benar atau tepat menggambarkan fenomena yang diteliti. Misalnya: ketika peneliti menyimpulkan dari hasil penelitiannya bahwa ada pengaruh A terhadap B, maka kesimpulan ini dianggap valid bila realitasnya memang ada pengaruh A terhadap B. 

Validitas kesimpulan penelitian ini tentu saja tidak bersifat dikotomis (valid-tidak valid) dan tidak dapat diketahui dengan pasti. Namun demikian, peneliti dapat merencanakan dan menjalankan desain penelitian yang dianggap dapat memberikan bukti-bukti kuat (compelling evidence) yang mendukung kesimpulan penelitian. Dengan demikian, pembaca penelitian tersebut akan semakin diyakinkan bahwa kesimpulan penelitian memang dengan tepat menggambarkan fenomena yang diteliti. 

Ada 4 tipe validitas kesimpulan penelitian, yaitu [1,2]:
  1. Validitas Kesimpulan Statistik
  2. Validitas Internal
  3. Validitas Konstruk
  4. Validitas Eksternal
Ke-empat tipe validitas ini akan dibahas dalam tulisan kali termasuk ancaman-ancaman terhadap validitas kesimpulan penelitian dalam tipe tertentu. Penjelasan mendalam dapat diperoleh melalui dua pustaka yang saya sertakan di bawah. 

1. Validitas Kesimpulan Statistik

Validitas kesimpulan statistik terkait dengan pertanyaan: "apakah kesimpulan hasil analisis statistik sudah tepat?" Salah satu kesimpulan hasil analisis statistik yang sering diambil adalah apakah kita menolak atau gagal menolak hipotesis nol (H0: H nol). Ini berarti validitas kesimpulan statistik terkait dengan:

  1. Jika kita menolak H0, apakah besarnya tipe kesalahan 1 (alpha:menolak H0 yang benar) sesuai dengan yang kita tetapkan di awal. Misalnya, jika kita telah menetapkan bahwa kita hanya mengijinkan alpha sebesar 0.05, apakah hasil analisis statistik yang kita peroleh benar-benar memiliki alpha sebesar 0.05. Ini terkait dengan isu mengenai pengujian yang terlalu liberal: pengujian statistik mengakibatkan alpha lebih besar daripada yang diharapkan. Misalnya, meskipun program analisis statistik p < 0.05, sebenarnya p memiliki nilai yang lebih besar dari alpha = 0.05. Kesalahan ini dapat mengakibatkan kita menganggap adanya efek atau korelasi atau perbedaan mean, yang sebenarnya tidak ada di populasi. 
  2. Jika kita gagal menolak H0, apakah besarnya tipe kesalahan 2 (beta: gagal menolak H0 yang salah) tergolong kecil. Misalnya jika hasil analisis statistik menunjukkan tidak adanya perbedaan mean, maka apakah hasil ini memang diakibatkan tidak adanya perbedaan mean di populasi, atau hanya diakibatkan lemahnya sensitivitas analisis atau disebut juga power.  Pengujian statistik seperti ini disebut pengujian statistik yang terlalu konservatif. 
Ada beberapa ancaman yang dapat menyebabkan pengujian statistik menjadi terlalu liberal atau terlalu konservatif.

Pengujian statistik yang terlalu liberal, dapat diakibatkan oleh beberapa hal (catt: daftar di bawah ini tidak mencatat semua kemungkinan penyebab, oleh karena itu peneliti perlu memikirkan kemungkinan lainnya):
  1.  Melakukan pengujian lebih dari satu kali untuk membuktikan satu hipotesis umum yang sama. Beberapa penulis menyebutnya sebagai familywise error rate  atau experimentwise error rate. Ancaman ini dapat diatasi dengan melakukan misalnya penyesuaian alpha yang dikehendaki dengan teknik-teknik seperti Bonferroni, Tukey, Scheffe, dan lain-lain. 
  2. Pelanggaran asumsi oleh data penelitian. Pelanggaran asumsi dapat mengakibatkan baik uji statistik menjadi terlalu liberal atau konservatif. Ancaman ini dapat dikurangi dengan memilih analisis statistik yang robust terhadap pelanggaran asumsi oleh data. 
  3. Estimasi efek yang bias karena didasarkan pada sampel. Misalnya estimasi R kuadrat merupakan estimasi yang bias terhadap kondisi R kuadrat di populasi. Oleh karena itu ada beberapa teknik yang ditawarkan untuk mengoreksi estimasi ini agar lebih mendekati nilai di populasi. 
  4. Adanya researcher degrees of freedom [3,4], yaitu pilihan-pilihan peneliti yang terkait dengan desain penelitian yang dilakukan secara sembarangan, seperti pemilihan besarnya sampel, pemilihan variabel, dll. Misalnya peneliti mengumpulkan data mengenai banyak variabel kemudian 'memancing' variabel-variabel mana yang sekiranya berkorelasi satu dengan lain. Praktek ini akan meningkatkan probabilitas munculnya false positive  atau probabilitas kesalahan pengambilan kesimpulan mengenai parameter populasi ketika penelitian menunjukkan hasil yang signifikan.
  5. Kesalahan spesifikasi model dalam analisis. Kesalahan ini akan menyebabkan bias estimasi parameter yang dapat berakibat pada hasil analisis yang terlalu liberal. Kesalahan ini dapat terjadi ketika peneliti mengabaikan variabel yang penting atau relevan di dalam analisisnya. Peneliti dapat menghindari kesalahan ini dengan melakukan studi literatur yang sekomprehensif mungkin dan memasukkan selengkap mungkin variabel-variabel yang penting dalam analisis. 
Pengujian statistik yang terlalu konservatif, atau dapat dipandang juga sebagai lemahnya power dari analisis yang dilakukan.  Lemahnya power ini merupakan kendala yang dialami banyak penelitian di Psikologi [5]. Ancaman ini dapat muncul karena beberapa hal: 
  1. Ukuran sampel terlalu kecil. Cara yang paling sederhana untuk mengatasi ancaman ini adalah dengan merencanakan ukuran sampel sebelum penelitian. Ini dapat dilakukan dengan menggunakan power analysis [5]. 
  2. Reliabilitas pengukuran yang terlalu rendah. Reliabilitas yang rendah akan berdampak pada melebarnya standard error dan bias estimasi parameter. Ini akan membuat analisis cenderung memberikan hasil yang tidak signifikan dibandingkan yang seharusnya. 
  3. Variasi yang sangat besar pada subjek penelitian sehingga mengakibatkan besarnya standard error dari estimasi parameter. Ancaman ini dapat diatasi dengan mengendalikan variasi individu ini, misalnya dengan menggunakan statistik dengan memperlakukan variabel dengan variasi yang besar sebagai kovariat atau dengan memilih desain penelitian yang dapat mengurangi variasi ini seperti penggunaan desain penelitian amatan ulang atau penggunaan matched-pairs
  4. Pelanggaran asumsi oleh data juga dapat menyebabkan lemahnya power dari analisis, oleh karena itu transformasi data atau penggunaan analisis statistik yang robust dapat dijalankan untuk mengatasi ancaman ini. 

2. Validitas Internal

Validitas internal merupakan validitas terkait dengan pengambilan kesimpulan mengenai hubungan kausal / adanya pengaruh antara variabel independen dan variabel dependen. Validitas internal akan makin tinggi ketika penelitian dapat menyajikan dukungan yang meyakinkan akan adanya hubungan kausal ini. Ada beberapa ancaman yang dapat membuat keyakinan akan hubungan kausal ini melemah: 
  1. Bias seleksi; yaitu ketika karakteristik partisipan yang dikenai intervensi dan yang tidak memiliki perbedaan mencolok yang juga dapat mempengaruhi variabel dependen. Jika dalam penelitian tersebut diperoleh adanya perbedaan efek yang signifikan, maka akan muncul keraguan apakah efek ini dapat berasal dari intervensi yang diberikan atau akibat perbedaan karakteristik partisipan tadi. 
  2. Subjek gugur / mortalitas; yaitu ketika partisipan dengan karakteristik tertentu tidak lagi dapat diambil datanya atau memutuskan tidak mau lagi terlibat dengan penelitian. Karakteristik partisipan ini berkaitan dengan variabel dependen, sehingga keluarnya partisipan ini akan mempengaruhi hasil analisis. Keraguan akan muncul mengenai efek yang terlihat atau tidak terlihat, apakah ini diakibatkan intervensi atau karena berkurangnya partisipan yang memiliki karakteristik penting. 
  3. Pengetesan; yaitu perubahan skor tes dari subjek penelitian yang tidak diakibatkan oleh intervensi melainkan karena terbawanya efek saat pengetesan pertama. Ancaman ini relevan ketika peneliti merancang desain yang melibatkan amatan ulang. 
  4. Regresi; yaitu perubahan skor seseorang pada variabel dependen, khususnya ketika orang tersebut memiliki skor yang ekstrim, yang diakibatkan oleh fenomena statistik bukan karena intervensi. 
  5. Kematangan; yaitu perubahan skor tes yang tidak diakibatkan oleh intervensi, melainkan oleh kematangan subjek penelitian secara alami. 
  6. Sejarah; yaitu perubahan skor tes yang tidak diakibatkan oleh intervensi, melainkan oleh peristiwa yang terjadi bersamaan dengan dilakukannya intervensi. 



Pustaka
[1]  Shadish, W., Cook. T. D., & Campbell, D. T.(2002). Experimental and quasi-experimental designs for generalized causal inference. Boston: Houghton Mifflin Company.

[2] Maxwell, S. & Delaney, H. (2004). Designing experiments and analyzing data : A model comparison perspective. New York, NY.: Psychology Press.

[3] Simmons, J., Nielson, L., and Simonsohn, U., (2011), False-positive psychology: Undisclosed flexibility in data collection an analysis allows presenting anything as significant. Psychological Science. 22(11): 1359 - 1366.

[4] John, L.K., Loewenstein, G., & Prelec, D. (2012). Measuring the Prevalence of Questionable Research Practices With Incentives for Truth Telling. Psychological Science 23(5):524 to 532.

[5] Cohen, J.(1998) Statistical power analysis for the behavioral sciences. Hillsdale, NJ: Lawrence Erlbaum Associates.