İçindekiler
100 Soruda İstatistik Temel Kavramlar ve Tanımlar
Soru 1: İstatistik nedir ve bilimsel araştırmalarda temel rolü nedir?
Cevap:
100 Soruda İstatistik, konumuzun ilk sorusu. İstatistik, belirsizlik içeren gerçek dünyadan toplanan verilerin toplanması, düzenlenmesi, analiz edilmesi ve yorumlanmasına odaklanan bilim dalıdır. Modern anlamda istatistik, yalnızca “ortalama alma” işi değil, veriden anlamlı bilgi çıkarma ve belirsizlik koşullarında karar verme sürecidir. Bilimsel araştırmalarda istatistik; araştırma sorularının sayısallaştırılmasını, uygun örneklem büyüklüğünün belirlenmesini, hipotezlerin test edilmesini ve bulguların genellenebilirliğinin değerlendirilmesini sağlar. Deneysel tasarım, anket araştırmaları, klinik çalışmalar, mühendislik deneyleri ve sosyal bilimlerde yürütülen çalışmaların tümünde istatistiksel yöntemler kullanılır. Böylece araştırmacı, gözlenen farklılıkların tesadüfi dalgalanmalardan mı yoksa gerçek etkilerden mi kaynaklandığını nesnel biçimde değerlendirebilir.
Soru 2: Parametrik ve parametrik olmayan istatistik arasındaki temel fark nedir?
Cevap:
Parametrik istatistiksel yöntemler, verilerin belirli bir olasılık dağılımından (çoğunlukla normal dağılım) geldiğini ve bu dağılımın belirli parametrelerle (ortalama, varyans gibi) tanımlanabildiğini varsayar. Örneğin t-testi ve ANOVA, parametrik testlere klasik örneklerdir. Parametrik olmayan (nonparametrik) yöntemler ise veriler için belirli bir dağılım şekli varsaymaz; sıralamalar veya işaretler gibi daha zayıf varsayımlar üzerine kuruludur. Mann–Whitney U testi, Wilcoxon işaretli sıralar testi ve Kruskal–Wallis testi bu gruba girer. Küçük örneklemlerde, aşırı uç değerlerin bulunduğu ya da dağılım varsayımlarının açıkça ihlal edildiği durumlarda nonparametrik yöntemler daha güvenilir sonuçlar verebilir. Dolayısıyla hangi testin seçileceği, veri yapısına ve sağlanan varsayımlara bağlıdır.
Soru 3: Popülasyon ve örneklem arasındaki fark neden bu kadar kritiktir?
Cevap:
Popülasyon, araştırmacının ilgilendiği tüm birimler kümesini (tüm öğrenciler, tüm hastalar, tüm makineler gibi) ifade ederken; örneklem, bu popülasyondan seçilen ve analiz edilen daha küçük bir alt kümedir. Pratikte çoğu zaman tüm popülasyonu gözlemlemek mümkün olmadığından, istatistiksel çıkarım örneklem üzerinden yapılır. Bu nedenle örneklemin popülasyonu ne kadar temsil ettiği, elde edilen sonuçların genellenebilirliği açısından kritiktir. Temsil gücü yüksek bir örneklem, yanlılıkları (bias) minimize eder ve parametre tahminlerinin güvenilirliğini artırır. Örneklemden hesaplanan istatistikler (örneklem ortalaması, örneklem varyansı gibi) popülasyon parametreleri için tahmin olarak kullanılır. Yanlış seçilmiş bir örneklem, istatistiksel olarak “doğru hesaplanmış” sonuçların bile gerçeği yansıtmasını engelleyebilir.
Soru 4: Yanlılık (bias) nedir ve istatistiksel analizlerde nasıl ortaya çıkar?
Cevap:
Yanlılık, sistematik hatayı ifade eder; yani bir tahmincinin beklenen değerinin gerçek popülasyon parametresinden sürekli ve belirli bir yönde sapmasıdır. Örneğin, belirli bir gelir grubunu sistematik biçimde dışlayan bir anket örneklemi, gelir ortalamasını olduğundan düşük tahmin eden yanlı bir örneklem oluşturur. Ölçüm hataları, yanlış örnekleme stratejileri, kayıp verilerin sistematik bir desene sahip olması (örneğin yalnızca başarısız öğrencilerin anketi yanıtlamaması) ve uygunsuz modellerin kullanımı yanlılığa yol açan başlıca faktörlerdir. Yanlı tahminciler, örneklem büyüklüğü artsa bile doğru parametreye yakınsamakta zorlanır. Bu nedenle tasarım aşamasında temsil gücü yüksek örnekleme, ölçüm araçlarının kalibrasyonuna ve uygun model seçimine özel dikkat göstermek gerekir.
2. Olasılık Kuramı ve Dağılımlar
Soru 5: Olasılık nedir ve istatistiksel çıkarımla ilişkisi nasıl kurulmaktadır?
Cevap:
Olasılık, belirsiz olayların gerçekleşme eğilimini 0 ile 1 arasında sayısal bir değerle ifade eden kavramdır. Klasik tanıma göre olasılık, istenen sonuçların sayısının tüm olası sonuçlara oranıdır; fakat modern yorumda olasılık, uzun dönemli görece sıklığa veya rasyonel inanç derecesine (Bayesçi yaklaşım) karşılık gelebilir. İstatistiksel çıkarımda olasılık, örneklemlerde gözlenen varyasyonun matematiksel modelini kurmak için kullanılır. Örneğin, örneklem ortalamasının dağılımını tanımlarken olasılık dağılımlarından yararlanırız. Hipotez testlerinde p-değeri, gözlenen veya daha uç bir sonucun sıfır hipotezi doğru kabul edildiğinde ortaya çıkma olasılığını ifade eder. Böylece araştırmacı, gözlemlenen verinin “tesadüfen” oluşma ihtimalini sayısallaştırarak karar verir.
Soru 6: Normal dağılım neden istatistikte bu kadar merkezi bir yere sahiptir?
Cevap:
Normal dağılım, birçok doğal ve sosyal olgunun yaklaşık olarak bu dağılıma uyması ve güçlü teorik temellere sahip olması nedeniyle istatistikte merkezi bir konumdadır. Merkezi Limit Teoremi’ne göre, bağımsız ve aynı dağılıma sahip çok sayıda rassal değişkenin toplamı (veya ortalaması) belirli koşullar altında yaklaşık olarak normal dağılır. Bu durum, örneklem ortalamasının normal dağılıma yakınsamasını sağlar ve güven aralıkları ile hipotez testlerinin temelini oluşturur. Ayrıca normal dağılımın simetrik yapısı, ortalama, medyan ve modun çakışması, z-puanı gibi standartlaştırma teknikleriyle kolay hesaplama imkânı sunar. Birçok parametrik test, hata terimlerinin normal dağılıma sahip olduğu varsayımına dayanır; bu nedenle normal dağılım varsayımı, model geçerliliği açısından kritik önemdedir.
Soru 7: Binom dağılımı hangi tür problemlerde kullanılır?
Cevap:
Binom dağılımı, birbirinden bağımsız ve iki olası sonuca sahip (başarı/başarısızlık gibi) n denemenin sonucunda elde edilen başarı sayısını modellemek için kullanılır. Her denemede başarı olasılığı p ve başarısızlık olasılığı 1–p olarak sabittir. Örneğin, 10 atışta kaç basket isabet ettirildiği, 20 üründen kaçının hatalı çıktığı veya 100 hastadan kaçının belirtilen bir ilaca olumlu yanıt verdiği gibi durumlar binom dağılımıyla modellenebilir. Binom dağılımı, tahmin problemlerinde (örneğin bir oran için güven aralığı) ve hipotez testlerinde (oran karşılaştırmaları, uygunluk testleri) temel rol oynar. n büyük ve p orta değerlerdeyken, binom dağılımı normal dağılımla yaklaşık olarak ifade edilebilir; bu da hesaplamaları oldukça kolaylaştırır.
Soru 8: Poisson dağılımı hangi durumlarda normal dağılıma iyi bir yaklaşım sunar?
Cevap:
Poisson dağılımı, belirli bir zaman ya da alan aralığında nadir olayların sayısını modellemek için kullanılır; örneğin bir saatte gelen telefon aramaları, bir günde bir kavşakta meydana gelen kazalar gibi. Poisson dağılımında beklenen olay sayısı λ parametresi ile temsil edilir ve hem ortalama hem de varyans λ’ya eşittir. λ büyük olduğunda, Poisson dağılımı şekil olarak normal dağılıma yaklaşır; bu nedenle pratikte λ ≥ 10 gibi değerler için Poisson dağılımını normal dağılımla yaklaşık temsil etmek sık başvurulan bir yöntemdir. Bu yaklaşım, özellikle büyük λ için Poisson olasılıklarını tek tek hesaplamanın zorlaştığı durumlarda, güven aralığı ve hipotez testi uygulamalarını kolaylaştırır. Ancak küçük λ değerlerinde bu yaklaşım geçerli değildir ve doğrudan Poisson olasılıkları kullanılmalıdır.
3. Betimsel İstatistik
Soru 9: Ortalama, medyan ve mod arasındaki temel farklar nelerdir?
Cevap:
Ortalama, tüm gözlemlerin toplamının gözlem sayısına bölünmesiyle elde edilen merkezi eğilim ölçüsüdür ve özellikle simetrik dağılımlarda veriyi iyi temsil eder. Medyan, sıralanmış verinin tam ortasındaki değerdir; veriyi iki eşit parçaya böler ve aşırı uç değerlerden etkilenmez. Mod ise en sık gözlenen değeri ifade eder ve özellikle kategorik verilerde anlamlıdır. Çarpık dağılımlarda, ortalama uç gözlemlerden ciddi biçimde etkilenirken medyan daha robust bir gösterge sunar. Örneğin, gelir dağılımı gibi sağa çarpık yapılarda medyan, tipik bireyin durumunu ortalamadan daha iyi yansıtır. Veri setini yorumlarken yalnızca ortalamaya bakmak yanıltıcı olabilir; bu üç ölçünün birlikte değerlendirilmesi, dağılımın şeklini ve olası çarpıklıkları daha net ortaya koyar.
Soru 10: Varyans ve standart sapma neyi ölçer, neden ikisi birden kullanılır?
Cevap:
Varyans, verilerin ortalama etrafında ne kadar dağıldığını ölçen bir yayılım ölçüsüdür ve her gözlemin ortalamadan sapmasının karesinin ortalaması olarak tanımlanır. Standart sapma ise varyansın kareköküdür ve bu sayede veri ile aynı birime sahiptir. Varyans, matematiksel olarak birçok teorik sonuçta daha kullanışlıdır (örneğin toplamların varyansını hesaplarken); ancak kareli birimle ifade edilmesi yorumlamayı zorlaştırır. Standart sapma ise doğrudan veri ölçeğinde olduğundan pratik yorumda tercih edilir. Normal dağılım altında yaklaşık olarak gözlemlerin %68’i ortalama ±1 standart sapma, %95’i ±2 standart sapma içinde yer alır. Bu nedenle standart sapma, değişkenliğin sezgisel bir özetini sunar; ancak varyans, model kurma ve türevsel hesaplamalar için gerekli teorik arka planı sağlar.
Soru 11: Çarpıklık (skewness) ve basıklık (kurtosis) istatistiksel olarak ne anlama gelir?
Cevap:
Çarpıklık, bir dağılımın simetri derecesini; basıklık ise dağılımın kuyruk kalınlığını ve tepe yüksekliğini ölçer. Pozitif çarpıklık, dağılımın sağ kuyruğunun uzun olduğunu ve yüksek değerlerin daha sık görüldüğünü; negatif çarpıklık ise sol kuyrukta yoğunlaşma olduğunu gösterir. Basıklıkta, normal dağılım referans alınır; basıklığı normalden büyük olan dağılımlar daha sivri ve ağır kuyruklara (leptokurtik), daha küçük olanlar ise daha yayvan ve hafif kuyruklara (platykurtik) sahiptir. Aşırı çarpıklık ve basıklık, parametrik testlerin varsayımlarını zayıflatabilir. Bu nedenle veri analizi öncesinde çarpıklık ve basıklık değerlerini incelemek, gerekirse dönüşüm (log, karekök) uygulamak veya nonparametrik yöntemlere yönelmek önemli bir adımdır.
4. Örnekleme ve Örneklem Dağılımları
Soru 12: Basit rastgele örnekleme nedir ve hangi koşullarda idealdir?
Cevap:
Basit rastgele örnekleme, popülasyondaki her bir birimin örnekleme seçilme olasılığının eşit ve bağımsız olduğu örnekleme tasarımıdır. Teorik olarak en yalın ve tarafsız yöntemlerden biridir; çünkü seçim sürecinde sistematik bir tercih bulunmaz. Örneğin, bir öğrenciler listesinden bilgisayar programıyla rastgele 100 kişinin seçilmesi bu yöntemle uyumludur. Basit rastgele örnekleme, popülasyon çerçevesinin (liste, kayıt vb.) tam ve doğru olduğu, birimlere ulaşmanın maliyetinin göreli düşük olduğu durumlarda idealdir. Ancak coğrafi olarak dağınık popülasyonlarda veya belirli alt grupların temsilinin önemli olduğu çalışmalarda yetersiz kalabilir. Bu tür durumlarda tabakalı örnekleme, küme örneklemesi gibi daha karmaşık tasarımlar tercih edilir.
Soru 13: Örneklem büyüklüğü nasıl belirlenir ve hangi faktörler etkilidir?
Cevap:
Örneklem büyüklüğü, istatistiksel gücü (power), etki büyüklüğünü, kabul edilebilir hata düzeyini (α) ve varyansı dikkate alarak belirlenir. Genel olarak, daha küçük etki büyüklüklerini tespit etmek, daha yüksek güvenilirlik (daha dar güven aralığı) elde etmek veya daha düşük hata olasılığıyla çalışmak istiyorsak daha büyük örneklemlere ihtiyaç duyulur. Ayrıca popülasyon içi varyans arttıkça, aynı duyarlılığı sağlamak için örneklem büyüklüğü de artmalıdır. Çalışma tipi (deneysel/ gözlemsel), istatistiksel test türü (t-testi, ANOVA, regresyon), beklenen kayıp veri oranı ve maliyet/ zaman kısıtları da planlamada önemlidir. Uygulamada, güç analizi yazılımları ile (örneğin G*Power) istenen α, güç (genellikle 0.80 veya 0.90) ve etki büyüklüğü kullanılarak gerekli minimum örneklem büyüklüğü hesaplanır.
Soru 14: Örneklem dağılımı (sampling distribution) nedir ve neden önemlidir?
Cevap:
Örneklem dağılımı, belirli bir istatistiğin (örneğin örneklem ortalaması, oranı, regresyon katsayısı) tüm olası örneklemler üzerinden aldığı değerlerin olasılık dağılımıdır. Gerçekte çoğu zaman bu dağılımı tam olarak göremesek de teorik sonuçlar (Merkezi Limit Teoremi gibi) bize bu dağılımın yapısı hakkında bilgi verir. Örneğin, yeterince büyük örneklemler için örneklem ortalamasının dağılımı yaklaşık normaldir ve bu dağılımın ortalaması gerçek popülasyon ortalamasına, standart sapması ise standart hata değerine eşittir. Güven aralıkları ve hipotez testleri, doğrudan bu örneklem dağılımlarına dayanır. Dolayısıyla “istatistiksel belirsizlik” kavramını anlamak ve p-değerlerini doğru yorumlamak için örneklem dağılımının mantığını kavramak zorunludur.
5. Güven Aralıkları ve Tahmin
Soru 15: Güven aralığı nedir ve %95 güven aralığı nasıl yorumlanmalıdır?
Cevap:
Güven aralığı, popülasyon parametresinin (örneğin gerçek ortalamanın) belirli bir güven düzeyinde bulunmasının beklendiği değer aralığını ifade eder. %95 güven aralığı, aynı örnekleme tasarımını sonsuz kez tekrarladığımızda, oluşturulan aralıkların yaklaşık %95’inin gerçek parametreyi içermesini beklediğimiz anlamına gelir. Tek bir çalışma için “parametre bu aralıkta %95 olasılıkla bulunur” demek teknik olarak tam doğru değildir; ancak pratikte böyle yorumlandığı da görülür. Güven aralığının genişliği, örneklem büyüklüğü, veri varyansı ve seçilen güven düzeyine bağlıdır. Daha dar aralıklar daha hassas tahmin sunarken, çoğu zaman daha büyük örneklemler gerektirir. Güven aralığı yalnızca istatistiksel anlamlılık hakkında değil, aynı zamanda etki büyüklüğünün pratik önemine dair de bilgi verir.
Soru 16: Nokta tahmini ve aralık tahmini arasındaki fark nedir?
Cevap:
Nokta tahmini, popülasyon parametresini tek bir sayısal değerle tahmin etme yöntemidir; örneğin popülasyon ortalaması için örneklem ortalamasını kullanmak gibi. Aralık tahmini ise, parametrenin bulunmasının beklendiği bir değer aralığı sunar; bu da genellikle güven aralığı biçiminde ifade edilir. Nokta tahmini, kullanımı pratik olsa da belirsizlik hakkında bilgi vermez; tek bir değer, tahminin ne kadar güvenilir olduğunu göstermez. Aralık tahmini, tahminin etrafındaki olası varyasyonu ve istatistiksel belirsizliği nicel olarak ifade eder. Modern istatistik uygulamalarında yalnızca nokta tahmini raporlamak yerine, güven aralıklarıyla birlikte sonuç sunmak iyi raporlama pratiği olarak kabul edilir. Bu yaklaşım, araştırma bulgularının hem istatistiksel hem de pratik önemini değerlendirmeyi kolaylaştırır.
6. Hipotez Testleri (Tek Değişken)
Soru 17: Hipotez testi nedir ve sıfır hipotezi (H₀) neyi temsil eder?
Cevap:
Hipotez testi, popülasyon hakkında ileri sürülen bir iddianın (hipotezin) örneklem verisi temelinde sınandığı istatistiksel prosedürdür. Genellikle iki hipotez kurulur: Sıfır hipotezi (H₀) ve alternatif hipotez (H₁ veya Hₐ). H₀, çoğu zaman “etki yoktur”, “fark yoktur” veya “parametre belirli bir değere eşittir” şeklindeki durumu temsil eder; örneğin “popülasyon ortalaması 50’dir” gibi. Analiz, gözlenen verinin H₀ doğru kabul edildiğinde ne kadar olağan olduğunu değerlendirir. P-değeri küçükse (seçilen anlamlılık düzeyinden, örneğin 0.05’ten daha düşükse), gözlemlenen sonucun tesadüfi varyasyonla açıklanmasının güç olduğu sonucuna varılır ve H₀ reddedilir. Hipotez testi, ilaç etkinliği, eğitim müdahaleleri, üretim kalitesi gibi birçok alanda karar destek mekanizmasının temelini oluşturur.
Soru 18: p-değeri nedir ve araştırmacılar tarafından neden sıklıkla yanlış yorumlanır?
Cevap:
p-değeri, sıfır hipotezi doğru kabul edildiğinde, gözlenen veya daha uç bir test istatistiğinin elde edilme olasılığını ifade eder. Yani p, “H₀ doğru iken bu veri ne kadar sıra dışı?” sorusuna yanıt verir. Sık yapılan hata, p-değerini “H₀’ın yanlış olma olasılığı” veya “bulgunun tesadüf olma olasılığı” olarak yorumlamaktır; bu yorumlar istatistiksel açıdan yanlıştır. p-değeri, yalnızca verinin H₀ ile ne kadar uyumlu olduğunu gösterir; etki büyüklüğü ya da pratik önem hakkında doğrudan bilgi vermez. Ayrıca p<0.05 elde etmek, bulgunun “doğru” veya “önemli” olduğunu garanti etmez; örneklem büyüklüğü çok büyükse önemsiz etkiler bile istatistiksel olarak anlamlı çıkabilir. Bu nedenle p-değerlerinin güven aralıkları ve etki büyüklükleri ile birlikte raporlanması önerilir.
Soru 19: Tip I ve Tip II hata nedir, aralarındaki denge nasıl kurulur?
Cevap:
Tip I hata, aslında doğru olan sıfır hipotezini reddetme olasılığıdır ve genellikle α ile gösterilir (örn. α=0.05). Tip II hata ise aslında yanlış olan sıfır hipotezini reddedememe olasılığıdır (β ile gösterilir). Testin gücü (power), 1–β olup, gerçek bir etkiyi saptama olasılığını ifade eder. Pratikte, α’yı çok düşük seçmek (örneğin 0.01), Tip I hatayı azaltırken Tip II hatayı ve dolayısıyla β’yı artırabilir; çünkü anlamlılık eşiği çok katı hale gelir. Örneklem büyüklüğünü artırmak, hem Tip II hatayı hem de belirsizliği azaltmak için en etkili yollardan biridir. Araştırma bağlamına göre, yanlış pozitif ve yanlış negatif kararların maliyetleri dikkate alınarak α ve hedef güç değeri seçilmelidir.
7. İki Grup Karşılaştırmaları
Soru 20: Bağımsız örneklem t-testi ile eşleştirilmiş (bağımlı) örneklem t-testi arasındaki fark nedir?
Cevap:
Bağımsız örneklem t-testi, iki farklı ve birbirinden bağımsız grubun ortalamalarını karşılaştırmak için kullanılır; örneğin iki farklı sınıfın sınav puanları gibi. Bu testte her gözlem yalnızca bir gruba aittir ve gruplar arasında eşleştirme yoktur. Eşleştirilmiş (bağımlı) örneklem t-testi ise aynı bireylerin iki farklı zamandaki ölçümlerini (ön test–son test) veya birbirine eşleştirilmiş bireyleri (ikizler, eşleştirilmiş denekler) karşılaştırmak için kullanılır. Bu durumda analiz, kişi içi farklara odaklanır ve bireyler arası varyans büyük ölçüde kontrol edilmiş olur. Eşleştirilmiş tasarımlar genellikle daha yüksek istatistiksel güç sağlar; çünkü gürültü (kişisel farklılıklar) azalır. Doğru t-testi türünü seçmek, varsayımların ve sonuçların geçerliliği açısından kritik önemdedir.
8. Varyans Analizi (ANOVA) ve Post-hoc Testler
Soru 21: Tek yönlü ANOVA hangi durumlarda tercih edilir ve temel varsayımları nelerdir?
Cevap:
Tek yönlü ANOVA, bir bağımsız değişkenin üç veya daha fazla grup düzeyine sahip olduğu ve bu grupların ortalamaları arasında istatistiksel olarak anlamlı bir fark olup olmadığının araştırıldığı durumlarda kullanılır. Örneğin üç farklı öğretim yönteminin öğrenci başarısına etkisini karşılaştırmak için idealdir. ANOVA’nın temel varsayımları; (1) grupların normal dağılıma sahip olması, (2) varyansların homojen olması (Levene testiyle kontrol edilir) ve (3) gözlemlerin birbirinden bağımsız olmasıdır. ANOVA yalnızca gruplar arasında en az bir fark olduğunu söyler; farkın hangi gruplar arasında olduğunu belirlemek için ek post-hoc testler gerekir. Varsayımlar ciddi biçimde ihlal edilirse, robust ANOVA veya nonparametrik Kruskal–Wallis testleri tercih edilebilir.
Soru 22: Post-hoc testler neden gereklidir ve en sık kullanılan yöntemler hangileridir?
Cevap:
ANOVA, genel olarak “en az bir grup diğerlerinden farklıdır” sonucunu sunar, ancak bu farkın hangi grup çiftleri arasında olduğunu belirtmez. Bu nedenle post-hoc testler zorunludur. Post-hoc analizlerde amaç, çoklu karşılaştırmadan kaynaklanan Tip I hata riskini kontrol ederek grup çiftleri arasındaki farkları doğru biçimde belirlemektir. En sık kullanılan yöntemler arasında Tukey HSD, Bonferroni, Scheffé ve Games–Howell testleri yer alır. Tukey HSD, homojen varyans varsayımının sağlandığı durumlarda idealdir ve en yaygın kullanılan yöntemdir. Varyanslar homojen değilse Games–Howell daha doğru sonuç verir. Post-hoc testlerin doğru seçilmesi, yanlış pozitif/negatif sonuçların önlenmesi açısından kritik öneme sahiptir.
Soru 23: İki yönlü ANOVA hangi tür araştırma sorularını yanıtlar?
Cevap:
İki yönlü ANOVA, iki farklı bağımsız değişkenin hem ayrı ayrı (ana etkiler) hem de birlikte (etkileşim etkisi) bağımlı değişken üzerindeki etkilerini incelemek için kullanılır. Örneğin “öğretim yöntemi (3 seviye) ve cinsiyet (2 seviye) öğrenci başarısını etkiliyor mu?” sorusu iki yönlü ANOVA ile yanıtlanabilir. Etkileşim etkisi, bir faktörün etkisinin diğer faktörün düzeyine bağlı olarak değiştiğini gösterir ve deneysel tasarımlarda oldukça önemlidir. Varyans homojenliği, normallik ve bağımsızlık varsayımları yine geçerlidir. İki yönlü ANOVA, yalnızca gruplar arasındaki farkı değil, faktörlerin birlikte nasıl çalıştığını da açıklayarak daha kapsamlı bir yorumlama sunar.
Soru 24: ANOVA sonuçlarını yorumlarken eta kare (η²) veya eta kare kısmi (partial η²) neden raporlanmalıdır?
Cevap:
Eta kare (η²), ANOVA’da ilgili faktörün toplam varyansın ne kadarını açıkladığını gösteren bir etki büyüklüğü ölçüsüdür. P-değeri yalnızca istatistiksel anlamlılığı değerlendirirken, eta kare etki büyüklüğünün pratik önemini açıklar. Büyük örneklemlerde çok küçük etki bile anlamlı çıkabilir; bu nedenle eta kare, bulgunun gerçek dünyadaki önemini anlamayı sağlar. Partial η² ise özellikle çok faktörlü ANOVA modellerinde, her bir faktörün etkisini modeldeki diğer faktörlerden bağımsız olarak değerlendirir. Literatürde etki büyüklüklerinin raporlanması, sonuçların şeffaflığını ve başka araştırmalarla karşılaştırılabilirliğini artırır.
Soru 25: Tek yönlü ANOVA yerine Kruskal–Wallis testi hangi durumlarda tercih edilir?
Cevap:
Kruskal–Wallis testi, parametrik olmayan bir yöntemdir ve grupların normal dağılmadığı, uç değerlerin yoğun olduğu veya varyans homojenliği varsayımının açıkça ihlal edildiği durumlarda tercih edilir. Bu test, ham değerler yerine veri sıralarını kullanarak hesaplandığından dağılım varsayımlarına duyarlı değildir. Üç veya daha fazla grubun medyanlarının farklı olup olmadığını test eder. Ancak ANOVA gibi etki büyüklüğü ve güven aralığı açısından detaylı bilgi sunmaz. Gruplar arasında anlamlı fark bulunduğunda, post-hoc olarak Dunn veya Conover testleri uygulanır. Veri yapısı bozuk olduğunda Kruskal–Wallis, ANOVA’ya göre daha güvenilir sonuç verir.
9. Korelasyon ve Regresyon Analizi
Soru 26: Korelasyon katsayısı nedir ve nedensellik ile neden karıştırılmamalıdır?
Cevap:
Korelasyon katsayısı, iki nicel değişken arasındaki doğrusal ilişkinin yönünü ve gücünü −1 ile +1 arasında ölçen istatistiktir. +1 mükemmel pozitif ilişkiyi, −1 mükemmel negatif ilişkiyi, 0 ise doğrusal ilişkinin olmadığını gösterir. Ancak korelasyon, nedensellik içermez; iki değişken birlikte değişiyor olabilir, fakat bu durum birinin diğerine sebep olduğunu kanıtlamaz. Üçüncü değişken etkisi (confounding), yanlış ilişki (spurious correlation) ve ortak zaman eğilimleri korelasyonun hatalı yorumlanmasına yol açabilir. Nedensellik için deneysel tasarımlar, müdahale çalışmaları veya nedensel modeller gerekir. Korelasyon yalnızca ilişkinin matematiksel boyutunu açıklar; mekanizmayı değil.
Soru 27: Pearson ve Spearman korelasyonu arasındaki fark nedir?
Cevap:
Pearson korelasyonu, iki sürekli değişken arasındaki doğrusal ilişkiyi ölçer ve verinin normal dağılması, doğrusal ilişki ve aykırı değerlerin sınırlı olması gibi varsayımlara dayanır. Spearman korelasyonu ise sıralama temelli (rank-based) bir ölçüdür ve monoton ilişkileri değerlendirir; doğrusal olmasına gerek yoktur. Uç değerlerden çok daha az etkilenir ve dağılım varsayımı gerektirmez. Veri çarpık yapıda olduğunda, kategorik ölçeklere dönüştürüldüğünde veya ölçüm hataları belirgin olduğunda Spearman tercih edilir. Araştırmacı, ilişki biçimini incelemek ve grafikleri değerlendirmek suretiyle hangi korelasyon türünün uygun olduğuna karar vermelidir.
Soru 28: Basit doğrusal regresyon modeli hangi amaçla kullanılır?
Cevap:
Basit doğrusal regresyon, bir bağımsız değişkenin bir bağımlı değişkeni doğrusal biçimde ne kadar açıkladığını modelleyen istatistiksel yöntemdir. Model, Y=β0+β1X+εY = β_0 + β_1X + εY=β0+β1X+ε şeklinde tanımlanır. Amaç, X’in Y üzerindeki etkisini sayısallaştırmak, değişkenler arası ilişkiyi tahmin etmek ve gelecekteki değerleri öngörmektir. Regresyon katsayısı β1β_1β1, X’teki bir birimlik artışın Y’de beklenen değişimi gösterir. Modelin geçerliliği için lineerlik, hata terimlerinin normalliği, homojen varyans (homoscedasticity) ve bağımsızlık varsayımları değerlendirilmelidir. Basit regresyon, öngörü modellerinin temel taşını oluşturur.
Soru 29: Çoklu doğrusal regresyon hangi durumlarda gerekli hale gelir?
Cevap:
Gerçek dünya problemlerinde bağımlı değişken çoğu zaman tek bir faktörle açıklanamaz; birden fazla açıklayıcı değişkenin etkisini aynı modelde değerlendirmek gerekir. Çoklu regresyon, birden fazla bağımsız değişkenin eş zamanlı etkisini analiz eder. Örneğin bir öğrencinin başarısını yalnızca çalışma süresi değil, öğretim yöntemi, sosyoekonomik durum, motivasyon gibi birçok değişken etkileyebilir. Çoklu regresyon, açıklayıcı değişkenler arasındaki etkileşimleri, bağımlı değişken üzerindeki bağımsız etkileri ve göreli önemleri belirlemeyi mümkün kılar. Model karmaşıklığı arttıkça çoklu doğrusal bağlantı (multicollinearity) gibi sorunların kontrol edilmesi gerekir.
Soru 30: Çoklu doğrusal bağlantı (multicollinearity) nedir ve model performansını nasıl etkiler?
Cevap:
Multicollinearity, bağımsız değişkenlerin birbirleriyle yüksek derecede ilişkili olduğu durumları ifade eder. Bu durum regresyon katsayılarının kararsız hale gelmesine, standart hataların büyümesine ve beta katsayılarının işaretinin dahi değişebilmesine neden olur. Model genel olarak yüksek R² değeri verse bile bireysel katsayıların anlamlılığı düşebilir. VIF (Variance Inflation Factor) değerleri bu problemi teşhis etmek için kullanılır; genellikle VIF>10 kritik olarak kabul edilir. Multicollinearity’i azaltmak için yüksek ilişkili değişkenlerden biri çıkarılabilir, değişkenler birleştirilebilir ya da PCA gibi boyut indirgeme teknikleri kullanılabilir.
Soru 31: Regresyon varsayımlarının ihlali modelin güvenilirliğini nasıl etkiler?
Cevap:
Doğrusal regresyonun temel varsayımları lineerlik, hata terimlerinin normalliği, sabit varyans (homoscedasticity) ve bağımsızlıktır. Lineerlik ihlali, modelin sistematik hatalar üretmesine yol açar. Normallik ihlali, özellikle küçük örneklemlerde güven aralıklarını ve p-değerlerini güvensiz hale getirir. Homoscedasticity ihlali, standart hataların yanlış hesaplanmasına ve test sonuçlarının sapmasına neden olur. Bağımsızlık varsayımının ihlali ise zaman serilerinde otokorelasyon sorunlarına yol açar. Varsayım ihlalleri tespit edildiğinde dönüşüm teknikleri, robust regresyon, ağırlıklı en küçük kareler veya uygun alternatif modeller tercih edilmelidir.
Soru 32: Regresyon analizinde etki büyüklüğü nasıl değerlendirilir?
Cevap:
Regresyonda etki büyüklüğü genellikle beta katsayılarının büyüklüğü, R² (açıklanan varyans oranı) ve standartlaştırılmış beta değerleri ile değerlendirilir. R², modelin bağımlı değişkendeki toplam varyansın ne kadarını açıkladığını belirtir. Standartlaştırılmış beta katsayıları ise bağımsız değişkenlerin göreli önemlerini anlamak için kullanılır; farklı ölçeklerdeki değişkenleri karşılaştırılabilir hale getirir. Cohen’in kılavuz değerleri (örn. R² için küçük=0.02, orta=0.13, büyük=0.26) pratik değerlendirmelerde yararlıdır. Etki büyüklüğünü doğru yorumlamak, yalnızca istatistiksel değil, aynı zamanda pratik önemi anlamak için kritiktir.
10. Kategorik Veriler ve Lojistik Regresyon
Soru 33: Ki-kare bağımsızlık testi neyi analiz eder?
Cevap:
Ki-kare bağımsızlık testi, iki kategorik değişken arasındaki ilişkinin tesadüfi olup olmadığını değerlendirir. Örneğin cinsiyet ile ürün tercihinin ilişkili olup olmadığı bu testle incelenebilir. Test, gözlenen frekanslarla beklenen frekansları karşılaştırır; beklenen frekanslardan büyük sapmalar, değişkenlerin bağımsız olmadığını gösterir. Ki-kare testi örneklem büyüklüğüne duyarlıdır ve küçük hücre frekanslarında güvenilirliği azalır; bu durumda Fisher’in kesin testi tercih edilebilir. Sonuçlar yalnızca ilişkinin varlığı hakkında bilgi verir, ilişkinin gücünü açıklamak için Cramer’s V gibi etki büyüklükleri kullanılmalıdır.
Soru 34: Lojistik regresyon hangi durumlarda doğrusal regresyondan daha uygundur?
Cevap:
Bağımlı değişkenin ikili (0/1, evet/hayır) olduğu durumlarda doğrusal regresyon uygun değildir, çünkü tahminler 0–1 aralığı dışına çıkabilir ve varsayımlar ihlal edilir. Lojistik regresyon, bağımlı değişkenin gerçekleşme olasılığını logit dönüşümü üzerinden modelleyen uygun yöntemdir. Model: logit(p)=β0+β1X1+…+βkXk\text{logit}(p) = β_0 + β_1X_1 + … + β_kX_klogit(p)=β0+β1X1+…+βkXk
şeklinde tanımlanır. Katsayılar olasılık değil, log-odds üzerinden yorumlanır. Lojistik regresyon, tıp, psikoloji, mühendislik ve sosyal bilimlerde sınıflandırma problemlerinde yaygın biçimde kullanılır.
Soru 35: Odds ratio (olasılık oranı) nedir ve nasıl yorumlanır?
Cevap:
Odds ratio (OR), bağımsız değişken bir birim arttığında olayın gerçekleşme olasılığının gerçekleşmeme olasılığına oranla nasıl değiştiğini gösterir. OR>1 olduğunda olayın gerçekleşme olasılığı artar; OR<1 olduğunda azalır. Örneğin OR=2 ise, ilgili faktörün bir birim artması, olayın gerçekleşme olasılığını iki kat artırmaktadır. Tıbbi çalışmalarda risk analizleri için kritik bir göstergedir. OR’ın güven aralıkları, belirsizliği değerlendirmek için mutlaka raporlanmalıdır.
Soru 36: Lojistik regresyonda model başarısı nasıl ölçülür?
Cevap:
Lojistik modellerde başarı, doğrusal regresyondaki R² yerine sınıflandırma performansı ve olasılık temelli ölçütlerle değerlendirilir. En yaygın metrikler: AUC–ROC eğrisi, doğruluk (accuracy), duyarlılık (sensitivity), özgüllük (specificity) ve log-likelihood değerleridir. ROC eğrisi, modelin pozitif sınıfı doğru tahmin etme yeteneğini özetler; AUC değerinin 0.7 üzeri kabul edilebilir, 0.8 üzeri iyi, 0.9 üzeri mükemmele yakın performans olarak yorumlanır. Ayrıca Hosmer–Lemeshow testi model uyumunu değerlendirmek için kullanılır.
Soru 37: Ki-kare uygunluk testi (goodness-of-fit) neyi ölçer?
Cevap:
Bu test, gözlenen frekansların belirli bir teorik dağılıma (örneğin Poisson, binom veya uniform dağılım) ne kadar uyduğunu değerlendirir. Örneğin zar atışlarının gerçekten eş olasılıklı olup olmadığını test etmek için kullanılır. Eğer gözlenen değerler teorik dağılımla uyumluysa, ki-kare istatistiği küçük olur ve p-değeri yüksek çıkar. Bu test kategorik veriler için model uygunluğunu değerlendirmenin temel araçlarından biridir. Ancak küçük beklenen frekanslarda testin güvenilirliği azalabilir.
Soru 38: Çok kategorili bağımlı değişkenler için hangi regresyon modelleri kullanılır?
Cevap:
Bağımlı değişkenin birden fazla sınıfa sahip olduğu durumlarda çok kategorili lojistik regresyon (multinomial logistic regression) veya sıralı lojistik regresyon (ordinal logistic regression) tercih edilir. Multinomial lojistik regresyon, sınıflar arasında sıralama olmayan durumlara (örneğin marka tercihi) uygundur. Sıralı lojistik regresyon ise kategoriler arasında doğal bir hiyerarşi varsa kullanılır (örneğin memnuniyet düzeyleri). Bu modeller, her kategori için ayrı logit fonksiyonları kurarak olasılıkları tahmin eder.
11. Zaman Serileri Analizi
Soru 39: Zaman serisi nedir ve diğer veri türlerinden temel farkı nedir?
Cevap:
Zaman serisi, belirli zaman aralıklarında ölçülmüş gözlemler dizisidir ve ardışık bağımlılık içerir. Örneğin aylık satış miktarları, günlük sıcaklık ölçümleri veya dakikalık elektrik tüketimi. Zaman boyutu taşımayan klasik veri setlerinde gözlemler bağımsız kabul edilirken, zaman serilerinde geçmiş değerler geleceği etkiler. Bu nedenle otokorelasyon, trend, mevsimsellik ve durağanlık gibi kavramlar önemlidir. Zaman serileri, özel modeller gerektirir (ARIMA, ETS, SARIMA vb.) ve klasik regresyon varsayımlarının çoğu geçerli değildir.
Soru 40: Durağanlık (stationarity) nedir ve neden zaman serisi modelleri için kritiktir?
Cevap:
Durağanlık, zaman serisinin ortalaması, varyansı ve otokorelasyon yapısının zaman boyunca değişmemesi durumudur. ARIMA ve birçok zaman serisi modeli, durağan veri gerektirir. Durağan olmayan seriler (trend içeren, varyansı zamanla artan yapılar) yanlış tahminlere ve sahte regresyon sonuçlarına yol açabilir. Durağanlık Augmented Dickey–Fuller (ADF) testi ile sınanır. Seriyi durağan hale getirmek için diferans alma, log dönüşümü veya detrending uygulanabilir. Durağanlık sağlandıktan sonra model parametreleri anlamlı ve güvenilir hale gelir.
12. Çok Değişkenli İstatistik
Soru 41: Çok değişkenli istatistik nedir ve ne tür veri yapılarında kullanılır?
Cevap:
Çok değişkenli istatistik, birden fazla bağımlı veya bağımsız değişkenin aynı anda analiz edildiği teknikler bütünüdür. Gerçek hayatta birçok olgu tek bir değişkenle açıklanamayacağından, çok değişkenli yöntemler karmaşık ilişkileri ortaya koymak için kritik öneme sahiptir. Bu yöntemler; ortak varyans yapısını inceleyen PCA ve faktör analizi, grup ayrımını değerlendiren diskriminant analizi, aynı özelliklere sahip birimleri kümelendiren kümeleme yöntemleri ve çoklu bağımlı değişkenleri ele alan MANOVA gibi teknikleri içerir. Sağlık, psikoloji, mühendislik ve pazar araştırmalarında değişken sayısı çoğaldıkça çok değişkenli analiz, örüntüleri daha doğru modellemek için zorunlu hale gelir. Bu yöntemler aynı zamanda boyut indirgeme ve veri sadeleştirme süreçlerinde kritik rol oynar.
Soru 42: Temel Bileşenler Analizi (PCA) nedir ve hangi amaçla uygulanır?
Cevap:
PCA, yüksek boyutlu veri setlerindeki değişkenlerin ortak varyans yapısını inceleyerek, veriyi daha az sayıda yeni bileşenle temsil eden bir boyut indirgeme yöntemidir. PCA, orijinal değişkenleri doğrusal kombinasyonlarla birleştirerek maksimum varyansı açıklayan bileşenler oluşturur. İlk bileşen veri içindeki en yüksek varyansı, ikinci bileşen birinciden bağımsız olarak en yüksek ek varyansı açıklar. PCA, çoklu doğrusal bağlantıyı azaltmak, veri görselleştirmeyi kolaylaştırmak ve makine öğrenmesi modellerinin performansını artırmak için yaygın biçimde kullanılır. Ancak bileşenler yorumlanabilirliği zorlaştırabilir; bu nedenle sonuçlar mutlaka yük değerleri ve varyans açıklama oranları ile birlikte değerlendirilmelidir.
Soru 43: Faktör analizi PCA’dan nasıl farklıdır?
Cevap:
PCA tamamen matematiksel bir boyut indirgeme tekniğidir ve amaç varyansı maksimum düzeyde açıklamaktır. Faktör analizi ise değişkenler arasındaki ilişkileri açıklayan gizil faktörleri (latent variables) modellemeyi hedefleyen istatistiksel bir yaklaşımdır. Faktör analizinde, gözlenen değişkenlerin ortak varyansı “ortak faktörler” tarafından açıklandığı varsayılır; ölçüm hatası modele dahil edilir. PCA’da hatalar göz ardı edilir. Faktör analizi daha çok psikometri, eğitim bilimleri ve sosyal bilimlerde ölçme araçlarının yapısını belirlemek için kullanılır. PCA veri bilgisi yoğun durumlarda pratik avantaj sağlarken, faktör analizi kuramsal modelleri test etmede daha uygundur.
Soru 44: Faktör sayısı nasıl belirlenir? (Eigenvalue, scree plot vb.)
Cevap:
Faktör sayısını belirlemek için en yaygın yöntem Kaiser kriteridir; eigenvalue (özdeğer) > 1 olan bileşenler potansiyel faktör olarak kabul edilir. Ancak bu yöntem tek başına yeterli değildir. Scree plot grafiği incelenerek “dirsek noktası” belirlenir; varyans katkısı hızlı düşüşün yavaşladığı nokta önerilen faktör sayısını gösterir. Paralel analiz ise rastgele veri setleri ile karşılaştırma yaparak en güvenilir sonuçları sunar. Araştırmacı, kuramsal çerçeveyi, yük değerlerini ve faktörlerin yorumlanabilirliğini birlikte değerlendirerek nihai faktör sayısına karar vermelidir. Yalnızca istatistiksel kriterlere dayanmak çoğu zaman hatalı factor extraction’a yol açar.
Soru 45: Faktör yükleri nasıl yorumlanır?
Cevap:
Faktör yükü, bir değişkenin ilgili faktör ile olan ilişkisinin gücünü gösterir ve korelasyon katsayısı olarak yorumlanabilir. Mutlak değer olarak 0.30 düşük, 0.50 orta, 0.70 üzeri yüksek yük olarak kabul edilir. Bir değişken birden fazla faktörde yüksek yük verdiğinde çapraz yüklenme söz konusudur; bu durumda değişken modelden çıkarılabilir veya döndürme yöntemi gözden geçirilebilir. Faktör yüklerinin yorumlanması, ölçek yapısının doğruluğu açısından kritik öneme sahiptir. Ayrıca yüklerin kuramsal beklentilerle uyumlu olması, modelin geçerliliğini güçlendirir.
Soru 46: Döndürme (rotation) ne işe yarar? Varimax ve oblimin farkı nedir?
Cevap:
Döndürme teknikleri, faktörlerin yorumlanabilirliğini artırmak için yük yapısını düzenler. Varimax, dik döndürme yöntemidir ve faktörlerin birbiriyle ilişkisiz (orthogonal) olduğu varsayılır; yükleri keskinleştirir ve değişkenlerin belirli faktörlere gruplanmasını kolaylaştırır. Oblimin ise eğik döndürme yöntemidir ve faktörlerin birbiriyle ilişkili olabileceği kabul edilir. Sosyal bilimlerde faktörlerin ilişkili olması doğal olduğundan oblimin daha gerçekçi sonuçlar üretebilir. Araştırmacı, kuramsal çerçeveye uygun döndürme tekniğini seçerek faktörlerin anlamlı biçimde yorumlanmasını sağlar.
Soru 47: Kümeleme analizi nedir ve hangi amaçla yapılır?
Cevap:
Kümeleme, benzer özelliklere sahip gözlemleri gruplandırarak veri içindeki doğal yapıları ortaya çıkaran keşifsel analiz yöntemidir. K-means, hiyerarşik kümeleme ve DBSCAN en yaygın algoritmalardır. Amaç, gözlemleri benzerlik ölçütlerine (örneğin Öklid uzaklığı) göre kümelere ayırmak ve bu kümeler arasındaki ayrımı maksimize etmektir. Pazarlama segmentasyonu, biyolojik tür sınıflandırmaları, müşteri davranış analizi gibi birçok alanda kullanılır. Küme sayısı genellikle silhouette skoru, elbow yöntemi veya küme geçerlilik indeksleriyle belirlenir.
Soru 48: K-means kümeleme algoritması nasıl çalışır?
Cevap:
K-means, kullanıcının belirlediği K adet küme merkeziyle başlar ve gözlemleri bu merkezlere en yakın oldukları kümeye atar. Ardından her kümenin yeni merkezi, kümeye ait gözlemlerin ortalaması olarak yeniden hesaplanır. Bu işlem merkezler sabitlenene kadar tekrarlanır. K-means hızlı ve pratik bir yöntemdir, ancak başlangıç merkezlerine duyarlıdır ve küme sayısının önceden bilinmesini gerektirir. Ayrıca non-sferik veya farklı yoğunluklara sahip kümelerde zayıf performans gösterebilir. Buna rağmen büyük veri setleri için en çok tercih edilen kümeleme algoritmalarındandır.
Soru 49: MANOVA nedir ve ANOVA’dan nasıl ayrılır?
Cevap:
MANOVA (Multivariate ANOVA), birden fazla bağımlı değişkenin aynı anda analiz edildiği çoklu varyans analizidir. ANOVA yalnızca tek bir bağımlı değişkeni incelerken, MANOVA bağımlı değişkenlerin ortak varyans yapısını dikkate alarak grup farklılıklarını değerlendirir. Bu yaklaşım, ilişkili bağımlı değişkenler olduğunda Tip I hata oranını kontrol eder ve daha kapsamlı sonuçlar üretir. Örneğin eğitim araştırmalarında hem başarı hem motivasyonun aynı anda incelenmesi MANOVA ile mümkündür. MANOVA’nın varsayımları ANOVA’ya benzer ancak daha katıdır; özellikle çok değişkenli normallik ve eş kovaryans (Box’s M testi) kritik rol oynar.
13. Ölçek Geliştirme – Güvenirlik ve Geçerlik
Soru 50: Güvenirlik nedir ve neden ölçek geliştirmede en kritik unsurlardan biridir?
Cevap:
Güvenirlik, ölçme aracının tutarlılığını ve tekrarlanabilirliğini ifade eder. Aynı bireylere benzer koşullarda tekrar uygulandığında benzer sonuçlar vermesi beklenir. Düşük güvenirlik, ölçüm hatalarının yüksek olduğunu ve maddelerin hedeflenen yapıyı net biçimde ölçmediğini gösterir. Güvenirliği yüksek olmayan bir ölçekten geçerli sonuçlar elde etmek mümkün değildir; bu nedenle güvenirlik, ölçek geliştirme sürecinin temel aşamasıdır. İç tutarlılık, test-tekrar test ve madde-toplam korelasyonları gibi göstergeler aracılığıyla değerlendirilir.
Soru 51: Cronbach’s Alpha nedir ve nasıl yorumlanır?
Cevap:
Cronbach’s Alpha, bir ölçeğin iç tutarlılığını ölçen en yaygın güvenirlik katsayısıdır. Maddelerin birbirleriyle ne kadar tutarlı olduğunu değerlendirir ve 0 ile 1 arasında değer alır. Genel kabul gören sınırlar: 0.70 kabul edilebilir, 0.80 iyi, 0.90 çok iyi düzeyde güvenirlik olarak yorumlanır. Ancak 0.95 üzeri değerler, maddelerin birbirini aşırı tekrar ettiği ve ölçeğin gereksiz derecede homojen olduğu anlamına gelebilir. Alpha, madde sayısına duyarlıdır ve çok boyutlu ölçeklerde hatalı yüksek değer verebilir; bu nedenle faktör analizi ile desteklenmesi gerekir.
Soru 52: Madde-toplam korelasyonu neyi gösterir?
Cevap:
Madde-toplam korelasyonu, bir madde puanının toplam ölçek puanıyla olan ilişkisini gösterir. Değeri düşük olan maddeler (0.20 altı) ölçeğin yapısını bozabilir veya ölçme amacına yeterince katkı sağlamıyor olabilir. Yüksek korelasyonlar (0.40 ve üzeri) maddenin ölçeğin genel yapısıyla uyumlu olduğunu gösterir. Bu istatistik, madde düzeyinde kaliteyi değerlendirmek için en etkili göstergelerden biridir. Düşük değerli maddeler gözden geçirilmeli, revize edilmeli veya ölçekten çıkarılmalıdır.
Soru 53: Geçerlik türleri nelerdir ve nasıl değerlendirilir?
Cevap:
Geçerlik, ölçme aracının gerçekten ölçmek istediği yapıyı ölçüp ölçmediğini belirler. Üç ana tür geçerlik vardır: İçerik geçerliği, ölçeğin maddelerinin ilgili kavramı yeterince kapsayıp kapsamadığını değerlendirir ve uzman görüşleriyle sağlanır. Yapı geçerliği, faktör analizi ve model uyum indeksleriyle test edilir; ölçeğin teorik yapıya uygun olup olmadığını gösterir. Kriter geçerliği ise ölçek sonuçlarının dış ölçütlerle olan ilişkisini inceler; eş zamanlı ve yordayıcı geçerlik olarak ikiye ayrılır. Geçerlik, çok yönlü bir süreçtir ve tek bir istatistikle değerlendirilmez.
Soru 54: Doğrulayıcı Faktör Analizi (CFA) nedir ve hangi durumlarda uygulanır?
Cevap:
CFA, kuramsal olarak tanımlanan faktör yapısının veri tarafından doğrulanıp doğrulanmadığını test eden modelleme yaklaşımıdır. Ölçek geliştirmenin ileri aşamalarında kullanılır ve hangi maddenin hangi faktöre yükleneceği önceden belirlenir. Model uyumunu değerlendirmek için CFI, TLI, RMSEA ve SRMR gibi uyum indeksleri kullanılır. CFA, yapı geçerliğini doğrudan test ettiği için psikometri ve araştırma metodolojisi alanlarında standart yöntem haline gelmiştir.
Soru 55: İçerik geçerliği nasıl sağlanır?
Cevap:
İçerik geçerliği, ölçeğin ölçmek istediği yapıyı kapsamlı biçimde temsil edip etmediğini değerlendirir. Bu amaçla uzman paneli oluşturulur ve her madde uzmanlar tarafından kapsam uygunluğu, açıklığı ve temsil ediciliği açısından puanlanır. Lawshe’nin CVR ve CVI indeksleri içerik geçerliğini nicel olarak ölçmekte yaygın biçimde kullanılır. Maddelerin kapsamı dar veya tekrarlayıcı ise elenmesi gerekir. İçerik geçerliği sağlanmadan yapılan faktör analizi çoğu zaman hatalı model oluşturur.
Soru 56: Güvenirlik ve geçerlik arasındaki fark nedir?
Cevap:
Güvenirlik, ölçümün tutarlı olmasını; geçerlik ise doğru şeyi ölçmesini ifade eder. Yani bir ölçek güvenilir olabilir ama geçerli olmayabilir. Örneğin sürekli aynı hatalı değeri üreten bir termometre güvenilirdir ama geçerli değildir. Geçerli bir ölçek ancak güvenilir bir temele dayanabilir. Bu nedenle ölçek geliştirmede önce güvenirlik sağlanır, ardından geçerlik analizleri yapılır. İkisi bir arada olduğunda ölçüm kalitesi yüksek kabul edilir.
14. Nonparametrik ve Robust İstatistik
Soru 57: Nonparametrik testler hangi durumlarda parametrik testlere göre avantaj sağlar?
Cevap:
Nonparametrik testler, dağılım varsayımlarına gerek duymadan sıralama veya işaret temelli hesaplamalar yaptıkları için küçük örneklemlerde, çarpık dağılımlarda ve uç değerlerin yoğun olduğu veri yapılarında avantaj sağlar. Ölçek türü ordinal olduğunda veya ölçüm hatalarının yüksek olduğu durumlarda parametrik testlere göre daha doğru sonuçlar üretir. Mann–Whitney U, Wilcoxon, Kruskal–Wallis ve Friedman testleri yaygın nonparametrik yöntemlerdir. Parametrik varsayımların açık şekilde ihlal edildiği durumlarda güvenilirlik açısından nonparametrik testler tercih edilmelidir.
Soru 58: Median testi nedir ve ne tür sorulara yanıt verir?
Cevap:
Median testi, iki veya daha fazla grubun medyan değerlerinin eşit olup olmadığını test eden basit ve dağılımdan bağımsız bir yöntemdir. Veri uç değerlere karşı dayanıklıdır ve ordinal ölçeklerde kullanılabilir. Ancak testin gücü düşüktür; bu nedenle yalnızca belirgin medyan farklarının olup olmadığını değerlendirebilir. Gruplar arası dağılım formunun ciddi biçimde farklılaştığı veya normal dağılım varsayımının tamamen geçersiz olduğu durumlarda kullanılabilir.
Soru 59: Robust istatistik nedir ve hangi durumlarda kritik hale gelir?
Cevap:
Robust istatistik, varsayımların ihlaline karşı dayanıklı yöntemler geliştiren istatistik dalıdır. Özellikle uç değerler, çarpık dağılımlar ve heterojen varyans yapıları klasik yöntemleri bozduğunda robust yöntemler devreye girer. Huber regresyonu, trimmed mean testleri, M-estimator yaklaşımları ve bootstrapping robust istatistik kapsamında değerlendirilir. Bu yöntemler, veri bozukluklarına rağmen güvenilir sonuçlar üretir ve özellikle gerçek saha verilerinde klasik tekniklere göre çok daha başarılıdır.
Soru 60: Bootstrapping nedir ve istatistiksel tahminlerde nasıl kullanılır?
Cevap:
Bootstrapping, örneklem verisinden tekrar tekrar yeniden örneklem (resampling) alarak parametre dağılımlarını tahmin eden bilgisayar tabanlı bir istatistiksel yöntemdir. Varsayımlara bağımlılığı düşük olduğu için küçük örneklemlerde bile güvenilir güven aralıkları ve standart hata tahminleri üretir. Özellikle regresyon katsayıları, medyan farkları, etki büyüklükleri ve uyum ölçütleri gibi karmaşık parametrelerin dağılımını belirlemede etkilidir. Bootstrapping ile elde edilen dağılımlar parametrik testlerin sunduğu sınırlamalardan bağımsızdır ve modern veri analitiğinde yaygın biçimde kullanılır.
15. Bayesçi İstatistik (Bayesian Statistics)
Soru 61: Bayesçi istatistik nedir ve klasik (frekansçı) istatistikten en temel farkı nedir?
Cevap:
Bayesçi istatistik, belirsizliği bir olasılık dağılımı olarak ele alan ve yeni bilgi geldikçe bu dağılımı güncelleyen bütünsel bir çerçevedir. Klasik istatistik, parametreleri sabit fakat bilinmeyen değerler olarak kabul ederken; Bayes yaklaşımı parametreleri olasılık dağılımına sahip rastgele değişkenler olarak görür. Bu nedenle sonuçlar yalnızca “reddet/reddetme” biçiminde değil, olasılık temelli çıkarımlarla ifade edilir. Önsel (prior) bilgi ile veriden gelen bilgi birleştirilerek posterior dağılım elde edilir. Bu yaklaşım özellikle küçük örneklemlerde, uzman görüşü içeren klinik çalışmalarda ve karmaşık modellerde güçlü avantaj sağlar.
Soru 62: Prior (önsel dağılım) nedir ve nasıl seçilir?
Cevap:
Prior, parametre hakkında veri gözlemlenmeden önce sahip olunan bilgi veya inançları temsil eden olasılık dağılımıdır. Bilgi güçlü ise “informative prior”, zayıf veya nötr ise “weakly informative” veya “non-informative prior” seçilir. Prior seçimi, sonuçları etkileyebileceği için dikkatle yapılmalıdır. Klinik çalışmalarda uzman görüşü veya geçmiş araştırmalar bilgilendirici prior sağlayabilir. Veri biliminin birçok alt alanında ise zayıf bilgi içeren priorlar tercih edilir. Prior seçimi modelin hesaplamalarını ve posterior dağılımın şeklini belirlediği için Bayesçi istatistikte kritik aşamalardan biridir.
Soru 63: Posterior dağılım nedir ve nasıl yorumlanır?
Cevap:
Posterior dağılım, önsel bilgi ile gözlemlenen verinin birleşmesi sonucunda parametrenin güncellenmiş olasılık dağılımıdır. Bayes’in teoremi ile hesaplanır: Posterior∝Likelihood×PriorPosterior \propto Likelihood \times PriorPosterior∝Likelihood×Prior
Posterior dağılım, bir parametrenin belirli bir aralıkta olma olasılığını doğrudan ifade eder, bu yönüyle frekansçı güven aralıklarından daha sezgiseldir. Araştırmacı, posterior dağılımın ortalaması, medyanı veya belirli yüzdelikleri (credible interval) üzerinden karar verir. Posterior dağılım, belirsizliğin matematiksel bir özeti olduğu için model karşılaştırmalarında ve öngörü analizlerinde temel rol oynar.
Soru 64: Credible interval (inandırıcı aralık) nedir ve güven aralığından farkı nedir?
Cevap:
Credible interval, parametrenin belirli bir aralıkta olma olasılığını doğrudan ifade eden Bayesçi belirsizlik ölçüsüdür. Örneğin %95 credible interval, “parametrenin %95 olasılıkla bu aralıkta olduğu” anlamına gelir. Bu yorum klasik güven aralığından daha sezgiseldir; çünkü güven aralığında parametrenin değil, aralığın rastgele olduğu varsayılır. Credible interval, özellikle karar verme süreçlerinde daha doğal ve anlaşılır bir belirsizlik yaklaşımı sunar.
Soru 65: MCMC (Markov Chain Monte Carlo) yöntemleri ne işe yarar?
Cevap:
MCMC, karmaşık veya kapalı formda hesaplanamayan posterior dağılımlarından örnek çekmek için kullanılan simülasyon tabanlı yöntemlerdir. Metropolis–Hastings ve Gibbs sampling en yaygın MCMC algoritmalarıdır. Bu yöntemler, yüksek boyutlu parametrelerin posterior dağılımlarını hesaplanabilir hale getirerek Bayesçi modellerin pratikte uygulanmasını sağlar. Modern istatistik, özellikle büyük veri setleri ve hiyerarşik modellerde MCMC’nin sunduğu esnekliğe dayanır.
16. Deneysel Tasarım ve Karar Verme
Soru 66: Deneysel tasarım nedir ve neden istatistiksel analizin temelidir?
Cevap:
Deneysel tasarım, değişkenlerin sistematik olarak manipüle edildiği ve sonuçların kontrol edilen koşullar altında ölçüldüğü araştırma yaklaşımıdır. Amaç, nedensel ilişkileri güvenilir biçimde ortaya koymaktır. Rasgele atama, kontrol grubu kullanımı ve körleme gibi teknikler, yanlılığı azaltır ve etkiyi izole etmeyi sağlar. İstatistiksel analiz her ne kadar güçlü olsa da, kötü tasarlanmış bir deney hiçbir modeli doğru sonuç veremez hale getirir. Bilimsel araştırmalarda geçerli sonuçların temelinde sağlam bir deney tasarımı bulunur.
Soru 67: Rasgele atama (randomization) neden kritiktir?
Cevap:
Rasgele atama, katılımcıların deney ve kontrol gruplarına tamamen rastgele dağıtılmasını sağlar ve böylece gruplar arasında sistematik farklılıklar oluşmasını engeller. Bu yaklaşım, üçüncü değişken etkisini minimize ederek nedensel yorumu güçlendirir. Randomization olmadan yapılan karşılaştırmalar, gözlenen farkların müdahaleden mi yoksa grup yapısından mı kaynaklandığını ayırt edemez. Bu nedenle randomization, deneysel araştırmaların temel taşıdır.
Soru 68: Körleme (blinding) nedir ve araştırmada neden önemlidir?
Cevap:
Körleme, katılımcıların, araştırmacıların veya değerlendiricilerin hangi koşula ait olduklarını bilmemesini sağlayan yöntemdir. Tek kör, çift kör ve üçlü kör tasarımlar bulunur. Körleme, beklenti etkisini, ölçüm yanlılığını ve araştırmacı önyargılarını minimize eder. Tıp ve psikoloji gibi insan davranışının araştırıldığı alanlarda kritik öneme sahiptir. Körleme yapılmadığında etki büyüklükleri yapay olarak yüksek görünebilir.
Soru 69: Etki büyüklüğü nedir ve neden sadece p-değeri raporlamak yeterli değildir?
Cevap:
Etki büyüklüğü, bir ilişkinin veya farkın pratik önemini sayılaştıran ölçüdür. P-değeri yalnızca farkın istatistiksel olarak anlamlı olup olmadığını gösterir; etkinin büyüklüğü, yönü veya pratik değeri hakkında bilgi vermez. Cohen’s d, Hedges g, eta kare, r ve OR gibi ölçüler etki büyüklüğünü belirlemek için kullanılır. Etki büyüklüğünü raporlamak, araştırma sonuçlarının gerçek dünyadaki etkisini anlamayı sağlar ve meta-analiz çalışmaları için vazgeçilmezdir.
Soru 70: Cohen’s d nasıl hesaplanır ve nasıl yorumlanır?
Cevap:
Cohen’s d, iki grup arasındaki ortalama farkın standart sapmaya bölünmesiyle elde edilen etki büyüklüğüdür. Genel yorum: 0.20 küçük, 0.50 orta ve 0.80 büyük etki. Cohen’s d, örneklem büyüklüğünden bağımsız bir ölçü sunduğu için farklı çalışmaların sonuçlarının karşılaştırılmasına olanak tanır. Eğitim, psikoloji ve tıp alanında standart etki ölçütlerinden biridir.
Soru 71: Güç analizi (power analysis) nedir ve neden yapılır?
Cevap:
Güç analizi, bir çalışmanın belirli bir etkiyi tespit etme olasılığını hesaplayan yöntemdir. Çalışma öncesinde yapılan güç analizi, gerekli minimum örneklem büyüklüğünü belirler. Yetersiz güç, gerçek etkilerin gözden kaçmasına yol açarken; aşırı büyük örneklemler önemsiz etkilerin anlamlı çıkmasına neden olur. Güç analizi araştırma tasarımının bilimsel ve etik açıdan doğru planlanmasını sağlar.
Soru 72: Simülasyon tabanlı deneysel tasarım nedir?
Cevap:
Simülasyon tabanlı tasarım, muhtemel veri setlerinin bilgisayar ortamında üretilerek farklı senaryoların test edilmesi yaklaşımıdır. Bu yöntem, karmaşık modellerde analitik çözümü olmayan durumları analiz etmeyi mümkün kılar. Araştırmacı, çeşitli örneklem büyüklüklerini, varyans düzeylerini ve model parametrelerini simüle ederek hangi tasarımın en güvenilir sonuçları üreteceğini belirleyebilir. Modern araştırma metodolojisinde özellikle yüksek boyutlu veri içeren çalışmalarda yaygın olarak kullanılmaktadır.
17. İleri Düzey Hipotez Testleri
Soru 73: Permütasyon (randomization) testleri nedir ve hangi durumlarda kullanılır?
Cevap:
Permütasyon testleri, grup etiketlerinin rastgele karıştırılmasıyla test istatistiğinin yeni dağılımlarının oluşturulduğu dağılım serbest testlerdir. Varsayımlara duyarlılığı düşük olduğu için özellikle normal dağılımın sağlanmadığı ve örneklem büyüklüğünün küçük olduğu durumlarda güçlü performans gösterir. Permütasyon testleri, p-değerini gözlenen istatistiğin permütasyonlardan elde edilen dağımdaki konumuna göre hesaplar. Robust, esnek ve hesaplama gücüne dayalı modern bir yaklaşımdır.
Soru 74: Mann–Whitney U testi parametre tahmini için neden kullanılamaz?
Cevap:
Mann–Whitney U testi gruplar arasındaki medyan sıralamalarını karşılaştırsa da, ortalama farkı veya etki büyüklüğü gibi parametrik ölçüleri doğrudan tahmin etmez. Test, yalnızca iki dağılımın birbirinden farklı olup olmadığını belirler. Bu nedenle parametrik tahmin gerektiren durumlarda uygun değildir. Ancak etkilerin yönünü ve sıralama temelli farkları değerlendirmede oldukça güçlüdür.
Soru 75: Friedman testi hangi durumlarda ANOVA’ya alternatif olarak kullanılır?
Cevap:
Friedman testi, tekrarlı ölçümler ANOVA’sının parametrik olmayan karşılığıdır. Aynı bireylerin üç veya daha fazla koşuldaki sıralama temelli performanslarını karşılaştırmak için kullanılır. Normallik varsayımının ihlal edildiği, veri yapısının ordinal olduğu ve bireyler arası varyansın kontrol altında tutulduğu durumlarda Friedman testi ANOVA’ya göre daha güvenilir sonuçlar verir. Post-hoc karşılaştırmalar genellikle Dunn–Bonferroni yöntemi ile yapılır.
Soru 76: Bir hipotez testinde “etki yoktur” sonucuna ulaşmak neden gerçek anlamda “etki yok” demek değildir?
Cevap:
Hipotez testinde H₀’ın reddedilememesi, yalnızca mevcut veri setinin sıfır hipotezini yanlışlamak için yeterli kanıt sunmadığı anlamına gelir. Bu durum gerçek etki olmadığı anlamına gelmez; örneklem küçük olabilir, varyans yüksek olabilir veya güç yetersiz olabilir. “Etki yoktur” diyebilmek için özel testler (örneğin equivalence testleri) veya yüksek güçlü tasarımlar gereklidir. Bu ayrım özellikle tıp ve klinik çalışmalarda kritik öneme sahiptir.
18. Karar Verme ve İstatistiksel Modelleme
Soru 77: İstatistiksel model seçimi (model selection) nedir?
Cevap:
Model seçimi, alternatif modeller arasından en uygun olanının belirlenmesi sürecidir. Amaç, veriyi yeterince açıklayan ancak aşırı uyum (overfitting) göstermeyen modeli seçmektir. AIC, BIC, adjusted R², çapraz doğrulama gibi ölçütler model karşılaştırmalarında kullanılır. İyi bir model, hem yüksek tahmin performansı hem de yalın bir yapı sunar. Model seçimi sürecinde hem doğruluk hem de genellenebilirlik birlikte değerlendirilmelidir.
Soru 78: AIC (Akaike Information Criterion) nasıl yorumlanır?
Cevap:
AIC, model karmaşıklığı ile model uyumunu birlikte değerlendirerek en optimal modeli seçmeye yardımcı olan bir bilgi kriteridir. Daha düşük AIC değeri daha iyi model anlamına gelir. AIC, parametre sayısı arttıkça modele ceza uyguladığı için aşırı uyuma karşı koruma sağlar. Ancak AIC tek başına yeterli değildir; modelin teoriyle uyumu ve yorumlanabilirliği de değerlendirilmelidir.
Soru 79: BIC (Bayesian Information Criterion) AIC’den nasıl farklıdır?
Cevap:
BIC, AIC’ye benzer şekilde model uyumu ile karmaşıklığı dengeler ancak daha güçlü bir ceza terimi içerir. Bu nedenle BIC, büyük örneklemlerde daha sade modelleri tercih eder. Bayesçi temelli bir yaklaşıma sahiptir ve model seçimini daha tutucu yapar. AIC kompleks modellere daha açıkken, BIC daha minimalist yapıdadır. Hangi kriterin seçileceği araştırmanın amaçlarına bağlıdır.
Soru 80: Overfitting nedir ve nasıl önlenir?
Cevap:
Overfitting, modelin eğitildiği veriyi aşırı derecede öğrenerek gürültüyü de sinyal gibi yorumlamasıdır. Bu durumda model, eğitim verisinde yüksek performans gösterirken yeni verilerde zayıf sonuç üretir. Overfitting’i önlemek için çapraz doğrulama, cezalandırılmış regresyon (Lasso, Ridge), değişken azaltma, boyut indirgeme ve basit modeller tercih etme stratejileri kullanılabilir. Gerçek hedef, modeli veriye uydurmak değil, genellenebilir bir yapı oluşturmaktır.
19. Veri Bilimi ve Makine Öğrenmesi – İstatistik İlişkisi
Soru 81: Veri bilimi ile istatistik arasındaki temel fark nedir?
Cevap:
Veri bilimi, veriden değer üretmeye odaklanan multidisipliner bir alandır; istatistik ise belirsizliği modelleme ve veriye dayalı çıkarım yapma sanatıdır. Veri bilimi; istatistik, programlama, makine öğrenmesi ve alan bilgisini bir araya getirerek karmaşık veri problemlerini çözer. Ancak veriye güvenilir yorum katabilmek için istatistiksel metodoloji esastır. Makine öğrenmesi modelleri güçlü öngörüler yapabilir fakat nedensellik ve belirsizlik analizi açısından istatistiksel yaklaşımlar hâlâ vazgeçilmezdir. Kısacası veri bilimi geniş bir şemsiye, istatistik onun en güçlü taşıyıcı kolonudur.
Soru 82: Makine öğrenmesi modelleri neden istatistiksel temellere dayanır?
Cevap:
Makine öğrenmesi algoritmalarının büyük çoğunluğu istatistiksel prensiplerle geliştirilmiştir. Doğrusal regresyon, lojistik regresyon, Naive Bayes, Gaussian süreçleri ve EM algoritması tamamen istatistiksel çerçevede tanımlanır. Modellerin hatalarını minimize etmek için kullanılan kayıp fonksiyonları, varyans–bias dengesi, çapraz doğrulama ve düzenlileştirme teknikleri istatistik kökenlidir. Bu nedenle, makine öğrenmesi modellerini doğru kullanmak için temel istatistik bilgisi şarttır.
Soru 83: Bias–variance tradeoff nedir?
Cevap:
Bias–variance dengesi, öngörü modellerinde hatanın iki ana kaynağını ifade eder: Bias (yanlılık) modelin gerçeği yeterince temsil edememesi, variance (varyans) ise modelin verideki rastlantısal gürültüye aşırı duyarlı olmasıdır. Basit modeller yüksek bias ancak düşük varyansa sahipken, karmaşık modeller düşük bias fakat yüksek varyans gösterir. Amaç, optimum noktaya ulaşarak hem genellenebilir hem de doğru bir model elde etmektir. Bu denge makine öğrenmesinin temel teorik yapıtaşlarındandır.
Soru 84: Regularization (düzenlileştirme) nedir ve hangi modellerde kullanılır?
Cevap:
Regularization, modelin aşırı öğrenmesini önlemek için katsayılara ceza uygulayan bir yöntemdir. Ridge (L2) ve Lasso (L1) en yaygın tekniklerdir. Ridge büyük katsayıları küçültürken, Lasso bazı katsayıları tamamen sıfıra indirerek değişken seçimi yapar. Regularization, özellikle çoklu doğrusal bağlantı, yüksek boyutlu veri ve overfitting sorunlarında modelin istikrarını artırır. Modern makine öğrenmesi modellerinin çoğunda (örneğin logistic regression, SVM, neural networks) düzenlileştirme temel adımdır.
20. Büyük Veri ve Modern İstatistik
Soru 85: Büyük veri istatistiği klasik istatistikten nasıl farklıdır?
Cevap:
Büyük veri istatistiği, veri hacminin, hızının ve çeşitliliğinin klasik yöntemleri zorladığı durumlarda kullanılan yaklaşımları içerir. Klasik istatistik, daha küçük ve kontrollü veri setlerinde güçlüdür; büyük veri ise dağınık, eksik, gürültülü ve heterojen olabilir. Bu nedenle büyük veri analizinde paralel hesaplama, dağıtık sistemler, streaming algoritmaları ve robust yöntemler kritik rol oynar. Büyük veride klasik varsayımlar çoğu zaman geçerli değildir; bu nedenle modern istatistik, daha esnek ve ölçeklenebilir tekniklere yönelir.
Soru 86: Neden büyük veri her zaman daha iyi sonuç üretmez?
Cevap:
Büyük veri, yüksek hacim sunmasına rağmen temsiliyet garantisi vermez. Yanlış örneklenmiş milyonlarca gözlem bile sistematik hataları gideremez. Ayrıca veri gürültüsü, aykırı değerler ve değişkenler arasındaki spurious (yanlış) ilişkiler, büyük veri ortamında daha fazla görülür. Büyük verinin analizi için ölçeklenebilir, robust ve dikkatle tasarlanmış modeller gerekir; aksi halde büyük veri daha fazla karmaşa ve yanlış sonuca yol açabilir.
Soru 87: Streaming veri analizi nedir?
Cevap:
Streaming veri, gerçek zamanlı ve sürekli akış halinde gelen veri anlamına gelir (sensör verileri, IoT cihazları, finansal işlemler gibi). Streaming analizi, veriyi depolamadan anında işleyerek öngörü, anomali tespiti veya karar verme süreçlerini yürütür. Klasik istatistiksel yöntemler, verinin tamamına aynı anda erişmeyi gerektirdiğinden streaming yapılarına uygun değildir; bu nedenle çevrimiçi öğrenme (online learning), kayan pencere (sliding window) ve artımsal güncelleme (incremental update) teknikleri kullanılır.
21. Meta-Analiz ve Kanıt Bütünleştirme
Soru 88: Meta-analiz nedir ve neden bilimsel araştırmalarda altın standarttır?
Cevap:
Meta-analiz, bir konuya ilişkin birden fazla bağımsız çalışmanın sonuçlarını sayısal olarak birleştirerek genel etki büyüklüğünü belirleyen yöntemdir. Tek bir çalışmanın sınırlılıklarını aşar ve daha yüksek istatistiksel güç sağlar. Etki büyüklükleri standartlaştırıldığı için farklı ölçeklerle yapılmış araştırmalar bile karşılaştırılabilir. Meta-analiz, kanıt temelli karar vermenin temelidir ve özellikle tıp, psikoloji ve eğitim bilimlerinde altın standart kabul edilir.
Soru 89: Meta-analizde heterojenlik nedir ve nasıl ölçülür?
Cevap:
Heterojenlik, çalışmalardaki etki büyüklüklerinin birbirinden sistematik olarak farklı olmasıdır. I² istatistiği, heterojenliğin toplam varyansın ne kadarını açıkladığını ölçer. %25 düşük, %50 orta, %75 yüksek heterojenlik olarak yorumlanır. Heterojenlik yüksekse sabit etkili model yerine rastgele etkili model (random effects) tercih edilmelidir. Heterojenlik, çalışmalardaki metodolojik farklılıklardan veya popülasyon çeşitliliğinden kaynaklanabilir.
Soru 90: Yayın yanlılığı (publication bias) nedir ve meta-analizi nasıl etkiler?
Cevap:
Pozitif veya anlamlı sonuçların daha yüksek ihtimalle yayımlanması, negatif veya anlamsız bulguların ise raporlanmaması yayın yanlılığıdır. Bu yanlılık meta-analizin genel etkiyi olduğundan yüksek tahmin etmesine neden olur. Funnel plot, Egger testi ve trim-and-fill yöntemi yayın yanlılığını değerlendirmek için kullanılır. Yayın yanlılığı giderilmezse meta-analiz sonuçları hatalı bilimsel yönlendirmelere yol açabilir.
22. Nadir Olaylar, Aykırı Değerler ve Risk Analizi
Soru 91: Aykırı değerler analizi neden kritik bir adımdır?
Cevap:
Aykırı değerler, model varsayımlarını bozabilir, ortalamayı ve varyansı şişirebilir ve sonuçların güvenilirliğini düşürebilir. Aykırı değerler bazen ölçüm hatası, bazen doğal varyans, bazen de kritik bir alt popülasyonun göstergesi olabilir. Boxplot, z-puanı, robust yöntemler ve Mahalanobis uzaklığı aykırı değer incelemede yaygındır. Aykırı değerlerin körü körüne silinmesi yanlış sonuçlara yol açabileceği için karar dikkatle verilmelidir.
Soru 92: Nadir olay analizi neden zordur?
Cevap:
Nadir olaylar düşük gözlem sayısı nedeniyle klasik modellerin varsayımlarını karşılamaz. Veri dengesizdir, varyans yüksektir ve parametre tahminleri kararsız hale gelir. Bu durum özellikle tıp, güvenlik, hata tespiti, kredi risk analizi gibi alanlarda görülür. Nadir olaylar için penalize lojistik regresyon, oversampling, SMOTE ve Bayesçi yöntemler daha uygun çözümler sunar.
Soru 93: Mahalanobis uzaklığı neyi ölçer?
Cevap:
Mahalanobis uzaklığı, bir gözlemin çok değişkenli ortalamadan uzaklığını dikkate alarak aykırı değerleri tespit eden güçlü bir ölçüdür. Klasik Öklid uzaklığından farklı olarak değişkenler arası korelasyonu dikkate alır. Çok değişkenli aykırı değer analizinde en güvenilir yöntemlerden biridir ve özellikle finansal risk, kalite kontrol ve çoklu sensör verilerinde sıklıkla kullanılır.
23. Veri Görselleştirme ve Raporlama
Soru 94: Veri görselleştirme istatistiksel analizde neden bu kadar önemlidir?
Cevap:
Görselleştirme, verideki örüntüleri, aykırı değerleri, çarpıklıkları ve ilişkileri hızlı biçimde anlamayı sağlar. Bazı ilişkiler istatistiksel testlerle fark edilmese bile grafiklerle açık biçimde ortaya çıkar. Scatter plot, histogram, boxplot, density plot ve heatmap gibi araçlar keşifsel analizde kritik rol oynar. İyi bir görselleştirme, karar vericilere karmaşık bilgiyi sade şekilde aktarmayı sağlar.
Soru 95: Hangi grafik hangi veri türü için uygundur?
Cevap:
Sürekli değişkenlerin dağılımı için histogram veya yoğunluk grafiği, kategorik veriler için sütun grafik, iki sürekli değişken ilişkisi için scatter plot tercih edilir. Zaman serileri line chart ile en iyi ifade edilir. Kutu grafikleri (boxplot) varyansı ve aykırı değerleri göstermede etkilidir. Karmaşık çoklu ilişkiler için ısı haritaları ve korelasyon matrisleri kullanılır. Grafik seçimi, verinin yapısına ve analiz amacına göre yapılmalıdır.
Soru 96: Raporlamada hangi istatistikler mutlaka belirtilmelidir?
Cevap:
İyi bir raporlama; örneklem büyüklüğü (n), ortalama, medyan, standart sapma, güven aralığı, etki büyüklüğü, p-değeri ve model uyum ölçütleri gibi temel istatistikleri içerir. Grafikler ve tablolar açık başlıklarla desteklenmelidir. Ayrıca kullanılan yöntemlerin varsayımları ve bu varsayımların kontrol edildiğine dair bilgiler de mutlaka rapora dahil edilmelidir.
24. İstatistiksel Etik ve Yanıltıcı Analizler
Soru 97: İstatistiksel manipülasyon (p-hacking) nedir?
Cevap:
p-hacking, araştırmacının çok sayıda istatistiksel test yaparak yalnızca anlamlı çıkan sonuçları raporlamasıdır. Bu durum sahte pozitif sonuçlara ve bilimsel literatürde ciddi çarpıklıklara yol açar. Veri alt kümeleriyle oynama, farklı değişken kombinasyonlarını deneme ve yalnızca “işe yarayan” sonuçları seçme p-hacking örnekleridir. Bilimsel etik, analitik süreçlerin şeffaf biçimde raporlanmasını gerektirir.
Soru 98: Veri temizliği (data cleaning) bilimsel araştırmada neden hayati önem taşır?
Cevap:
Eksik veriler, ölçüm hataları, uyumsuz formatlar ve aykırı değerler istatistiksel sonuçları ciddi biçimde bozabilir. Veri temizleme süreci; eksik değer analizi, tutarsızlıkların giderilmesi, dönüşümler ve validasyon adımlarını içerir. Temizlenmemiş veri üzerinde yapılan analizler, ne kadar sofistike olursa olsun hatalı çıkarımlara yol açar. Bilimsel metodolojide ilk adım her zaman veri temizliğidir.
Soru 99: Tehlikeli korelasyonlar (spurious correlations) nedir?
Cevap:
Spurious korelasyon, iki değişken arasında yüksek bir korelasyon görünmesine rağmen aralarında gerçek bir nedensel ilişki bulunmaması durumudur. Bu ilişkiler genellikle üçüncü değişken etkisinden, zaman trendlerinden veya rastlantısal eşleşmelerden kaynaklanır. Veri hacmi büyüdükçe spurious ilişkilerin görülme olasılığı da artar. Bu nedenle korelasyon grafiklerinin mutlaka bağlamsal analizle desteklenmesi gerekir.
25. Genel Değerlendirme ve İstatistiksel Yorumlama
Soru 100: Bir istatistiksel analizden elde edilen sonuçların güvenilir olup olmadığı nasıl anlaşılır?
Cevap:
Sonuçların güvenilirliğini değerlendirmek için şu unsurlar birlikte incelenmelidir: örneklem büyüklüğü ve temsiliyeti, kullanılan yöntemlerin varsayımlarının sağlanıp sağlanmadığı, etki büyüklükleri, güven aralıkları, model uyum ölçütleri, veri kalitesi ve analitik sürecin şeffaflığı. Ayrıca sonuçların başka çalışmalarla tutarlı olup olmadığı da kritik bir göstergedir. İstatistiksel anlamlılık tek başına yeterli değildir; pratik önem, metodolojik bütünlük ve veri kalitesi değerlendirilmeden elde edilen sonuçlara güvenmek doğru değildir.
Eğitimlerimize katılarak bu ve diğer projeleri uygulamalı olarak öğrenebilirsiniz. Eğitimlerimize ve diğer bilgilere buradaki linkten (https://www.facadium.com.tr/) ulaşabilirsiniz. Detaylı bilgi için KOSGEB – TÜBİTAK – Kalkınma Ajanslarına aşağıdaki linklerden ulaşabilirsiniz.
