Parametrik Testler
Parametrik Testler
Parametrik testler için değerlendirmemiz gereken olasılık integrallerini anımsatıyor örn. denklemler dışında, artık varsayılan bir binom dağılımından elde edilen yerine örneklenmiş olasılık dağılımının kendisini kullanıyoruz.
Denklemler basitçe, eğer ölçülen değeri ise, p’nin boş hipotezin yanlış olma olasılığı olduğunu belirtir. Denklemlerden ilki, denklemlerden D0’ı hesaplamak için gereken kümülatif olasılığın önceden bilindiği şekilde, ana popülasyonun olasılık yoğunluk dağılım fonksiyonunun bilindiği durum için geçerlidir.
Bu, Kolmogorov-Smirnov Tip 1 testi olarak bilinir. İki farklı dağılım S1(xi) ve S2(xi) varsa ve bunların aynı dağılımdan kaynaklanıp kaynaklanmadığını bilmek istiyorsa, o zaman denklemlerin ikincisini kullanır ve Max│S1(xi)-S2(xi)│’den D0’ı elde eder. . Buna genellikle Kolmogorov-Smirnov Tip 2 testi denir.
Hiçbir testin ana popülasyonun binom dağılımı veya normal eğri tarafından verildiğini varsaymadığına dikkat edin. Bu, ana popülasyonun gerçek olasılık yoğunluk dağılım fonksiyonunun doğasından nispeten bağımsız olduğu için testin önemli bir gücüdür.
Daha önce açıklanan parametrik testlerin tümü, örneklem dağılımını, oldukça sınırlayıcı bir varsayım olabilecek normal bir dağılımla karşılaştırdı. Ek olarak, kümülatif olasılık dağılımı temel olarak, x’in integral aralığında yer alma olasılığı olan olasılık yoğunluk dağılım fonksiyonunun bir integralidir. Entegrasyon, örnekleme işlevindeki yerel dalgalanmaları yumuşatma eğilimindedir.
Bununla birlikte, örneklenen x değişkeninin tüm aralığı dikkate alındığında, tüm yoğunluk dağılım fonksiyonunun özellikleri D0 istatistiğinin belirlenmesine girer. İstatistiğin bu iki yönünün birleşimi, onu özellikle küçük örneklerle uğraşırken yararlı kılar. Bu, Kolmogorov-Smirnov testleri gibi parametrik olmayan istatistiksel testlerin temel bir özelliği olma eğilimindedir.
Bu istatistiksel testler tartışması boyunca, rastgele değişkenin tek bir seçiminin belirli bir örnekleme noktasıyla sonuçlandığını varsaydık. Bazı durumlarda bu doğru değildir. Veri noktaları veya örneklerin kendileri ortalamalar veya veri koleksiyonları olabilir. Bu veriler, gruplarda veya kutularda toplanıyormuş gibi ele alınabilir.
Serbestlik derecesi sayısı artık incelediğimiz durumlarda olduğu kadar basit bir şekilde hesaplanmadığından, bu tür verilerin işlenmesi daha karmaşık hale gelir. Bu nedenle, gruplandırılmış veya bindirilmiş verilerin istatistiksel analizini daha ileri bir istatistik dersine bırakacağız.
parametrik non-parametrik testler
Parametrik testler Nelerdir
Parametrik test örnekleri
Parametrik testler pdf
non-parametrik testler nedir
Parametrik testler özellikleri
Parametrik ve Nonparametrik nedir
Parametrik test nedir
Doğrusal Regresyon ve Korelasyon Analizi
Birkaç değişkenli bir fonksiyona uymak için en küçük kareler ilkesinin nasıl kullanılabileceğini ve belirli bir varsayımlar dizisi altında en büyük olasılığı veya en olası uyumu elde etmek için nasıl kullanılabileceğini gösterdik. İstatistiklerde benzer prosedürlerin kullanımına regresyon analizi adı verildiğini de not ettik.
Ancak birçok istatistiksel problemde hangi değişkenin bağımlı değişken, hangisinin bağımsız değişken olarak kabul edilmesi gerektiği açık değildir. Bu bölümde, neden ve sonucun belirlenemediği problemlere yaklaşmak için bazı teknikleri açıklayacağız.
X1 ve X2 olarak adlandıracağımız sadece iki değişken içeren basit bir problemi ele alarak başlayalım. Bu değişkenlerin ilişkili olduğuna inanmak için nedenlerimiz var, ancak birinin diğerine nedensel olarak bağımlı olarak görülmesi gerektiğine inanmak için apriori bir nedenimiz yok. Bununla birlikte, herhangi bir cebirsel formalizmi yazarken, hangi değişkenlerin diğerlerinin fonksiyonu olarak kabul edileceğine karar vermek gerekir.
Burada, iki farklı a ve b kümesini ayırt etmek için istatistikte yaygın olarak kullanılan bir gösterimi tanıttık. m.n alt simgesi, hangi değişkenin bağımlı olarak kabul edildiğini (yani m) ve hangisinin bağımsız olarak kabul edileceğini (yani n) gösterir.
Varyansların Ayrılması ve İki Değişkenli Korelasyon Katsayısı
En küçük kareler ilkesini geliştirirken, belirsizliklerin yalnızca bağımlı değişkenle sınırlı olduğunu düşündük. Ayrıca, her değişkende hata olduğu durumla başa çıkmak için bazı basit teknikler de gösterdik. Bağımlılığın doğasının belirsiz olduğu burada, bu kavramları genişletmeliyiz.
Bunu yapmak için, X1 ve X2 olmak üzere iki değişkenin durumunu yeniden ele alalım. Bu değişkenleri ayrı ayrı ele alacak olsaydık, her birinin örneklemiyle temsil edilen dağılım, X 1, σ21, X – 2, σ22 gibi momentlerle karakterize edilirdi.
Ancak, bu değişkenlerin ilişkili olduğundan şüphelenilmektedir. En basit ilişki doğrusal olduğundan, bağımsızlığın rollerinin yer değiştirdiği doğrusal en küçük kareler çözümlerini inceleyelim. Böyle bir analiz, formun çözümlerini üretecektir.
Burada, çözümden kaynaklanan bağımlı değişkenin değerlerini üst simge c ile gösterdik. En küçük kareler analizinden elde edilen denklemlerle tanımlanan çizgiler, istatistikte regresyon çizgileri olarak bilinir. Ayrıca herhangi bir Xi veri değerinin ortalama değerinden sapmasını bir sapma xi olarak tanımlayacağız.
Benzer şekilde xic, i’inci değişkenin hesaplanan sapması olsun. Bu değişken, regresyon denklemi tarafından verildiği gibi i’inci değişkendeki yayılımı ölçer. Alt simge yine bağımlı değişkeni gösterir. Böylece, denklemlerin birincisi biçimindeki bir regresyon doğrusu için (x2 – x2c), ortaya çıkan hata ε ile aynı olacaktır.
Şimdi xi sapmalarının istatistiklerini ele alabiliriz. am.n = Xn olduğundan sapmaların ortalaması sıfırdır, ancak sapmaların varyansları olmayacaktır. Aslında onlar sadece ortalama kare hatası dediğimiz şeyle ilgilidir. Bununla birlikte, bu varyansların değeri, hangi değişkenin bağımlı değişken olarak alındığına bağlı olacaktır.
Bazı yazarlar bu varyansları birinci dereceden varyanslar olarak adlandırır. Denklemlerin kaynağı hemen belli olmasa da yaptığımız analizden elde edilebilir. Aslında, denklemlerin ilkinin sağ tarafı, denklemlerin sağ tarafındaki büyük parantez içindeki terimi elde etmek için denklemler birleştirilerek elde edilebilir.
Denklemlerin ikincisi birinciden simetri ile elde edilebilir. Yine, xic’in ortalaması açıkça sıfırdır ancak varyansı olmayacaktır. Bağımlı değişkenin hesaplanan değerlerinin yayılmasındaki basit bir ölçüdür.
Böylece, toplam varyans σ2i, X1 ve X2 arasındaki ilişkiden (yani σ2 xci) kaynaklanan varyansın ve doğrusal regresyon çizgisinin verileri doğru şekilde temsil edememesinden kaynaklanan varyansın toplamı olacaktır.
Toplam varyansın σ2i’nin X1 ve X2 değişkenleri arasındaki ilişkiden kaynaklanan parçalara bölünmesi ve ilişkinin verilere uymaması, iki değişkenin ne ölçüde ilişkili olduğunu test etmemizi sağlar.
Rij miktarı, onu yaygın olarak kullanan Karl Pearson’dan sonra Pearson korelasyon katsayısı olarak bilinir. Bu basit korelasyon katsayısı r12, X1 ve X2 değişkenlerinin ortalamalarına göre nasıl değiştiğini ölçer ve her bir değişkenin standart sapmaları ile normalleştirilir.
Bununla birlikte, anlam belki de denklemin en sağındaki biçimden daha açık bir şekilde görülmektedir. σ2’nin basitçe X2j’nin ortalama X2 etrafındaki dağılımını ölçtüğünü, σ2.1’in ise X2j’nin regresyon çizgisi etrafındaki dağılımını ölçtüğünü hatırlayın.
Bu nedenle, σ22.1 varyansı X2 bağımlı değişkeninin tüm varyansını açıklıyorsa, o zaman korelasyon katsayısı sıfırdır ve X2’ye karşı X1 çizimi basit bir rastgele dağılım diyagramı gösterir. Bu, σ2 x2c varyansının sıfır olacağı, yani toplam varyansın hiçbirinin regresyon ilişkisinden kaynaklanmadığı anlamına gelir.
Bu tür değişkenlerin ilişkisiz olduğu söylenir. Bununla birlikte, korelasyon katsayısının büyüklüğü bire yakınsa, σ22.1’in neredeyse sıfır olması gerekir, bu da X2’nin toplam varyansının regresyon ilişkisinin bir sonucu olduğunu gösterir.
Denklemdeki ilk terim tarafından verilen r tanımı, sonraki gösterimlerde kaybolan bir işaret içerir. X1’deki bir artış X2’de bir düşüşle sonuçlanırsa, sapmaların çarpımı negatif olacak ve r12 için negatif bir değer verecektir.
Büyük bir korelasyon katsayısına sahip değişkenler, r12’nin işaretine bağlı olarak yüksek korelasyonlu veya anti-korelasyonlu olarak adlandırılır. İki değişkenden hangisinin bağımlı değişken olarak kabul edildiğinin hiçbir fark yaratmadığı anlamına gelen r12 = r21 olduğuna dikkat etmek önemlidir.
non-parametrik testler nedir parametrik non-parametrik testler Parametrik test nedir Parametrik test örnekleri Parametrik testler Nelerdir Parametrik testler özellikleri Parametrik testler pdf Parametrik ve Nonparametrik nedir