If you're seeing this message, it means we're having trouble loading external resources on our website.

Bağlandığınız bilgisayar bir web filtresi kullanıyorsa, *.kastatic.org ve *.kasandbox.org adreslerinin engellerini kaldırmayı unutmayın.

Ana içerik

(n -1)'in Tarafsız Değer Verdiğinin Kanıtı, Simülasyon

Khan Akademi kullanıcısı tetef'ten yansız nüfus varyansı kestirimi için (n-1)'e bölünmesi gerektiğini gösteren simülasyon. Simülasyon bu adreste: http://www.khanacademy.org/cs/will-it-converge-towards-1/1167579097. Orijinal video Sal Khan tarafından hazırlanmıştır.

Tartışmaya katılmak ister misiniz?

Henüz gönderi yok.
İngilizce biliyor musunuz? Khan Academy'nin İngilizce sitesinde neler olduğunu görmek için buraya tıklayın.

Video açıklaması

Burada bir Khan Akademi izleyicisinin yazdığı bir simülasyon var ve bu simülasyon, örneklem varyansını bulurken neden n eksi 1 ‘e böldüğümüzü ve bunun, n eksi 1'e bölmenin, nasıl popülasyon varyansı hakkında tarafsız bir tahmin yapmamızı sağladığını... Bunun mantığını gösteriyor. Sizin de bu simülasyonu denemenizi tavsiye ederim. Mavi alanı tıklayarak bir dağılım oluşturabilirsiniz. İşte bir popülasyon oluşturuyoruz. Her tıkladığımda popülasyonun boyutu artıyor. Bunu rastgele oluşturuyorum. Bu arada, Khan Akademi bilgisayar kısmında bu simülasyonu bulabilirsiniz. Evet, popülasyonu oluşturdum. Bazı rastgele noktaları atabilirim. Evet, popülasyonumuz böyle ve gördüğünüz gibi, ben popülasyonu oluştururken popülasyon parametreleri de hesaplanıyordu. Popülasyon parametreleri de, bir yandan, hesaplanıyordu. Popülasyon ortalaması 204,09 olarak hesaplandı ve popülasyon standart sapması da popülasyon varyansından bulunuyor. Standart sapma popülasyon varyansının kareköküdür ve değeri 63,8'dir. Ayrıca şu aşağıda popülasyon varyansının grafiği de çiziliyordu. 63,8'i standart sapma olarak görüyorsunuz. Görmesi biraz zor ama burada kare yazıyor. Bu sayıların karesi, yani 63,8'in karesi, popülasyon varyansı. Bu her ne kadar ilginç olsa da, neden n eksi 1‘e bölmemiz gerektiğini bize göstermiyor ve asıl ilginç olan bu. Şimdi örneklemler seçmeye başlayabiliriz ve istediğimiz örneklem boyutunu belirleyebiliriz. Küçük örneklemlerle başlıyorum. Mantıklı olan en olası örneklemle. Küçük örneklemlerle başlayacağım ve simülasyon bana her örneklemin varyansını hesaplayacak. Yani pay bölümünde her veri noktasının örneklem ortalamasından farkının karesini alacak ve bu kareleri toplayacak. Sonra n artı a'ya bölecek ve a'ya değişik değerler verecek. n artı eksi 3 yani n eksi 3 ile başlayacak ve n artı a'ya kadar gidecek ve bunu defalarca yapacak. Bu varyansların her a için ortalamasını alacağız ve hangi tahminin en iyisi olduğunu tespit edeceğiz. Şimdi burada bir örneklem oluşturayım. Burada bir eğri görüyoruz. Yüksek a değerleri için, tahminimiz düşük kalıyor. Daha düşük a değerleri için ise, popülasyon varyansının üstünde bir tahminde bulunuyoruz. Ama bu sadece bir örneklem için bulundu, o yüzden, o kadar da anlamlı değil. Birkaç örneklem oluşturalım ve ortalamaları defalarca alalım. Birçok örnekleme baktığımızda, ilginç bir şey fark ediyoruz. Bu örneklemlerin ortalamalarına baktığımızda ve tüm bu örneklemlerin eğrilerinin ortalamasını aldığımızda, en iyi tahminimizin a'nın eksi 1'e yakın olduğu durumda bulunduğunu görürüz. Yani n artı eksi 1 veya kısaca, n eksi 1. Eksi 1'den küçük bir değer için, n eksi 1,05 veya n eksi 1,5 için varyansın üstünde bir tahminde bulunduğumuzu görüyoruz. Eksi 1'den büyük bir sayı için, n artı 0 n artı 0,05 durumunda düşük tahminde bulunmaya başlıyoruz. Bu işlemi farklı boyutta örneklemler için de yapabiliriz. 6 boyutunda bir örneklemi deneyeyim. Örneklemi oluşturuyorum. Örneklemleri artırdıkça ve varyans için tüm a değerleri kullanılarak ortalama aldıkça, yine en iyi tahminin eksi 1'ye yakın olduğunu görebiliriz. Eğer milyonlarca örneklem için bu işlemi yaparsanız, en iyi tahminin a eksi 1 olduğunda veya n eksi 1'e böldüğümüzde olduğunu göreceksiniz. Bu simülasyon için izleyicimize tekrar teşekkür ediyorum. Tekrar teşekkürler... Neden n eksi 1'e böldüğümüzün ilginç bir gösterimi olmuş. Teşekkürler.