Bayes Teoremi

Son güncelleme: 20.07.2011 11:08
  • Bayes teoreminin ifade edilişi - Bayes teoreminin olabilirlilik terimleri ile ifadesi - Bayes teoreminin değişik şekilleri - Bahis oranı ve olabilirlilik orantısı şeklinde Bayes teoremi - Soyut Bayes teoremi




    Bayes teoremi olasılık kuramı içinde incelenen önemli bir konudur. Bu teorem bir rassal değişken için olasılık dağılımı içinde koşullu olasılıklar ile marjinal olasılıklar arasındaki ilişkiyi gösterir. Bu şekli ile Bayes teoremi bütün istatistikçiler için kabul edilir bir ilişkiyi açıklar. Bu kavram için Bayes kuralı veya Bayes kanunu adları da kullanılır. Ancak bazı istatistikçiler için Bayes teoremi özel olarak değişik bir önem de taşır. Felsefi temelde olasılık değerlerinin nesnesel bir özellik değil, gözlemcinin meydana çıkardığı subjektif bir değer olarak kabul eden subjektivist olasılık düşünürlerine göre Bayes teoremi, yeni kanıtlar ışığında olasılık değeri hakkındaki subjektif inanışların güncelleştirilip değiştirilmesini sağlayan temel bir gereçtir; yani sonsal bir yaklaşımın temelidir.

    Olasılık teorisi içinde incelenen bir 'olay olarak B olayına koşullu bir A olayı (yani B olayının bilindiği halde A olayı) için olasılık değeri, A olayına koşullu olarak B olayı (yani A olayı bilindiği haldeki B olayı) için olasılık değerinden farklıdır. Ancak bu iki birbirine ters koşulluluk arasında çok belirli bir ilişki vardır ve bu ilişkiye (ilk açıklayan istatistikçi İngiliz Thomas Bayes (1702-1761) adına atfen) Bayes Teoremi denilmektedir.

    Formel bir teorem olarak Bayes teoremi, olasılık kavramını inceleyen her türlü değişik felsefi temel fikre bağlı olan her türlü istatisikçi tarafından kabul edilir. Ancak olasılığı objektif bir değer olarak gören ve relatif çokluluk olarak tayin eden çoklulukçu (en:frequentist) ekolüne bağlı olan istatistikçiler ile sübjektivist (veya Bayes tipi) ekoline bağlı olan istatistikçiler arasında bu teoremin pratikte nasıl kullanılabileceği hakkında büyük bir fikir ayrılığı bulunmaktadır. Çoklulukcu ekolüne dahil olanlar olasılık değerlerini rastgele olaylarda meydana çıkma çokluluğuna göre veya anakütlenin altsetlerinin tam anakütleye orantısı olarak saptanması gerekeğini kabul etmektedirler. Bunlara göre yeni kanıtlar karşısında olasılık değerinin değişme imkânı yoktur. Bu nedenle çoklulukcu ekolü için Bayes teoremi sadece koşulluluklar arasında ilişkiyi gösterir ve bunun pratikte kullanılma gücü küçüktür. Halbuki sübjektivist ekolüne göre olasılık gözlemcinin sübjektif belirsizlik ifadesidir. Bu nedenle olasılık değeri sübjektif olup yeni kanıtlar geldikçe değiştirilebileceğine inanmakta ve böylece Bayes teoremini istatistik bir incelemenin temel taşı saymaktadırlar.

    Bayes teoreminin ifade edilişi

    Bayes teoremi bir stokastik sürec sırasında ortaya çıkan bir rastgele olay A ile bir diğer rastgele olay B (eğer B için kaybolmamış olasılık varsa) için koşullu olasılıkları ve marjinal olasılıkları arasındaki ilişkidir, yani
    noimage Bayes teoremi formülü içinde bulunan her bir terime özel isimler verilmektedir:


    P(A) terimine A için önsel olasılık veya marjinal olasılık adı verilir. Bu önseldir, çünkü B olayı hakkında önceden herhangi bir bilgiyi içermemektedir.
    P(A|B) terimi verilmiş B için Anın koşullu olasılığı adını alır.
    P(B|A) terimi verilmiş A için Bnin koşullu olasılığı adını taşır.
    P(B) terimi B olayı için 'önsel' olasılıktır veya Bnin marjinal olasılığıdır ve matematiksel rolü normalize eden bir sabittir.

    Bu şekildeki Bayes teoremini, fazla matematiksel olmadan, sezgiye dayanarak şöyle açıklayabiliriz: Bayes teoremi eğer B gözlemlenmis ise, A gözlemi hakkındaki inançların ne şekilde güncelleştirilebileceğini ortaya çıkartır.
    Bayes teoreminin olabilirlilik terimleri ile ifadesi

    Bayes teoremi olabilirlilik terimleri ile de şöyle ifade edilebilir:
    noimage Burada L(A|b) terimi verilmiş sabit b için Anin olabilirliğidir ve L(A|B)/P(B) orantısına bazan standardize edilmis olabilirlilik veya normalize edilmiş olabilirlilik adı da verilir. Böylece
    noimage ilişkisini kullanarak Bayes teoremi ortaya çıkartılır. Bu sonucu sözcüklerle şöyle de yazabiliriz:
    noimage Daha uygun sözcüklerle
    Sonsal olasılık önsel olasılık ile olabilirlilik çarpımına orantılıdır. Koşullu olasılıklar kullanılarak matematiksel ispat

    Bu teoremi ispat etmek icin koşullu olasılık tanımından başlanır. B olayı bilinirse A olayının olasılığı şöyle verilir
    :
    noimage
    Aynı şekilde A olayı verilmiş ise B olayının olasılığı şudur:
    noimage Bu iki denklem yeniden düzenlenip birbirlerine birleştirilirse,
    noimage ifadesi bulunur. Bu lemma bazan olasılıklar için çarpım kuralı olarak anılmaktadır.
    Her iki taraf da P(B) (eğer sıfır değilse) ile bölünürse, ortaya çıkan şu ifade Bayes teoremidir:
    noimage
    Bayes teoreminin değişik şekilleri

    Bayes teoremi çok kere daha ek kavramlar eklenerek, sanki daha süslü olarak, ifade de edilir. Bunun için önce şu ifade kullanılır:
    noimage Burada AC (çok kere A olmayan olarak ifade edilen) A olayının tamamlayıcısı olur. Bu Bayes teoremi formulüne konulunca Bayes teoremi için yeni alternatif bir formül elde edilir:
    noimage Daha genel olarak, {Ai} olay uzayının bir bölüntüsünü oluşturduğu göz önüne alınca, bu bölüntü içinde bulunan herhangi bir Ai için şu ifade elde edilir:
    noimage

    Toplam olasılık yasası maddesine de bakınız.
    Bahis oranı ve olabilirlilik orantısı şeklinde Bayes teoremi

    Bayes teoremi çok daha düzgünce bir olabilirlik orantısı olan λ ile göreceli olasılıklar oranı veya bahis oranı olan O terimleri ile şöyle ifade edilir:
    noimage
    Burada
    noimage

    B verilimişse A olayının göreceli olasılıklar oranı veya bahis oranı ;
    noimage
    A kendi bahis oranı ve
    noimage
    olabilirlik orantısı olur.
    Olasılık yoğunluk fonksiyonları ile Bayes teoremi

    Bayes teoreminin sürekli olasılık dağılımlarına uygun olan bir şekli de vardır. Olasılık yoğunluk fonksiyonları tıpatıp olasılık olmadıkları için bu şeklin isbatı biraz daha karmaşıktır. Bu şekilde Bayes theoremi bir limit işlemin geliştirilmesi sonucu ile ortaya çıkarlar.
    noimage

    Buna benzer olan bir diğer ifade de toplam olasılık yasası için şöyle ortaya çıkartılabilir:
    noimage

    Aynı genel aralıklı hâl gibi bu formülde bulunan parçalara da özel isimler verilmiştir:


    f(x, y) X ve Y için bileşik dağılımdır;
    f(x|y) Y=y verilmiş iken X in sonsal dağılımıdır;
    f(y|x) = L(x|y) (x in bir fonksiyonu olarak) Y=y verilmiş ise Xin olabilirlilik fonksiyonudur;
    f(x) Xin marjinal dağılımı ve ve Xin önsel dağılımı olur;
    f(y) Yin marjinal dağılımı olur.

    Dikkat edilirse burada biraz alışılmış notasyon karışıklığı kavramına kendimizi kaptırdık. Burada her bir terim icin f notasyonu kullanıldı ama gerçekte bunların hepsi değişik birer fonksiyonlardir. Burada verilen hali ile fonksiyonların birbirinden değişik oldukları ancak içlerinde bulunan terimlerin farklı olmaları ile anlaşılabilmektedir.
    Soyut Bayes teoremi
    Olasılık uzayında verilmiş olan iki mutlak sürekli olasılık ölçümleri P˜Q noimage ve bir sigma-cebiri noimage olsun. Bu halde noimage-ölçülmeli rassal değişken X için soyut Bayes teorem şöyle ifade edilir:
    noimage

    Bu formulasyon şekli Kalman filtreleme tekniğinde Zekai denklemleri bulmak için kullanılır. Bu şekil ayrıca finansman matematiği içinde numeraire değişmesi tekniklerinde uygulanır.
    Bayes teoreminin kapsamının genişletilmesi

    İkiden daha fazla değişken kapsayan problemler icin de Bayes teoremine benzer teoremler oluşturulabilir. Örneğin
    noimage

    Bu Bayes teoreminin ve koşullu olasılık tanımlamasının üzerine birkaç işlem yaparak ortaya çıkarılabilir:
    noimagenoimage

    Bu çalışmalar için uygulanacak genel strateji ortak olasılık için parçalama ile çalışmaya başlayıp ilgimizi çekmek istemediğimiz değişkenleri entregrasyon ile marginalize etmektir. Uygulanan parçalama şekline göre, bazı entegrallerin 1e eşit olup parçalama ifadesinden düşmeleri sağlanma imkânı bulunabilir; eğer bu özellik ve imkân kullanilabilirse gereken hesaplamalar çok önemli şekilde azaltılabilir. Örneğin, bir Bayes tipi şebeke için verilen spesifikasyon dolayısıyla, (geri kalan değişkenler verilmiş olurlarsa) herhangi bir değişken için koşullu olasılık, birkaç değişkenli ortak dağılımın faktorize edilmesi ile belirlenir ve bu nedenle sonucun özellikle basit bir form alması sağlanmış olur. (Markov battaniyesi maddesine bakınız.)
    Örnekler

    Örnek #1: Koşullu olasılıklar

    İki tabak dolusu biskui düşünülsün; tabak #1 içinde 10 tane çikolatalı biskui ve 30 tane sade biskui bulunduğu kabul edilsin. Tabak #2 içinde ise her iki tip biskuiden 20şer tane olduğu bilinsin. Evin küçük çocuğu bir tabaği rastgele seçip bu tabaktan rastgele bir biskui seçip alsın. Çocuğun bir tabağı diğerine ve bir tip biskuiyi diğerine tercih etmekte olduğuna dair elimizde hiçbir gösterge bulunmamaktadır. Çocuğun seçtiği biskuinin sade olduğu görülsün. Çocuğun bu sade biskuiyi tabak #1 den seçmiş olmasının olasığının ne olacağı problemi burada incelenmektedir.

    Sezgi ile, tabak #1de sade biskuvi sayısının çikolatalı biskuvi sayısına göre daha fazla olduğunu göz önüne alınırsak incelenen olasılığın %50den daha fazla olacağı hemen algılanır. Bu soruya cevap Bayes teoremi kullanarak kesin olarak verilebilir.

    Önce soruyu değiştirip Bayes teoremi uygulanabilecek şekle sokmak gerekmektedir: Çocuğun bir sade biskuvi seçmiş olduğu bilinmektedir; o halde bu koşulla birlikte tabak #1den seçim yapması olasığı ne olacaktır?

    Böylece Bayes teoremi formülüne uymak için A olayı çocugun tabak #1den seçim yapması; B olayı ise çocugun bir sade biskui seçmesi olsun. İstenilen olasılık böylece Pr(A|B) olacaktır ve bunu hesaplamak için şu olasılıkların bulunması gerekir:


    Pr(A) veya hiçbir diğer bilgi olmadan çocuğun tabak #1 den seçim yapması olasığı;

    İki tabak arasında tercih olmayıp seçimin eşit olasığı olduğu kabul edilmektedir.


    Pr(B) veya hiçbir diğer bilgi olmadan çocuğun bir sade biskuvi seçmesi olasığı: Diğer bir ifade ile, bu çocuğun her bir tabaktan bir sade biskuvi seçme olasığıdır. Bu olasılık, önce her iki tabaktan ayrı ayrı olarak seçilen bir tabaktan bir sade biskuvi seçme olasıği ile bu tabağı seçme olasığının birbirine çarpılması ve sonra bu iki çarpımın toplanması suretiyle elde edilir. Tabaklarda olan sade biskuinin sayısının toplama orantısından bilinmektedir ki tabak #1den bir sade biskuvi seçme olasılığı (30/40=) 0,75; tabak #2den sade biskuvi seçme olasılığı (20/40=) 0,5 olur. Her iki tabaktan seçme olasılığı ise her tabak aynı sekilde uygulama gördüğü için 0,50 olur. Böylece bu problemin tümü için bir sade biskuvi seçme olasılığı 0.75×0.5 + 0.5×0.5 = 0.625 olarak bulunur.

    Pr(B|A), veya çocuğun tabak #1den seçim yaptığı bilirken bir sade biskuvi seçmesi.: Bu 0,75 olarak bilinmektedir çünkü tabak #1deki toplam 40 biskuviden 30u sade biskuvidir.

    Şimdi bu açıklanan tüm olasılık değerleri Bayes teoremi formüne konulabilir:

    noimage
    Böylece çocuğun tabak #1den seçim yaptığı bilindiğine göre bir sade biskuvi seçimi yapmasının olasılığı %60dir ve sezgimize göre seçtiğimiz %50den daha büyüktür.
    Ortaya çıkma tabloları ve orantısal çokluklar

    Koşullu olasılıkları hesaplarken her bir bağımsız değişken için her mümkün sonucun ortaya cikma sayısını veya her sonucun relatif çoklulukunu gösteren basit bir tablo hazırlamak konuyu daha iyi anlamaya yardımcı olabilir. Biskuvi örneği için bu yöntemin kullanışını gösteren tablolar şöyle verilmiştir:

    Her tabakta bulunan değişik tip biskui sayısı Her tabakta bulunan değişik tip biskui oranları Tabak #1 Tabak #2 Toplamlar Çikolatalı 10 20 30 Sade 30 20 50 Toplam 40 40 80 Tabak #1 Tabak #2 Toplamlar Çikolatalı 0.125 0.250 0.375 Sade 0.375 0.250 0.625 Toplam 0.500 0.500 1.000 Sağdaki tablo, sol taraftaki tablo içindeki her bir hücre elemanını toplam biskui sayısı (yani 80) ile bölerek elde edilmiştir.
    Örnek #2: Yeni ilaç sınamaları [değiştir]

    Yeni bir uyuşturucu madde testinin değerlendirilmesinde de Bayes teoremi yardımcı olabilir. Bu testin bir uyuştürcü madde sınamasında %99 kesin sonuç verdiğını kabul edelim; yani bu test bir uyuşturucu madde kullanan için %99 defa doğru olarak pozitif sonuç verecek ve uyuşturucu madde kullanmayan için negatif sonucu da %99 defa verecektir. Bu olasılıkların yüksek oluşu bu testin nisbeten hatasız olduğu sonuç çıkarabilir; ancak Bayes teoremini kullanırsak bu düşüncemizin pek doğru olmadığı ortaya çıkacaktir.


    Bir iş yeri çalışanlarını heroin kullanıp kullanmadıklarını sınamak istediğini ve çalışanlaradan yüzde yarımının (%0,5) eroin kulladığını kabul edelim. Aradığımız netice, bir çalışan için bir test yapıldıktan ve pozitif sonuç alındıktan sonra bu çalışanın gerçekte eroin kullanıcısı olma olasılığının ne olduğunu bulmaktır.
    "E" bir eroin kullanıcı olmak olayı ve "N" eroin kullanıcı olmam olayı olarak gösterilsin. "+" test, positif sonuç göstermesi olayını belirtsin. Bu halde şunları bilmemiz gerekmektedir:


    Pr(E) veya başka bir bilgi bulunmadan çalışanın gerçekte eroin kullanıcı olması olasılığı

    olsun; çalışanlardan yüzde yarımı (%0.5) eroin kullanıcısı olduğuna göre bu olasılık 0.005 olarak ifade edilebilinir.


    Pr(N) çalışanın gerçekte eroin kullanıcı olmaması olasılığı olsun. Bu 1-Pr(E) veya 0.995 olur.
    Pr(+|E) : Çalışanın bir eroin kullanıcısı olması bilindiği halde testin pozitif sonuç vermesinin olasılığı. Test %99 kesin sonuç verdiğine göre bu olasılık 0.99 olur.



    Pr(+) : Diğer bilgi olmadan testin pozitif sonuç vermesi olasılığıdir. Bu sonuç bulmak için önce eroin kullanması halinde testin hatalı pozitif verme olasılığı (ki bu %99 x %0,5 = %0,495) artı eroin kullanıcısı olmama halinde testin hatalı pozitif sonuç vermesi olasılığı (0,01 x 0,995= %0.995); yani 0.0149 %1.49 olur.

    Bu bilgisi sıraldıktan sonra sınamada pozitif sonuç vermiş bir çalışanın gerçekte eroin kullanıcısı olması olasılığı şöyle bulunur:
    noimage Test yüksek oranda "+" sonuç vermesine rağmen, genel tolulukta eroin kullanımı çok düşük olduğundan, positif testli bir çalışanın gerçekte eroin kullanıcısı olması olasılığı %33 olur. Test için konu alınan olay ne kadar nadir görülmekte ise testeki pozitif sonuçların hatalı pozitif olmaları olasılığı o kadar artacaktir. Bu uyuşturucu madde sınamasında testin tekrarlamanın neden gerektirdiğini de açıklamaktadır. Aynı örnek AIDS testi ve diğer testler için de geçerlidir.
    Örnek #3: Bayes tipi çıkarımsal analiz

    Ana madde: Bayes tipi çıkarımsal analiz Bayes Teoreminin uygulanmaları için çok defa Bayes tipi olasılık konusunun altında bulunan felsefeyi, yani belirsizlik ve inançların dereceler ıskalası bulunduğu hakkındaki açıklamaları, kabul ederiz. Bu örneğinden başka işlemlere tabi tutulmuş örnekler Bayes tipi çıkarımsal analiz de bulunabilir.
    Bir değişken olan A'nin marjinal olasılık dağılımını önsel olasılık dağılım veya daha basite önsel olarak tanımlayalım. B "verisi" verilmiş olduğu halde A için koşullu dağılıma sonsal olasılık dağılım veya sonsal adı veriyoruz.
    Bir referendum yapılması halini ele alalım. Bu referendumda bir soru sorulduğu ve sadece buna "evet" veya "hayır" olarak verildiğini düşünelim. Bu referendum sonucu için büyük bir anakütlede evet yanıtına oy veren kısmının toplama oranının r olduğunu kabullenelim. (İstatistiksel bağımsızlık sağlamak nedeni ile seçtikten sonra geri koyulma usulünü kullanarak) n sayıda seçmeni basit rassal örnekleme ile örneklem olarak seçelim; elde edilen bu örneklemde bulunan evet yanıtına oy veren seçmen sayısının m olduğunu düşünelim. Düşünelim ki bir gözlemde bu parametreler n = 10 seçmen and m = 7 evet oyu veren seçmen olsun. r için olasılık dağılım fonksiyonunu Bayes teoremini kullanarak şöyle bulabiliriz:
    noimage Bundan görülür ki f(r) önsel olasılık dağılım fonksiyondan ve L(r) = f(m = 7|r, n = 10) olabilirlilik fonksiyonundan f(r|n = 10, m = 7) sonsal olasılık fonksiyonunu hesaplayabiliriz.
    f(r) önsel olasılık dağılımı, hiçbir gözlem yapılmadığı veya bulunmadığı halde r nin dağılımı hakkında bilgilerimizi özetler. Geçici olarak, bu halde r için önsel dağılım fonksiyonunun [0,1] aralığında bulunan bir tekdüze dağılım olduğunu kabul edelim; yani f(r) = 1. Eğer arka planda bulunan diğer bilgileri daha önceden biliyorsak bu önseli bunlara dayanarak değiştirebiliriz ama şu ilk bakışta bütün sonuçların aynı olasılıkta olduğu geçici olarak kabul edilmektedir.
    Rastgele örnekleme hakkında yaptığımız varsayım dolayısıyla, seçmenleri bu örnekleme ile seçme, bir küp problemi, (bir küp veya benzeri bir kap içinde bulunan çeşitli renkli toplardan birini seçme problemi) ile aynıdır. Bu tip problem için olabilirlilik fonksiyonu L(r) = P(m = 7|r, n = 10,) olur ve bu 10 çekiş sınamasında 7 başarı bulmanın binom dağılımı olur:
    noimage Bir önsel olduğu için bu olabilirlilik değişmeye maruz kalabilecektir - daha karmaşık on varsayımlar daha karmaşık olabilirlilik fonksiyonlar ortaya çıkaracaktır. Şu halde basit varsayımlarımızı olduğu gibi kabul edelim ve şu normalize etme faktörünü hesaplayalım:
    noimage Bu halde r için sonsal dağılım şu olur:
    noimage burada r değerleri 0 ve 1 e de eşit olarak 0 ile 1 arasındadır.
    Bir diğer sorun olarak seçmenlerin yarısından çoğunun "evet" oyu vermesinin olasılığının ne olabileceği ile ilgilenebiliriz. Bu halde seçmenlerin yarısından çoğunun "evet" oyu vermesinin önsel dağılımı (tekdüze dağılımın simetrik olması nedeniyle) (1/2)ye eşit olur. Buna karşılık, seçmenlerin yarısından daha fazlasının evet oyu vermesinin sonsal olasılığı (yani oylamadan önceki yapılan anket sonuçları) 10 seçmenden 7sinin "evet" oyu vereceğini bize açıklamıştır; yani
    noimage veya bu sonsal olasılık yaklaşık %89 olarak hesaplanır.
    Örnek #4: Monty Hall problemi [

    Ana madde: Monty Hall problemi Bir TV oyun programında üç tane (kırmızı, yeşil ve mavi boyalı) kapalı kapı gösterilmekte ve bu kapılardan birisinin arkasında bir armağan bulunmaktadir. Kırmızı kapıyı seçtiğimizi düşünelim; ama bu kapı program sunucunun bir faaliyet göstermesini bitirmeden açılmamaktadır. Program sunucusu hangi kapı arkasında armağan bulunduğunu bilmektedir; ama ona verilen direktife göre ne arkasında armağan bulunan kapıyı ne de seçtiğimiz kapıyı açabilir. Yeşil kapıyı açar ve arkasında bir armağan bulunmadığını gösterir ve şu soruyu yarışmacıya sorar: "İlk tercihiniz olan kırmızı kapı hakkında fikrinizi değiştirmek ister misiniz?" İncelenecek sorun şudur: "Armağanın mavi veya kırmızı kapılar arkasında bulunma olasılıkları nedir?"
    Yarışmanın ana sonuçları olan değişik renkli kapılar arkasında armağan bulunmasını şöyle ifade edelim: :Ak, Ay ve Am. İlk olarak her bir kapı arkasında armağan bulunması birbirine eşit olasılık olduğu kabul edilir yani noimage olur. Yine düşünelim kırmızı kapıyı yarışmacı seçmiş durumdadır. Sunucunun yeşil kapıyı açması olayına B olayı adını verelim. Arkasında armağan bulunan kapıyı bilmeseydi bu olay için olasılık %50 olacaktır.


    Eğer gerçekte armağan kırmızı kapı arkasinda ise, sunucu ya yeşil ya da mavi kapıyı acmakta serbest olacaktır. Bu halde P(B | Ak) = 1 / 2
    Eğer gerçekte armağan yeşil kapı arkasında ise, sunucu mavi kapıyı acacaktır. Yani P(B | Ay) = 0.
    Eğer gerçekte armagan mavi kapı arkasında ise, sunucu yeşil kapıyı acacaktır. Yani P(B | Am) = 1.

    Böylece

    noimage


    Dikkatle incelenirse bunun P(B) değerine bağlı olduğu görülecektir. Bir an armağanın kırmızı kapı arkasında olmadığını farzedelim; o halde sunucunun yeşil kapıyı açma olasılığı çok yüksek olacaktır - diyelim %90. Bundan dolayı, eğer sunucu başka kapı açmaya zorlanmadıkca, yeşil kapıyı açmayı tercih edecektir. Böylece, B olayı olasılığı 1/3 * 1 + 1/3 * 0 + 1/3 * 9/10 = 19/30 olur.

    noimage


    Bu nedenle sunucunun yeşil kapıyı açması bize çok az bilgi vermektedir - zaten bu seçimi yapmak zorundadır. Pr(Am) olasılığı 1/2ın çok az üstündedir.
    Buna karşılık, armağanın kırmızı kapı arkasında olduğunu farzedersek; o halde sunucunun yeşil kapı açma olasılığı çok küçük olacaktır - diyelim %10. Bu demektir ki özellikle zorlanmadıkça sunucu nerede ise hiç bir halde yeşil kapıyı açmayacaktır.
    O halde B olasigi 1/3 * 1 + 1/3 * 0 + 1/3 * 1/10 = 11/30 olur

    noimage
    Bu halde, gerçekte sunucunun yeşil kapıyı açması bize çok önemli bilgi vermektedir. Armağan nerede ise hiç şüphesiz olarak mavi kapı arkasında bulunmaktadır. Eğer mavi kapı arkasında değilse, sunucu çok muhtemelen mavi kapıyı açacaktı.
    Birkaç tarihsel açıklama [değiştir]

    Bayes Teoremi, (mordern terimlerle) bir binom dağılımin parameteresinin olasılık dağılımının hesaplanmasını incelemekte olan, İngiliz Rahip Thomas Bayes (1702-1761) tarafından bulunmuştur. Bu çalışma Bayes yaşamakta iken yayınlanmamış; ancak Bayes'in ölümünden sonra 1763de yakın arkadaşı olan "Richard Price" tarafından yayına hazırlanıp bastırılmıştır.
    Bayes'in çalışmalarından haberdar olmayan Fransız matematikci Pierre-Simon Laplace aynı sonuçları aynen sırf kendi gayretiyle yeniden çıkartıp genişleterek 1774de yazdığı bir makalede yayınlamıştır.

    Bir Amerikan istatistik profesörü (Stigler 1983), yaptığı bir araştırma sonucunda, Bayes Teoremi'nin, Bayes'ten bir süre önce Nicholas Saunderson tarafından bulunduğunu öne sürmüştür.
#20.07.2011 11:08 0 0 0