Bayesian Belief Network

Assalammu’alaikum,

Kali ini saya ingin mencoba share mengenai bayesian belief network, suatu metode dalam machine learning yang masuk ke dalam kategori supervised learning. Pada dasarnya belief network mengambil teori dasar bayessian, yang memanfaatkan distribusi probabilitas pada setiap features yang diketahui. Namun yang membedakan adalah dalam belief network menggunakan suatu network yang merepresentasikan kondisi pengetahuan dependensi dan in-dependensi setiap features yang ada dalam suatu kasus atau dataset. Berbeda dengan naive bayes yang tidak melihat kemungkinan dependensi dan in-dependensi setiap features (attributes), dan itu dapat dilihat dari representasi metode yang digunakan naive bayes. Tentunya dengan melihat model yang dihasilkan adalah berupa inferences yaitu distribusi probabilitas setiap features dalam network maka belief network dapat menjadi alternatif metode yang lebih baik dibanding naive bayes yang tidak melihat kemungkinan tersebut.

Contohnya adalah jika kita memiliki 6 atribut yang dapat menentukan berbagai kondisi, seperti lightning, thunder, atau kebakaran hutan seperti dibawah ini:

download

 

Di atas merupakan contoh yang saya ambil dari buku machine learning tom mitchel, disana terlihat terdapat 6 atribut dan network yang menjelaskan dependensi dan in-dependensi dari setiap atribut.

Misalkan untuk Lightning atau petir akan terjadi jika terdapat probabilitas yang besar untuk storm atau kilat akan terjadi ketika badai, dan thunder atau gemuruh guntur akan terjadi ketika petir sudah terjadi, atau jika kita memiliki probabilitas lightning yang cukup besar maka probabilitas thunder pun akan meningkat.

Bagitu juga kebakaran hutan, jika terjadi petir dan badai ditambah ada yang membuat api unggun, maka probabilitas terjadinya kebakaran hutan akan meningkat.

Artinya network tersebut merupakan representasi distribusi probabilitas (joint distribution) antar setiap variable.

Menurut David Heckerman ada empat skenario yang dapat terjadi di dalam belief network:

  • Scenario 1: Given both the network structure and all variables observable: compute only the CPT entries
  • Scenario 2: Network structure known, some variables hidden: gradient descent (greedy hill-climbing) method, i.e., search for a solution along the steepest descent of a criterion function
    • Weights are initialized to random probability values
    • At each iteration, it moves towards what appears to be the best solution at the moment, w.o. backtracking
    • Weights are updated at each iteration & converge to local optimum.
  • Scenario 3: Network structure unknown, all variables observable: search through the model space to reconstruct network topology
  • Scenario 4: Unknown structure, all hidden variables: No good algorithms known for this purpose

D. Heckerman. A Tutorial on Learning with Bayesian Networks. In Learning in Graphical Models, M. Jordan, ed. MIT Press, 1999.

Dan mungkin sedikit dapat membantu, berikut slide yang pernah saya dan teman-teman saya buat :

*sebelumnya maaf saya sendiri agak bingung, karakter untuk point bulat hitam di slide berubah menjadi huruf china sepertinya ya, ketika di convert ke pdf hehehe

 

 

Karena saya sedang malas menulis, jadi sekian dulu hehehe , mungkin lain kali artikel ini bisa saya perbaiki dilain kesempatan hehehe

Advertisements

2 thoughts on “Bayesian Belief Network

  1. Eko Khannedy March 18, 2015 / 11:47 am

    si hendri mah paling ge cuma kontribusi DOA doank

    • situkangsayur March 18, 2015 / 11:50 am

      damn, emang2 tukang mie ayam ikut nimbrung di dieu deui :p

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s