Assalammu’alaikum,
baiklah setelah kemarin 2 kali seminar (seminar inaicta dan tesis) lau di hari Jum’at, 18 September 2015, 2 kali sidang (sidang tesis dan sidang Jum’at yang berbahagia) hehee… Ada pertanyaan yang dasar banget yang saya tidak bisa jawab, sebenarnya sebelumnya pernah baca penjelasan mengenai MSE dari mana asalnya, tapi saya ngeblank bener-bener lupa, dan memang belum tahu kenapa MSE seperti itu (tujuan squared, atau RMSE dengan tambahan akar pangkat 2 dari error). Jadi pertanyaannya kurang lebih :
- apa arti pangkat 2 dari pada RMSE atau MSE?
- kenapa dalam MSE yang saya gunakan dalam penelitian tesis itu 1/2m, dimana ‘m’ adalah jumlah data, dan kenapa dalam RMSE digunakan squared root atau akar pangkat 2?
- dan apa perbedaanya MSE dan RMSE? kenapa tida jumlahkan errornya lalu bagi jumlah data saja?
Saya agak ngeblank , mencoba mengingat apapun yg pernah saya baca atau lihat videonya, dalam referensi machine learning banyak yg menyebutkan karena “lebih sering digunakan”, tapi kenapa bentuk fungsinya hrs seperti itu? karena make sense kenapa tidak langsung saja delta atau error dibagi jumlah data (absolute error). Setelah sampai masjid baru inget, ada di part video Andrew Ng (entah bagian discussionnya) hahaha…
time to googling dan stackexchange 😀
Nah setelah mendapatkan beberapa informasi berikut hasil pencarian dan diskusi di FB dengan para ahli yg lebih ahli dan lebih senior hehe :
“Revisiting a 90-year-old debate: the advantages of the mean deviation, lebih cenderung ke mean deviation… tapi http://stats.stackexchange.com/…/mean-absolute-deviation-vs… ,
“the mean deviation is rarely used”…. ada yang bilang agar lebih efisien, atau lebih mudah…
http://stats.stackexchange.com/…/why-square-the-difference-…
https://ww1.cpa-apc.org/Publicat…/…/PDF/1996/Oct/strein2.pdf
http://www.leeds.ac.uk/educol/documents/00003759.htm
Mean Deviation vs Standard Deviation..
untuk penggunaan 1/2m hanya untuk mempermudah membaca cost function dengan mengkalikan dengan setengah. hasilnya akan sama, terhadap proses minimisasi gradien.
Dan berikut beberapa komentar diskusi di FB : Continue reading →