code

2017年2月1日 星期三

Machine Learning筆記3 - Block3: Maximum Likelihood Estimation

Learn the theta parameters

這是data modeling的第三部分,我們要用一個方法來找出model的真正theta。

這邊提的例子是怎麼找出iid multivariate Gaussian的theta,使用的是maximum likelihood estimation方法,這是probabilistic model常見的learning 方法。

Objective function

我們需要一個數學函數來評斷,目前找到的theta是好還是壞,這稱為objective function。

取決於我們怎麼定義objective function的評斷機制,我們需要找出一個演算法來maximize/minimize objective function。

延續之前的例子,maximum likelihood equation就是一個objective function:

解讀以上的式子:我們已經採用某個joint probability distribution當作我們的distribution model,maximum likelihood estimate就是要找出哪一個theta能有較大的joint probability。所以理所當然的,我們希望可以找出一組theta_head (此theta_head稱為maximum likelihood estimate)最大化joint probability,也就是要最大化maximum likelihood estimate這個objective function。

另外一個說法就是我們在盡可能地找出參數來fitting data

最大化Maximum Likelihood Equation

根據微積分,某個function的gradient(梯度)等於零的時候"可能"有最大值(peak),以下是取某一維f(theta)示意圖:


所以找出theta_head可以用以下的數學表示,注意我們已經假設data vector都是i.i.d.,所以可以把joint probability寫成個別P(xi)的乘積:


上面式子的白話文就是找出一個theta,使得joint probability function的gradient為零。
怎麼找呢?

按照以上數學定義,牽涉到了對多項目乘積的微分,相當困難計算。想到簡化某多項式的乘積的話,取log是一個方法。

Logarithm Trick

logarithm是一個monotonically increasing function,意思是f(x) <= f(y)如果x < y (定義域為R+):



所以某個定義域在R+的function取log之後,即便所有的output都改變了,但是output的“相對大小”保持不變,亦即某xi使得f(xi)為最大值的話,也會在log(f(xi))得到最大值。


有了這個monotonically increasing的性質,我們可以把objective function取log後如下:


這把乘積簡化成log的和。


摘要簡化流程

要找出maximum likelihood estimate theta_head使得joint probability最大化相當於找出同樣的theta使得logarithm trick之後的式子最大化:


而要找出theta_head,我們依照微積分的gradient性質,嘗試找出最右邊function當gradient = 0的時候的theta。我們可以把gradient operator放入summation符號之後,因為gradient其實就是微分,對和作微分等同於先作微分再取和


好吧,雖然簡化了,不過要計算sum of gradient 使之等於零,簡單與否還是取決於probabilistic model。這邊可以數學上算出真正的值,或是用iterative演算法逼近直到converge,但不一定會逼近到global optimal。

12 則留言:

  1. Thank you for sharing wonderful information with us to get some idea about that content. check it once through
    Best Machine Learning institute in Chennai | Best Machine learning training | best machine learning training certification

    回覆刪除
  2. Great post I must say and thanks for the information. Education is definitely a sticky subject. However, is still among the leading topics of our time. I appreciate your post and look forward to more. 4 ps of marketing

    回覆刪除
  3. How to combine MLE with supervised learning?

    回覆刪除
  4. Thanks for your valuable post, Really nice and very informative.
    ecommerce website development

    回覆刪除