Model & Learning Objective
摘要一下目前所講的:解logarithm equation
真的去微分來解,先對mean做偏微分:當mean = empirical average的時候,上面等式成立:
所以跟covariance無關(所以我們才先求mean_hat),這樣我們就求出了maximum likelihood mean。
再來就是對covariance做偏微分,這是一個dxd matrix:
最後得出一個covariance和mean的function,我們把maximum likelihood mean帶入:
上面式子就是maximum likelihood covariance,正好是empirical covariance。
必須承認,對multivariate calculus不熟悉,看這些式子還真一隻半解。
沒有留言:
張貼留言