Garry's Notes

  • Home

  • About

  • Tags

  • Archives

Footprint

Posted on 2019-06-24

The Great Ocean Road

Posted on 2018-11-18












长城

Posted on 2018-11-18







支持向量机

Posted on 2018-11-12

支持向量机

逻辑回归模型

Posted on 2018-11-12

逻辑回归模型

Wide & Deep 模型

Posted on 2018-11-11

Wide & Deep 模型

决策树

Posted on 2018-11-08

决策树

LaTex输出中文

Posted on 2018-11-07

要在LaTeX文档中输出中文可以使用CTex包。参考官方文档。
下面是一个demo代码,仅供参考。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
\documentclass[UTF8]{ctexart}
\usepackage{amsmath}
\begin{document}

\section{ 梯度下降法 }
梯度下降法(gradient descent)是求解无约束最优化问题的一种最常用的方法,有实现简单的特点。梯度下降法是迭代算法,每一步需要求解目标函数的梯度向量。\\
输入:目标函数$f(x)$,梯度函数$g(x)=\nabla f(x)$,计算精度$\varepsilon$。\\
输出:$f(x)$的极小点$x^*$。\\
(1)取初始值$x^{(0)} \in \mathbf{R}^n$,置$k=0$\\
(2)计算$f(x^{(k)})$
(3)计算梯度$g_k=g(x^{(k)})$,当$\|g_k\|<\varepsilon$时,停止迭代,令$x^*=x^{(k)}$;否则令$p_k=g(x^{(k)})$,求$\lambda_{k}$,使
\begin{equation*}
f(x^{(k)}+\lambda_{k}p_{k})=\min_{\lambda \geq 0} f(x^{(k)}+\lambda p_{k})
\end{equation*}
(4)置$x^{(k+1)}=x^{(k)}+\lambda_kp_k$,计算$f(x^{(k+1)})$\\
当$\|f(x^{(k+1)})-f(x^{(k)})\|<\varepsilon$或$\|x^{(k+1)}-x^{(k)}\|<\varepsilon$时停止迭代,令$x^*=x^{(k+1)}$\\
(5)否则,置$k=k+1$,转(3)。\\
当目标函数是凸函数时,梯度下降法的解是全局最优解。一般情况下,其解不保证是全局最优解。梯度下降法的收敛速度也未必是最快的。
\end{document}

最优化方法

Posted on 2018-11-07
  • 梯度下降法

算法工程师修炼

Posted on 2018-11-03 | Edited on 2018-11-13

读书列表

  • 推荐系统实战(豆瓣):比较薄的一本书,适合对推荐系统感兴趣的新手入门学习。
  • 统计学习方法(豆瓣):墙裂推荐!!!每个算法工程师都应该读这本书,最好能把书里的推导自己推一遍.
12…4

Garry

36 posts
15 categories
28 tags
© 2019 Garry
Powered by Hexo v3.7.1
|
Theme – NexT.Muse v6.4.1