深度之眼长期招募人工智能兼职讲师,年薪可达30W,
事半功倍的啃书姿势内容分以下六个部分:
一、我的学习历程(不喜欢听啰嗦的可以从第二部分开始)
二、学习《统计学习方法》遇到的困难
三、 在学习过程中碰过的壁
四、最后解决问题的方法
五、学习心得以及对后来的学习者的建议
六、学习社群以及福利
01
我的学习历程
简单介绍一下我的学习路程,一开始入门机器学习,觉得大多数入门的通病都是漫天的去网上找贴吧找资源,然后网盘保存了一大堆资料,每个吃一点不断的遴选符合自己口味,但又茫然不确定自己选的资料好不好,这段时间费时费神,后来也是看多了发现基本机器学习入门绕不开的两本书就是李航的《统计学习方法》和周志华的《机器学习》,一本小蓝书和一本西瓜书。
我觉得两本是相互补充的,西瓜书概括性比价好,但是公式推导稍微缺一点,统计学习方法有比较详尽的公式,但有些内容也不够全面,两本总得先看一本,就看个人选择。不过还得有时间去“磨”了。
为什么用“磨”这个字,因为这种基础性的理论和公式推导只能磨,没什么取巧,其实相对于现在编程生态库,大把数据科学的计算库可以直接计算,学习基本的调用接口和一些基础概念,对于数据科学的大多数方法的确是可以使用的了。
那为什么这么费力从基础理论去熟悉这些公式呢?那就见仁见智了,个人观点,暂时也不讲职场、课题需要啊之类,公式理论不过一遍,你不虚吗?
李航的《统计学习方法》作为机器学习的入门书籍,第一版是2012年出版的,只是包含了主要的监督学习算法, 2019年出了第二版,增加了无监督学习的主要算法,每一个算法模型背后都有深刻的理论和不同的应用场景,但有时候不经意之间又发现他们相通的地方,可能这就是数学有意思的地方吧。
02
学习《统计学习方法》遇到的困难
1.知识涉及面
高等数学、线性代数那些不谈,统计学习方法基本都会涉及到相关知识和概念,还会涉及到数值分析、凸优化理论以及矩阵论部分知识,当然不指望具备所有的知识储备,大部分人还是在学习过程中,缺啥补啥,而这个缺啥补啥的过程,有时候可能都忘记一开始本来要解决的问题。
打个比方,例如在学习支持向量机的时候遇到的小场景。
在推导支持向量机的间隔最大化问题时,其实就相当于求解约束最优化问题,而常常这类问题采用拉格朗日对偶性来将原始问题转换为对偶问题,引入广义拉格朗日函数并加以条件约束才能等价于原始问题。
等整理笔记,弄清楚了什么是约束优化问题,什么是对偶问题,什么是广义拉格朗日函数后,得到了最后原始问题的对偶问题,我发现仍然并没有知道怎么求解对偶问题,有点尴尬。进一步,为了搞明白原始问题和对偶问题的关系,就需要补充最优化方法的知识,所以继续……
到最后大致理解KKT条件后,算是对凸优化的求解过程有了初步的了解,那回到原本的原始问题,我本来要干啥来着……
所以如果有提前的知识储备,那么学习小蓝书是相对水到渠成的过程,若功课欠缺,那么知识的广度就需要花一定时间去补课了。不幸的是,个人知识储备也一般,也是在缝缝补补中过来的,这个过程的确比较头疼。
2.公式推导
公式推导是小蓝书的一大“特色”,基本第一次翻小蓝书都容易被冗长的公式劝退,并且在书本上很多公式并没有提供很详尽的推导公式,稍微省略一下就找不到北,有时候每个小标识符号代表涵义也易弄混,简单看一下多元正态分布参数的极大似然估计。
公式推导有时候消除或者合并就直接变形了,看不出来就卡住,不懂的时候疯狂查,才能理顺整个过程。大部分公式推导在深度之眼的课程老师还是都推了一遍,这的确是省了很多时间,不过具体推导过程还是得自己过一遍。
个人认为公式多是多,但有别以前的应试模式,我们不需要把公式背下来,最主要是通过推导公式的过程,理解和掌握算法的基本原理,以此巩固对算法的印象。虽然不可否认,要推导的公式还是挺多的。
3.学以致用
学习统计学习方法还有一个很重要的问题,就是怎么转换为工程能力,毕竟理论是理论的,弄懂了理论问题,主要是为了解决应用问题,实现代码复现。一般的基础公式还能进行直接代码复现,但是有些复杂的公式就很考验代码复现能力了。举个代表的例子,感知机模型。
感知机模型是二分类的线性分类模型,公式也相对简单,写好代价和损失函数基本就可以直接迭代计算。但是感知机是神经网络的基础,如果拓展到了BP算法上,就会显得复杂。
梳理清楚理论的过程,才能明白传播的过程,不然光是一层层的小标点符号,写了几个for循环,人也蒙圈了,更遑论对计算过程向量化,提高计算速度之类的优化。所以学习过程中,怎么学以致用实现代码复现也是很重要的一点。
03
在学习过程中碰过的壁
所谓的“壁”就是一堵墙,明知道自己走不对还死磕,钻牛角尖。在学习过程中,碰得最多的壁就是钻牛角尖,可是于个人而言,真没办法,并不是人人都是一点通,有一些概念没接触过,一开始没法消化,一知半解然后对公式进行推导,就容易觉得矛盾,可是本质上还是对概念的理解不深。还是以SVM支持向量机作为例子,当初有个问题就是纠结老长时间。
课本上也是一带而过,也有找课程讲解,但是绕进思维的死胡同,就比较难跳出来,因为还没引入新的概念,依然采用的是原有知识概念,资料也查了,可是并不妨碍我依然是一知半解。后来还是继续查资料,依然一知半解就还没找到点醒自己的那个点,重新对超平面的知识点查询和支持向量的理解。
理清楚函数间隔和几何间隔的关系,同时结合约束问题的理解,才最后明白:函数间隔的取值并不影响最优化问题的解,它的改变对最优化问题的不等式约束没有影响,对目标函数的优化也没有影响,也就是说它产生了一个等价的最优化问题。(仅作说明用,不理解没关系,举例举例)
包括这样的碰壁事情,在我学习过程中见怪不怪,如果想比较透彻理解一些原理,包括它的基础知识理论,有时候还是不可忽略的,总的来说,个人认为系统性的学习和整理认为是必要的,有助于获得比较清晰的模型建立流程。
总结下来啊,主要原因:
1、知识储备还太少,以前知识不够扎实
2、看得多,写得少
04
如何解决遇到的问题
1、对于问题的解决,我认为就是针对上面总结自身原因来入手。
对于没办法解决的问题,钻牛角尖是非常费事费力而且没效率的事情,所以遇到难以解决的问题,还是得灵活一点,多咨询一下大佬肯定是最好的。
其次还是知识储备太少,知识储备太少,知识储备太少,重要事情说三遍。这个太少意思是理解吸收少,并不是说看到少,就自己而言,有些知识概念囫囵吞枣,看了到脑子了就没多少,显得知识储备比较少,对于不理解问题往往都是我对问题里面某些概念问题还不透彻,所以我对解决问题最直接的方法就是查漏补缺,有时间还是比较推荐的。
其次就是算法的相通性,有些问题一时的一知半解是没办法,需要等到引入某个新概念的时候才会恍然大悟。可是如果你提前去学习这些,又容易加大对现有学习模型的难度,并且吃力不讨好,毕竟有些算法就是为了后面更复杂的算法铺垫的,后面学习可能会显得更容易。有点像调参过程,你引入些参数改良,必定又带来新的浮动,所以需要一点经验之谈和平衡。
学习的过程中,我习惯做笔记记录学习过程,有利于自己梳理,对于不懂和不理解的也会记录下来,在学习感知机的时候,就对对偶算法一头雾水,干脆就先放着并记录下来。
在后面系统对拉格朗日对偶性学习后,再来对感知机的对偶形式补课,其实基本也是一点通,乃至后面模型的对偶形式也是重新按班就步的推一遍,不会出现很难的理解问题。所以现在的难题,还是有别于应试的难题模式,应试思考的是解题模式,现在思考的是模型的逻辑模式。
2、最后提到的解决问题的办法,也是个人方法吧。
对于问题的不理解,书本上的例题多做几遍,以及课后练习,问题都不难,按步骤计算一遍,在这个过程中会不断对正确答案作推理,最后结果正确,说明思路正确,我遇到的一些问题就是在解题的过程中得到解答。
多写一点也有助于巩固,好记性不如烂笔头。虽然有段时间没看后还是遗忘很多,不过再一次去翻阅,都容易有一定印象,按一定思路可以快速复习。
05
学习心得以及对后来者的建议
1.多查多看多记录
统计学习方法正如之前提的知识面问题,是大部分人首先要面对的问题,所以在学习过程中还是得多查多看,建立完善的理论流程。
在学习小蓝书前,还提前过了一遍吴恩达老师的机器学习,不过学习小蓝书过程中,就发现自己的许多问题,到后来的看完小蓝书后,刷西瓜书还是能继续发现许多遗留问题,光是逻辑回归的推导版本都更新了三次笔记。
可以应用极大似然估计得到逻辑斯蒂回归模型。
也可以通过广义线性模型推导。
所以模型之间可能有相通性,以及相关概念,有时候的确很容易混淆的,但是每弄清楚一点后,就能对模型有更深的理解,所以多看多查是很有必要的,当某个模型不熟悉不理解时,不妨多找些资料去对同个多写的话。就因人而已,个人喜欢作笔记主要是可以不断记录自己学习模型的迭代过程。
2.代码复现多琢磨
在学习过程中,比较重要的另一个点还是代码复现的练习,代码复现的过程不仅考验对算法的理解,也考验工程能力,前期一些简单模型还能靠自己手打,后面就放弃了,主要看代码抄代码为主了,抄着敲一遍,都可以对模型流程有更深的印象。
代码复现,网上有很多资源,Github上大佬都写得挺详细的,可以找个喜欢风格的去学习,代码能力个人以为还是最重要的,理论都是打基础,没有人是手算一大堆数据的吧。
3.坚持
机器学习的入门对于小白而言并不是一蹴而就的事情,最大的心得就是坚持,因为过程的确比较枯燥。
可是要是说有意思的,你可以学习到很多有趣的算法,在实现模型的过程中,每天进步一点,一周学习一个模型,订个小目标去完成它就是最好的鼓励。多的话不说,坚持是学习的最大利器。