Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

参与思 Jamin

你离开学只差这个视频:李宏毅机器学习2020版正式开放上线

2020 年的机器学习和过去有一些不一样的地方:首先,这一门课增加了很多作业。

台大李宏毅老师的机器学习课程可以说是最具代表性的中文公开课之一,已成为大量国内初学者的首选。由于最近新冠疫情爆发,台大的课程也全面转为线上,今年的《机器学习》有了不小的变化。

李宏毅老师表示,对于 2020 年的机器学习课程,我们完全可以在家自学~

可能是考虑到当下为特殊节点,「精灵宝可梦大师」再三强调,这学期完全不用来课堂上课,通过上图课程链接进行系统的学习就足以 get 到所有核心知识点。而对长期 Online 学习的学生来说则更加友好了,基本涵盖当下 ML 核心知识点的作业也是完全对外开放。

昨天,李宏毅老师今年的第一课开讲了:


「精灵宝可梦大师」李宏毅

提起李宏毅老师,熟悉机器学习的读者朋友一定不会陌生,他现任台湾大学电气工程助理教授,研究重点是机器学习,特别是深度学习领域。很多人选择的机器学习入门学习材料都是李宏毅老师的台大公开课视频。

因为经常把精灵宝可梦或凉宫春日等各种动漫作为算法案例,我们亲切地称他为「精灵宝可梦大师」。
因为课程形象生动,又不缺数学推导的严谨,李宏毅老师的课程视频可以说是中文世界中最好的机器学习资源。

李老师以幽默风趣的上课风格让很多晦涩难懂的机器学习理论变得轻松易懂,例如「史上第一次手推」循环神经网络计算过程,利用精灵宝可梦等形象生动解释神经网络背地里到底都干了些什么。

此外课程会与时俱进,去年 ML 课程就新增 Transformer、流模型 Glow 和对抗攻击等新内容。相信今年课程对最近流行的 BERT、XLNet 等语言模型会有更多的介绍。


李宏毅老师从 2014 年到现在陆陆续续上传了很多课程,所有课程都有各种学习资源,视频、PPT、作业一项都不少。且除了这些常规课程外,学习资源还囊括了其它时间发布的一系列主题教程,例如深度学习理论教程、生成对抗网络教程等等。

李宏毅老师 YouTube 主页:https://www.youtube.com/channel/UC2ggjtuuWvxrHHHiaDH1dlQ/


《机器学习 2020》学习路径

与其它只教授机器学习基础内容不同,按照惯例,李宏毅老师还会特别讲解当前最新的算法,并将其作为补充视频上传到网上。而且,李宏毅老师的课程涉及领域非常完整,从有监督、半监督、无监督到强化学习,都会有介绍。在最新的 2020 ML 课程中,他展示了完整的学习路径。


从这一路径来看,李教授对于各类知识点的难易程度、学生投入等都有了大概的估计,并根据从易到难的原则,让学生们沿着路径进行学习。除了机器学习的基本概念外,这期课程还额外新增了一些 ML 的前沿研究,如 AI 的可解释性,恶意攻击以及模型压缩等等。

图注:设计程序,以学习如何学习。


图注:终身学习,模型活着,不学习又和咸鱼有什么差别呢?


2020 年 ML 考试大纲

相比以往所公开的机器学习课程,此次更新更增加了 15 个「作业」数量,意在让学生锻炼其上手能力。而在上图所贴出的课程路径中,学生可根据自身基础做相应的调整,选择不同的学习路径。

http://speech.ee.ntu.edu.tw/~tlkagk/courses/ML2020/introduction.pdf

「线上学习」板块是最基础,肝作业前学习下,不用再过多介绍。「作业范例」需要敲下黑板,每个范例都由助教手把手写的 Colab 范例作为指导,哪怕照着做就已经完成了一半。除此之外,助教还会提供录影来对作业进行详细说明,并放置「作业说明」里。

值得注意的是,这些课程都是用的是 PyTorch 进行教学,足见这一工具在研究领域的影响力。

最后,该课程的助教特意强调了在做作业时推荐用 MacOS 系统或 Linux 系统,部分作业也会使用 Kaggle 上的 in-class competition。

所以,对于特立独行的 Windows,我们离学课程、做作业只差装个双系统~
入门李宏毅机器学习
71
相关数据
强化学习技术

强化学习是一种试错方法,其目标是让软件智能体在特定环境中能够采取回报最大化的行为。强化学习在马尔可夫决策过程环境中主要使用的技术是动态规划(Dynamic Programming)。流行的强化学习方法包括自适应动态规划(ADP)、时间差分(TD)学习、状态-动作-回报-状态-动作(SARSA)算法、Q 学习、深度强化学习(DQN);其应用包括下棋类游戏、机器人控制和工作调度等。

生成对抗技术

生成对抗是训练生成对抗网络时,两个神经网络相互博弈的过程。两个网络相互对抗、不断调整参数,最终目的是使判别网络无法判断生成网络的输出结果是否真实。

推荐文章
谢谢分享!