「宝可梦大师」李宏毅又开课了,小板凳搬好了吗?
李宏毅老师往期课程截图。
课程介绍
深度学习
自注意力
机器学习理论
Transformer
生成式模型
自监督学习
可解释 AI / 对抗攻击
域自适应 / 强化学习
量子机器学习
终身压缩
元学习
视频链接:https://www.youtube.com/watch?v=IHk7z51zOLw
Auto Byte
专注未来出行及智能汽车科技
微信扫一扫获取更多资讯
Science AI
关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展
微信扫一扫获取更多资讯
「宝可梦大师」李宏毅又开课了,小板凳搬好了吗?
李宏毅老师往期课程截图。
课程介绍
深度学习
自注意力
机器学习理论
Transformer
生成式模型
自监督学习
可解释 AI / 对抗攻击
域自适应 / 强化学习
量子机器学习
终身压缩
元学习
视频链接:https://www.youtube.com/watch?v=IHk7z51zOLw
深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。
增强现实,是指透过摄影机影像的位置及角度精算并加上图像分析技术,让屏幕上的虚拟世界能够与现实世界场景进行结合与互动的技术。这种技术于1990年提出。随着随身电子产品运算能力的提升,增强现实的用途也越来越广。
机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。
自注意力(Self-attention),有时也称为内部注意力,它是一种涉及单序列不同位置的注意力机制,并能计算序列的表征。自注意力在多种任务中都有非常成功的应用,例如阅读理解、摘要概括、文字蕴含和语句表征等。自注意力这种在序列内部执行 Attention 的方法可以视为搜索序列内部的隐藏关系,这种内部关系对于翻译以及序列任务的性能非常重要。