在近日举办的 CES Asia 上,地平线联合创始人&副总裁黄畅博士受邀在CES 主论坛发表主题为《边缘 AI 计算发展趋势》的演讲。在一小时的演讲中,黄畅博士从边缘计算推动的行业变化、AI能效与企业责任、有效算力的定义、地平线开放赋能的战略与开发者平台分享了其对人工智能时代边缘计算趋势的洞察并深度解读地平线的“AI on Horizon, Journey Together”战略。黄畅表示,地平线愿意做一家平台化的公司,甘做技术底座,托起客户,跟客户一起走下去,成就客户价值。
全球著名的研究公司 Gartner 的技术成熟度曲线显示,AI 普惠大众的时代已经开启,正在各个行业创造新的价值,在这个过程中,我们将会面临什么样的挑战?伴随着 AI 的商业化,最重要的挑战就是数据量的指数级增长,并且呈现出两个关键特征:数据的实时性和安全性。据国际 IDC 数据公司(IDC)白皮书《数据时代 2025》预测,2025 年,超过 25% 的数据将成为实时数据,其中 95% 生产自 IoT 终端,并且绝大部分不能直接创造价值,需要经过计算来提炼;而 2025 年全球数据总量的 20% 将直接关乎人们的日常生活乃至生存安危。
2018 Gartner 技术成熟度曲线上,多项 AI 技术和应用都出现在了该曲线上,Gartner 也第一次在报告中明确提出 AI 民主化即普惠大众的主张,这也预示着我们将面临更严峻的数据挑战。
这对数据的计算带来严峻挑战,我们该如何高效处理海量的数据并挖掘其价值,并且对实时性数据以秒级,甚至毫秒级的处理,同时,保护数据隐私?随着 5G 商用开启,终端接入网的扩容极大,实时性要求进一步提升,但因为骨干网扩容成本高、延迟大,导致在边缘侧形成数据堰塞湖,边缘计算势在必行。Intel 曾表示:MEC(多接入边缘计算)不一定需要 5G,但 5G 一定需要 MEC。有了边缘计算的加持,5G 的商业价值才能真正得以发挥。
破解目前物联网数据计算面临的难题,边缘计算具有五大优势:1. 可靠性高,在离线状态下也可以正常运作;2.安全合规,满足隐私要求;3.降低数据传输和存储成本;4.高实时性,减少反应延迟;5.计算设备部署灵活,高效协同。
AI 计算可以分为云计算、边缘计算、端计算三个层次。他们在 AI 算力、实时性以及计算的通用性三个维度上,各有所长:
云计算面向的是最通用的计算,在所有的计算中,云计算的时空范畴是最大的,多样性最强,所需要的算力最高,但实时性较差,并且与场景相关性弱;云端的数据种类也是最丰富的,可以横跨多个维度,因而可以做复杂的认知计算和模型训练。
端上的计算是另外一个极端,与场景相关性最强,计算专用性非常强,追求极致效率。主要面向推理。
处在中间的边缘计算是新物种,它就像我们的脊椎一样,连接我们的大脑(云)和神经末梢(端)。其算力远胜于端,同时对功耗的容忍度比端也强很多;相对于云,其实时性更好,且可以结合具体场景进行特定优化。而5G技术的应用,可以大幅改善边缘和端之间的数据带宽和传输延迟,使得它能够兼具云和端的优势,改变现有网络互联格局。
5G时代下的物联网需要端边云协同,在一个更大的范围内寻找AI解决方案的最优解
5G 时代下的物联网模式也将随之而变,边缘计算成为数据过滤器与控制阀,通过它的处理,可仅将低至万分之一的有效数据上传到云端进行处理,大幅降低对于骨干网的数据传输压力。
在传统互联网时代,是端和云的二元计算架构,数据持续向云端转移并被处理,端只是流量入口;但是边缘计算的加入,带来了新变量,它在端和云之间,构造出一种全新的可能,其对于数据的控制力将带来新的商业范式转移,从技术角度讲,边缘计算具备了改造传统互联网计算架构的潜力,将带来从软件到硬件的全新构架变革。
AI 普及化带来新价值的同时,也带来了新的能源危机。
今天,数据中心耗电惊人,据《中国数据中心能耗现状白皮书》显示,在中国有 40 万个数据中心,每个数据中心平均耗电 25 万度,总体超过 1000 亿度,这相当于三峡和葛洲坝水电站1年发电量的总和。如果折算成碳排放的话,大概是 9600 万吨,这个数字接近目前中国民航年碳排放量的3倍。
数据中心平均消耗的功率是大型商业写字楼的 100 倍以上。而为服务器供电和冷却所需的电能占到数据中心总运营成本的 40%,因此,数据中心的能源低效问题不容忽视。
为了降低功耗,阿里的数据中心建在张北,张北风力强劲,年平均气温不到 3 摄氏度,这就好比是一个天然散热场,从而减少冷却系统耗电,预计仅数据中心的制冷能耗就可以降低 45%。腾讯数据中心建在贵州省贵安新区两座山的山体上,也是为了散热。
为了降低功耗,世界上最大的数据中心将被建在北极圈内,总功率超过1000兆瓦(来源:KOLOS公司官网 )
可以预见的是,未来我们需要的数据计算量将以数量级的方式高速增长,那这样的耗能方式是难以维持的。
所以,通过极致的AI能效提升减少碳排放,已经成为AI企业新的社会责任,即充分利用有限的能源创造更大的价值。
在传统芯片行业,PPA(算力、功耗和面积)是最经典的性能衡量指标。但在 AI 时代,我们需要新的范式来定义性能。
当前的业界存在一个很大的误区,往往会把峰值算力当作衡量 AI 芯片的主要指标。但我们真正需要的是有效算力,及其输出的算法性能。这需要从四个维度来衡量:每瓦的峰值算力和每美元的峰值算力(由芯片架构、前后端设计和芯片工艺共同决定),峰值算力的有效利用率(由算法和芯片架构决定),以及有效算力转化为 AI 性能的比率(主要是速度和精度两个方面,由算法决定)。之前业界普遍采用 Resnet 这样的模型,但是今天我们采用类似 MobileNet这样更加精巧设计的小模型,可以用 1/10 的算力达到相同的精度和速度。但是这些精巧设计的算法给计算架构带来了巨大的挑战,往往使得传统设计的计算架构的有效利用率大幅下降,从最终的AI性能角度来说,甚至得不偿失。
地平线的最大特点,是对重要应用场景中,关键算法的发展趋势进行预判,前瞻性地将其计算特点融入到计算架构的设计当中,使得 AI 处理器经过一两年的研发,在推出的时候,仍然能够很好地适应最新的主流算法。因此,和其他典型的 AI 处理器相比,地平线的 AI 处理器,随着算法的演进趋势,始终能够保持相当高的有效利用率,从而真正意义上受益于算法创新带来的优势。
地平线AI芯片核心能力:算法+芯片联合优化且兼顾灵活,高效架构服务经典和未来算法设计
掌握了算法和计算架构,我们还只是具备了巨大的潜能。而编译器,则能够将这两者联合起来进行极致优化,释放出所有的潜能。举一个实际的例子,在没有优化的情况下,峰值算力的有效利用率是 34%;但经过编译器对指令序列进行优化之后,这个数值被提升到了 85%。这使得芯片的处理速度,提升了 2.5 倍,或者说,处理相同多的任务,功耗降低到 40%。
用未来重要应用场景中的关键算法发展趋势,来指导地平线 AI 芯片的架构设计,首重效率,兼顾灵活,这是地平线一直以来的设计理念——极致的AI能效是地平线在产品上始终如一的理想和追求。
创业几年来,我们深深感受到,AI 从技术演示到商业落地的路径非常长,将 AI 解决方案集成到客户的产品中,赋能并成就客户,对大部分公司来说,存在不低的门槛。所以我们每天都在努力,如何去降低我们的方案被集成的难度。为此,地平线设计出一整套包含数据、训练、部署在内的算法开发流程,并开发出一套全栈式的 AI 平台工具用来高效地支撑这套开发流程。我们甚至提供大量优秀的算法模型和原型系统,作为参考样例提供给我们的客户。通过这些工具和样例,客户可以照猫画虎,快速地进行产品所需的算法开发,并持续迭代,由浅入深地进行全方位地调优,探索客户自己在数据和算法方面的独特价值。
可支持广泛的开源框架的地平线开发工具
地平线的全栈 AI 平台工具链,包括数据、训练和设备部署工具。它们形成了一个闭环,高效地运作起来,数据产生模型,模型可以被部署到设备上运行,运行过程中又可以指导模型的调优,甚至收集新的数据。这样的一种开发模式,可以提升开发速度,降低开发门槛,保证开发质量。我们当前的评估结果现实,它可以减少约 30% 的开发人力,节省 50% 的开发时间,更重要的是,因为开发门槛被降低了,开发者的规模甚至可以扩大一个数量级。
地平线 AI 开发平台:提速Software2.0 全流程研发
地平线会持续对开发工具进行升级,为客户提供半自动化的处理流程,这里包括:数据工具与模型,模型与端上设备之间的闭环迭代;丰富的模型/系统参考原型,简洁易用直观方便的交互手段;标准化开发流程,加上持续的测试,集成,部署机制。
以开放赋能客户为本,快速满足不同客户需求是地平线AI平台服务客