让计算机理解人与人之间的对话,是一件看似简单,实际难度很大的事情。在6月9日的循环智能整体产品发布会上,CEO陈麒聪举了一个银行理财顾问与客户对话的例子:
理财顾问:今年52啊,那您再干个7,8年左右到60岁就可能要面临退休嘛是不是? 客户:我55岁就退休了。
我们的任务是根据这段对话,提取客户的“画像标签”:判断客户是否退休了。
人工来判断的话,需要结合上下文的内容,才能得出结论:虽然对话的双方是在讲“退休”这个主题,但客户的状态是还没退休,因此不能打上“客户已退休”的画像标签。
对机器而言,很难应付这种“不按常理出牌”的人与人对话场景。但偏偏在现实中,人与人沟通对话的内容会大量涉及到类似的场景。究其原因,主要是因为人与人对话有很强的随意性,不仅同一件事情的表述方式有无数种,而且经常会出现重复、停顿、省略、虚拟语气等现象,需要结合上下文的情境才能正确判断语义。
因此,过去几年,可以识别上下文语义的AI深度学习技术被广泛采用——通过人工标注数百或数千条“正负例”样本数据,即可生产一个分类器模型——每个分类器模型都可以用来识别一条语义。但是,每个会话语义分析的任务,通常需要几十甚至上百个分类器模型才能实现,标注样本数据和手工调优的过程,导致生产周期很长,成本很高。
因此,NLP技术的产业化、规模化应用,受到了极大的限制。全行业都亟需一场技术变革……
基于超大规模预训练模型的技术变革
2021年4月,循环智能联合华为云发布了全球首个千亿参数的中文语言预训练大模型——“盘古”,发布时盘古大模型打破了权威评测榜单CLUE的总榜、分类任务和阅读理解三项记录。但“刷榜”从来不是盘古大模型的真正目标,经过一年多的研发和进化,循环智能把零样本技术推向落地,建成了零样本NLP平台。
盘古零样本NLP平台搭载了,经过极致优化的15亿参数可落地模型,性能显著超越原版的千亿模型。在金融、地产、汽车等行业的200多个真实场景,盘古零样本平台的性能得到广泛验证。借助强大的工程化支持,盘古零样本平台大幅降低了部署成本,提升了应用效率:使用一个普通的2080Ti GPU分析1万小时的录音内容,平均仅需16分钟。
这是一场蓄势已久的技术革命,零样本学习是全新的NLP生产范式,在大部分场景下无需标注样本,只需要人类提供指令(Prompt)即可完成建模,大幅度地降低生产门槛;在少部分场景下,仅需通过少量样本(通常10-50条数据)进行微调,即可完成建模。
更重要的是,在新的NLP生产范式下,不需要AI专家的深度参与,普通员工经过培训后也可以借助对话式的交互界面,快速生产语义模型(如视频所示)。
从模型效果的角度看,通过盘古零样本平台生产的NLP模型,跟原来的标注几百条样本得到的模型,可以做到效果相当;从生产周期的角度看,大部分NLP模型生产可以从传统方法的几天降至几分钟,少部分需要微调的模型也仅需要一两个小时即可完成生产,生产效率提升10到1000倍。
NLP模型 生产方式 | 传统 分类器 | 新一代 大模型 零样本平台 |
---|---|---|
单个模型标注样本量需求 | 几百到几千条样本 | 大部分场景:0样本 少部分场景:10-50条样本进行微调 |
模型生产用时 | 2-4天 | 3分钟-1小时 |
模型生产流程 | → 数据标注 → 数据质检 → 调参训练 → 模型测试 → 部署上线 | → 创建模型 → 模型测试 → 上线使用 |
盘古零样本NLP平台 vs 传统分类器技术
零样本技术在企业会话分析场景的应用
在银行、保险、证券、汽车、房地产以及B2B企业软件等行业,高附加值产品的营销推介、销售、服务环节均离不开企业员工与客户沟通互动的过程。无论是线上的电话或微信互动,还是线下的面对面交流,沟通建立了企业与客户之间价值传递的桥梁。
有了盘古零样本NLP平台,企业可以根据业务的需求,快速生产大量的语义模型,将原本“非结构化”的沟通对话内容,变成计算机可以分析处理的“结构化”数据,准确和快速地分析不断产生的员工与客户沟通内容:
■ 全面掌握业务策略的真实执行情况和进展,精细化地管理销售过程;
■ 准确判断沟通中所讲到的话题和流程节点,提供实时的AI销售助手;
■ 自动提取客户在沟通中表达出的“动态”画像标签信息,加深对客户的了解;
■ 自动化提取对话中的关键信息,自动生成工单,减轻员工手动处理的流程负担;
■ 准确识别“销售误导”等违规行为,提升业务的合规性……
盘古NLP大模型的更多能力即将解锁
盘古零样本NLP平台是循环智能推出的零门槛AI开发平台,支持数据管理、数据标注、模型训练、模型部署等一站式NLP模型开发。
目前盘古零样本NLP平台已上线“文本分类”等任务。接下来,盘古平台还将陆续上线多种类型的NLP任务,包括文本匹配、文本摘要、命名实体识别(NER)、事件抽取、情感识别和通用模型等,帮助企业规模化地利用先进的自然语言处理技术赋能业务,将自然语言处理技术的价值最大化。