历时一个月,安远AI与机器之心联合举办的「迈向安全、可靠、可控的人工智能」六场系列讲座圆满结束,我们邀请了全球顶尖人工智能机构专家分享强化学习、预训练大模型、通用人工智能等内容。这六位专家分享了他们的真知灼见,并对人工智能与人类的未来展现出忧虑与希望:
第1期:「寻找AGI的安全路径 」
不正确的微调或目标的错误泛化可能会导致AGI追求一个不正确的目标。如果足够智能,这种未对齐(unaligned)的AGI将导致灾难性的后果。 —DeepMind研究科学家Rohin Shah
第2期:「人类与AI的共生演化 」
AI技术的“动力”如今正在飞速增长,而如果不加以合理“引导”,就可能造成意想不到的后果。我们不仅要考虑应该避免什么,我们还必须考虑很多关于“目的地”的问题。 —麻省理工教授Max Tegmark
第3期:「我们如何能让AI系统追求正确的目标?」
在这个大模型(又为基础模型)的新范式中,人工智能对齐(AI alignment)将是技术进步的关键驱动力之一。—剑桥大学助理教授David Krueger
第4期:「阐释神经网络的底层知识 」
如果我们正在制造强大的AI系统,这些系统对世界的了解超出了人类所了解的,而我们却不能让系统告诉我们它们真正相信什么,这就相当令人担忧了。 —Alignment Research Center 创始人、前OpenAI研究员Paul Christiano
第5期:「AI对齐问题:机器学习和人类价值观」
我相信人工智能对齐问题将是未来十年最重要的科学和人类课题之一。—《算法之美》作者Brian Christian
第6期:「大模型时代的AI风险和安全 」
我们实际上看到的是,模型的功能通常比预期的进展快,但其安全性能的进展慢于预期。我认为这是一个大问题,应该激发更多使AI模型更安全的工作。—加州伯克利分校助理教授Jacob Steinhardt
虽然讲座告一段落,但是AI安全、可靠、可控的事业方兴未艾。正如各位嘉宾在演讲中都不约而同提到的:AI对齐问题对于全人类未来至关重要,但也非常难,需要更多人才投入该领域进行研究。安远AI致力于召集关注AI安全和风险研究等问题的人们,为志同道合者打造社区。六次讲座以来,感谢2300余位伙伴对我们的支持,目前已有430余位伙伴加入安远AI社区,我们也为近100位伙伴赠予AI安全相关书籍——《AI新生》,并征集书评,期待这些讲座与书籍能成为我们彼此沟通的桥梁。
征集书评:https://mp.weixin.qq.com/s/3D-KX1OgQs77sJLkRDfcfQ
我们也期待能够让更多人来了解我们的事业,目前配有双语字幕的六期讲座视频均已上传至安远AI的哔哩哔哩空间,欢迎大家的收藏和关注。
https://space.bilibili.com/1535378668
无论你是否观看了我们的讲座,如果你对AI安全、对齐等领域感兴趣,乃至于希望从事相关工作、引导人工智能正向发展,都欢迎你申请安远AI社区提供的免费咨询。
免费咨询申请表:https://www.wjx.cn/vm/w7vgE0T.aspx
关于安远AI
安远AI的使命是融合各方,推动新兴科技长远向善发展,引领人机关系走向安全、可信、可靠的未来。安远AI致力于建立人工智能安全和风险研究的技术社区,旨在为青年学者同该领域学术界和产业界搭建沟通桥梁。