Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

突发!Ilya Sutskever成立新公司SSI,安全超级智能是唯一目标与产品

5 月 15 日从 OpenAI 离职后,OpenAI 前首席科学家 Ilya Sutskever 官宣了自己的新动向。

今日凌晨,Ilya 在社媒 X 上表示自己创立了一家新公司——「安全超级智能」(Safe SuperIntelligence,SSI)。

该公司的目标和产品非常明确、单一:追求安全的超级智能,希望通过一支精干顶尖的小团队取得革命性的成果,进而实现这一目标。
图片

图片

以下是 SSI 公司的公告:

超级智能已经触手可及。

构建安全超级智能(SSI)是我们这个时代最重要的技术难题。

我们已经启动了世界上第一个专注于SSI的实验室,目标和产品都只有一个:安全超级智能。

这个实验室名为「Safe Superintelligence Inc」。

SSI是我们的使命、我们的名称和我们的整个产品路线图,它是我们唯一的关注点。我们的团队、投资人和商业模式都致力于实现SSI。

我们将安全性和能力视为通过革命性工程和科学突破来解决的技术难题。我们计划尽快提高能力,同时确保安全性始终保持领先地位。

这样,我们就可以安心地扩展规模。

我们专注于一个目标(SSI),这意味着不会受到管理开销或产品周期的干扰。我们的商业模式可以确保安全、进步等都不受短期商业压力的影响。

我们是一家美国公司,在帕洛阿尔托和特拉维夫均设有办事处。在那里,我们有着深厚的根基,并有能力招募顶尖的技术人才。

我们正在组建一支精干、顶尖的团队,由世界上最优秀的工程师和研究人员组成。他们将专注于SSI,不做其他任何事情。

如果你是这样的人,我们将提供一个机会,让你从事一生的事业,帮助解决我们这个时代最重要的技术挑战。

现在是时候了,加入我们吧。

图片

公告地址:https://ssi.inc/

公告中出现的另外两位联合创始人分别为前苹果AI高管、Y-Combinator 的合伙人Daniel Gross和前OpenAI技术团队成员Daniel Levy。

Daniel Gross表示自己很高兴和荣幸与Ilya和Daniel Levy开启这一新事业。
图片

Daniel Levy则表示,很难想象在人类历史的这一时刻从事任何其他工作。
图片

Ilya 与 OpenAI 的故事

Ilya Sutskever 是以色列裔加拿大人,出生于前苏联,五岁随家人移民耶路撒冷(因此他精通俄语、希伯来语和英语),2002 年搬到加拿大生活。

在多伦多大学读本科期间,Ilya Sutskever 从一个叫做「改进随机邻域嵌入算法」的项目开始,开始了与 Geoffrey Hinton 的合作,后来在攻读博士学位时正式加入了 Hinton 的团队。

后来的事情我们都熟悉:2012 年,Hinton 带着 Ilya Sutskever 和另一名研究生 Alex Krizhevsky 建立了一个名为 AlexNet 的神经网络,其识别照片中物体的能力远远超过了当时的其他系统。
图片                                Ilya Sutskever(左)、Alex Krizhevsky(中)、Geoffrey Hinton(右)

AlexNet 是深度学习的爆发时刻。经历了多年的失败之后,他所在的团队最早证明了模式识别问题可以被解决——秘决就是一个经过大量数据和算力训练的深度神经网络

这种思路从计算机视觉延伸到了自然语言处理领域,同样是ChatGPT取得如今成就的重要因素,包括Sora在视频生成领域的成功也离不开这两点。

2012 年毕业后,Ilya Sutskever 在斯坦福大学跟随吴恩达做了两个月的博士后,随后返回多伦多大学并加入了Hinton 研究小组的衍生公司 DNNResearch 。

2013 年 3 月,Google 收购了 DNNResearch,聘请了Ilya Sutskever 担任 Google Brain 的研究科学家。

在谷歌,Ilya Sutskever展示了如何深度学习模式识别能力应用于数据序列,包括单词、句子。他与Oriol Vinyals和Quoc Le合作创建了序列到序列(Seq2seq)学习算法,深度参与了TensorFlow的研究,也是AlphaGo论文的众多作者之一。

对语言的浓厚兴趣,或许推动了Ilya Sutskever加入OpenAI的脚步。

2015 年 7 月,Ilya Sutskeve 参加了 Y Combinator 总裁 Sam Altman 在 Sand Hill Road 一家餐厅举办的晚宴,在那里遇到了 Elon Musk 和 Greg Brockman。

那场晚宴上诞生了OpenAI。在场的人就一件事达成了一致:它需要是一个非营利组织,没有任何竞争性的激励措施来淡化其使命,还需要世界上最好的人工智能研究人员。

2015 年底,Ilya Sutskever 以「研究总监」的头衔开始领导 OpenAI 的研究和运营,这个组织还吸引了几位世界知名的人工智能研究者,包括「GAN 之父」 Ian Goodfellow、UC伯克利的 Pieter Abbeel 以及 Andrej Karpathy。

2016 年,OpenAI 的第一个 GPT 大型语言模型问世。从GPT-2 到 GPT-3,模型的能力越来越强大,证明了这条路线的实际正确性。每一次发布,OpenAI 都在不断提高人们的想象力上限。

但Ilya Sutskever却透露,真正让OpenAI出圈的ChatGPT发布时,公司内部对此的期望值很低:「你问它一个事实性的问题时,它会给你一个错误的答案。我以为它会很平淡无奇,人们会说:你为什么要做这个?这太无聊了!」

将GPT模型封装在一个易于使用的界面中并免费开放,让数十亿人第一次了解到 OpenAI 正在构建的东西。在此之前, ChatGPT 背后的大型语言模型已经存在了几个月。

ChatGPT的成功,让创始团队受到了前所未有的关注。

2023年,OpenAI 的首席执行官Sam Altman花了大半个夏天的时间,进行了长达数周的外联之旅——与政客们交谈,在世界各地座无虚席的礼堂发表演讲。

作为首席科学家,Ilya Sutskever保持着低调的风格,也不经常接受采访,不像公司的其他创始成员那般是个公众人物,而是把更多的精力放在了GPT-4上。

今年早些时候,Hinton曾公开表示对自己帮助发明的技术感到恐惧:「我从没见过更高智能水平的东西被远远更低智能水平的东西控制的案例。」

作为Hinton的学生,Ilya Sutskever没有对这一言论发表评论,但他对超级智能负面影响的关注表明他们是同道中人。

随着 GPT-4 以及后续一系列更强大的大语言模型的更新,以Ilya Sutskever为代表的一部分OpenAI 成员越来越担忧 AI 的可控性问题。

于是就有了后面 Ilya Sutskever 突然与 Sam Altman 所代表的派系决裂、离职收场的故事。
图片                               Ilya Sutskever还分享了与Sam Altman、Greg Brockman和Mira Murati等人的合照。

如今,Ilya成立了新的公司,也重新开始了自己对AI的理想与坚持。期待SSI能为人工智能的发展带来新的惊喜。

参考链接:https://www.theverge.com/2024/6/19/24181870/openai-former-chief-scientist-ilya-sutskever-ssi-safe-superintelligence

产业Safe SuperIntelligenceIlya SutskeverOpenAI
1
相关数据
吴恩达人物

斯坦福大学教授,人工智能著名学者,机器学习教育者。2011年,吴恩达在谷歌创建了谷歌大脑项目,以通过分布式集群计算机开发超大规模的人工神经网络。2014年5月16日,吴恩达加入百度,负责“百度大脑”计划,并担任百度公司首席科学家。2017年3月20日,吴恩达宣布从百度辞职。2017年12月,吴恩达宣布成立人工智能公司Landing.ai,并担任公司的首席执行官。2018年1月,吴恩达成立了投资机构AI Fund。

所属机构
Ian Goodfellow人物

Ian Goodfellow 是机器学习领域备受关注的年轻学者之一,他在本科与硕士就读于斯坦福大学,师从吴恩达,博士阶段则跟随蒙特利尔大学的著名学者Yoshua Bengio研究机器学习。Goodfellow 最引人注目的成就是在2014年6月提出了生成对抗网络(GAN)。这一技术近年来已成为机器学习界最火热的讨论话题,特别是在最近几个月里,与GAN有关的论文不断涌现。GAN已成为众多学者的研究方向。

深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

模式识别技术

模式识别(英语:Pattern recognition),就是通过计算机用数学技术方法来研究模式的自动处理和判读。 我们把环境与客体统称为“模式”。 随着计算机技术的发展,人类有可能研究复杂的信息处理过程。 信息处理过程的一个重要形式是生命体对环境及客体的识别。其概念与数据挖掘、机器学习类似。

随机邻域嵌入技术

TensorFlow技术

TensorFlow是一个开源软件库,用于各种感知和语言理解任务的机器学习。目前被50个团队用于研究和生产许多Google商业产品,如语音识别、Gmail、Google 相册和搜索,其中许多产品曾使用过其前任软件DistBelief。

计算机视觉技术

计算机视觉(CV)是指机器感知环境的能力。这一技术类别中的经典任务有图像形成、图像处理、图像提取和图像的三维推理。目标识别和面部识别也是很重要的研究领域。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

自然语言处理技术

自然语言处理(英语:natural language processing,缩写作 NLP)是人工智能和语言学领域的分支学科。此领域探讨如何处理及运用自然语言;自然语言认知则是指让电脑“懂”人类的语言。自然语言生成系统把计算机数据转化为自然语言。自然语言理解系统把自然语言转化为计算机程序更易于处理的形式。

序列到序列技术

深度神经网络技术

深度神经网络(DNN)是深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似,深度神经网络也能够为复杂非线性系统提供建模,但多出的层次为模型提供了更高的抽象层次,因而提高了模型的能力。

语言模型技术

语言模型经常使用在许多自然语言处理方面的应用,如语音识别,机器翻译,词性标注,句法分析和资讯检索。由于字词与句子都是任意组合的长度,因此在训练过的语言模型中会出现未曾出现的字串(资料稀疏的问题),也使得在语料库中估算字串的机率变得很困难,这也是要使用近似的平滑n元语法(N-gram)模型之原因。

GPT-2技术

GPT-2是OpenAI于2019年2月发布的基于 transformer 的大型语言模型,包含 15 亿参数、在一个 800 万网页数据集上训练而成。据介绍,该模型是对 GPT 模型的直接扩展,在超出 10 倍的数据量上进行训练,参数量也多出了 10 倍。在性能方面,该模型能够生产连贯的文本段落,在许多语言建模基准上取得了 SOTA 表现。而且该模型在没有任务特定训练的情况下,能够做到初步的阅读理解、机器翻译、问答和自动摘要。

Elon Musk人物

伊隆·马斯克(Elon Musk)是一名美籍和加籍企业家,出生于南非。作为SpaceX、特斯拉和PayPal的创始人而闻名。

所属机构
视频生成技术

视频生成是指利用深度学习等技术生成视频的任务。

推荐文章
暂无评论
暂无评论~