Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

英伟达发布「霸王龙」Titan RTX:价格降低,本月上市

英伟达在 NeurIPS 大会上发布最新款产品 Titan RTX,这是去年 Titan V 的「继承者」:价格更低,显存更大,性能更强,且使用图灵架构,因此具备强大的光线追踪能力。

今年英伟达发布了新一代 GPU 架构 Turing 和 Quadro RTX 系列,然后又发布了三款消费级 GeForce RTX 显卡,以及第一款 Turing Tesla T4。然而,英伟达的产品线中通常会有一款比较高端的显卡,这就是 Titan。Titan 不是旗舰卡也不算是消费级显卡,但它仍然是英伟达产品中非常有趣的存在,它是最快的显卡,其他卡无法企及,现在它成为英伟达主推的工作站计算显卡。

去年此时,英伟达在 NeurIPS 大会上发布了售价 3000 美元的 Titan V。今年英伟达再度选择在 NeurIPS 发布最新的 Titan 显卡——Titan RTX。Titan RTX 将于本月稍晚时候大批量上市,是英伟达为工作站计算和光线追踪提供的一款重量级产品,该显卡售价 2500 美元。

Titan RTX、Titan V、GeForce RTX 2080 Ti、Telsa V100 参数对比图。

从上图数字来看,Titan RTX 像是加强版的 GeForce RTX 2080 Ti。尽管它并非消费级显卡,但它与英伟达的消费级旗舰显卡 RTX 2080 Ti 一样,都基于 TU102 GPU,不过 RTX 2080 Ti 使用的是 GPU 的轻微缩小版,而 Titan RTX 使用的是完整芯片,类似于英伟达最好的 Quadro 芯片。此外,Titan RTX 的功能与 Quadro RTX 6000 非常相似。也就是说尽管 Titan RTX 并不是旗舰显卡,它也不属于第二梯队:其能力和速度与英伟达最好的 TU102 显卡相当,因此它属于顶级。

英伟达对其市场地位进行了观察,随着 Titan V 于去年上市,英伟达逐渐转向,不再将 Titan 定位为比 GeForce 具备更多内存和稍高性能的「专业消费级」显卡,而是更多地偏向于为非图形学任务服务的专业级工作站显卡。使用服务器级 GV100 GPU 缩小版的 Titan V 轻松实现了英伟达这一转向,但它仍受服务器级 GPU 的限制。现在英伟达重新使用更接近工作站级别的 GPU TU102,再次调整了其芯片之间的平衡。但是 Titan RTX 仍然是英伟达的工作站计算显卡,此外由于图灵架构追踪光线的能力,Titan RTX 也将是最适合内容创作者的光线追踪显卡。

深入来看,令 Titan RTX 与英伟达其他芯片都不一样的原因有三,尤其是 GeForce RTX 2080 Ti。原始性能是原因之一,我们能看到 Titan RTX 在着色、纹理生成和计算的性能提升了 15%,内存带宽和像素吞吐量增加了大约 9%。

但是,对英伟达真正市场——数据科学家和其他计算用户来说,重点是张量核心。英伟达修改了 GeForce 软件使用条款,禁止在数据中心运行深度学习等应用,这对专业市场影响很大。在图灵的最高精度 FP16 模式中,图灵能够不断进行 FP32 累积来获取更高的精度,然而在 GeForce 显卡上该操作被限制在半速吞吐量。而最新发布的 Titan RTX 移除了该限制,这款新型芯片可以在其张量核心上全速进行 FP32 累积。

鉴于英伟达的张量核有十几种模式,这似乎是 GeForce 和 Titan 之间存在的奇怪区别。然而对于数据科学家而言,这非常重要;FP32 累积对于神经网络训练来说通常是必需的(FP16 累积没有足够的精度),特别是在需要购买 Titan 和 Tesla 芯片的领域。所以这个微小的变化是对数据科学家用户的价值定位重要组成部分,因为英伟达没有提供更便宜的、具有 Titan RTX 可以达到的顶级 130 TFLOPS 张量性能的显卡。

最后一个因素是内存容量。GeForce RTX 2080 Ti 是一款 11GB 内存的显卡,Titan RTX 是一款 24GB 内存显卡。对于游戏玩家来说,11GB 都算大材小用了,但是再添加 13GB 显存可以打造或打破大型数据集。英伟达非常了解他们的市场。

除了市场定位之外,Titan RTX 的推出也意味着其余的张量性能优势最终将会出现在 Titan 级卡上。图灵架构引入了对低精度模式的支持,这有助于进一步将 Titan RTX 与去年的 Titan V 区分开来。总体而言,原本考虑 Titan V 的数据科学家们会注意到 Titan RTX 将显存容量提高了一倍,并将张量性能提高了 20%(精度较低时提升更多),以及图灵架构的所有其他改进。如果这还不够,英伟达此次还启用了 NVLink 功能(它在 Titan V 上被禁用),因此工作站用户也可以通过连接两张 Titan RTX 卡进行扩展,以获得更高的性能。

与此同时,英伟达也瞄准了这款显卡的内容创作者用户。数据科学家仍然是主要用户,但鉴于图灵架构对光线追踪进行了大量投入,英伟达似乎也应该在这里试验一下,看看哪个市场适合高端但非 Quadro 的光线追踪显卡。严格来说 Quadro 6000 在这里应该是优越的(如果仅仅看驱动程序和支持的话),但它价格高昂。因此,看看英伟达将为 2500 美元的光线追踪显卡 Titan RTX 开辟什么样的市场会很有趣。

虽然英伟达第一个注意到该卡并非真正用于游戏,但是自 Titan 使用 GeForce 驱动程序堆栈以来,即使 Titan V 也出售给一些游戏玩家,Titan RTX 的情况可能将大致相同。由于 Titan V 是唯一使用 GeForce 驱动程序的 Volta 架构卡,其在游戏支持方面很尴尬,而图灵架构则无处不在。所以 Titan RTX 应该表现得更像一个稍快的 2080 Ti,没有我们在 Titan V 上玩游戏时看到的那么多性能不一致。

在设计方面,与其前任一样,Titan RTX 也非常贴近 GeForce 系列的风格。值得注意的是,英伟达在这一代产品中使用了露天双风扇散热器,而不是传统的鼓风机,如 Titan V 或目前的 Quadro 卡。正如我们在 GeForce 卡上看到的那样,露天双风扇散热器可以最大限度地增大气流并降低温度。但是对于 Titan 而言,这是一个混合包,因为英伟达允许将 Titan RTX 与 NVLink 配对。露天冷却卡需要用户更多的关注,而鼓风机在工作站中基本上设置好后就可以忽略。然而,Titan RTX 显卡的 TDP 功率为 280W,这是图灵卡中功率最高的,比 Titan V 高 30W。人们据此可以看出为什么英伟达有兴趣将冷却性能最大化放到其他优先级之上。这也意味着理论上 Titan RTX 的平均时钟频率应该比 Quadro 略高,因为它具有更多的散热和 TDP 余量;所以至少现在为止,它可能是所有 TU102 卡中最快的。

Titan RTX 是一款非常典型的英伟达设计显卡。它具有与 Quadro 和 GeForce 显卡相同的端口配置,具有 3x DisplayPort 1.4 输出、HDMI 2.0b 端口和支持 DP alt 模式的 USB-C 端口,以及 VR 耳机的 VirtualLink 标准。Titan 的独特之处当然是它的金色配色方案,让它不会与 GeForce 混淆。英伟达为 Titan RTX 取的绰号是「霸王龙」(T-rex),这似乎是第一次有人提供 T-rex 黄金版。

无论如何,数据科学家和其他任何想要了解英伟达工作站「恐怖」之处的人,请准备好钱,准确地说是 2500 美元。对于英伟达来说,这个价格实际上比 3000 美元的 Titan V 还要低一些(TU102 制造成本更低,特别是没有 HBM2),但它仍然是一款昂贵的显卡。这款新显卡 Titan V 将在本月本月晚些时候出现在英伟达网站(http://www.nvidia.com/titan-rtx)。

活跃在 NeurIPS

英伟达把最高端的 Titan 显卡放在 NeurIPS 大会期间发布,这不是一个巧合:去年的 NIPS 大会上,黄仁勋正是在英伟达举办的晚宴上发布了 Titan V,还现场赠送了显卡。

今年,英伟达在 NeurIPS 上同样活跃,一篇「GAN 生成视频」的论文再次引来了人们的关注。其中人工智能技术与传统视频游戏引擎相结合,这种混合图形系统未来有望应用于游戏、电影和虚拟现实等领域。

英伟达放出的 Demo 视频是一个模拟驾驶环境,其中玩家可以在 AI 生成的城市中驾驶车辆——重要的是,这个演示视频仅需一块 GPU 即可实现(不过得是 Titan 级别的)。

真实图像与 AI 生成图像的对比。

英伟达的系统使用几个步骤来生成图形。首先,研究人员收集训练数据,这些数据来自用于自动驾驶研究的开源数据集。随后,计算机对这些图像进行分割处理——每一帧都被分成不同的类别:天空、汽车、树木、道路、建筑物等。然后,对分割后的数据训练生成对抗网络(GAN),以生成虚拟图像。

论文:Video-to-Video Synthesis

我们研究了视频到视频的合成问题,目标是学习从输入源视频(例如,一系列的语义分割掩码)到输出照片级视频的映射函数,输出视频精确地描绘了源视频的内容。与之对应的图像问题,即图像到图像合成问题是目前流行的研究课题,而视频到视频的合成问题则在文献中很少出现。在没有理解时间动力学的情况下,直接把已有的图像合成方法应用到输入视频通常会导致视觉效果差、时间不连贯的视频输出。

在本文中,我们提出了一种新型的生成对抗网络框架下的视频到视频合成方法。通过精心设计生成器和判别器架构,结合空间-时间对抗目标函数,我们在多种输入视频格式下生成了高分辨率、时间连贯的照片级视频,其中多种形式的输入包括分割掩码、草图和姿态图。

在多个基准上的实验结果表明,相对于强基线,我们的方法更具优越性。特别地,我们的模型可以合成长达 30 秒的 2K 分辨率街景视频,与当前最佳的视频合成方法相比具备显著的优势。最后,我们把该方法应用到未来视频预测中,结果超越了多个当前的最佳系统。

图 1:Cityscapes 结果。其中左上为输入图像、右上为 pix2pixHD 生成的图像、左下为 COVST 生成的图像、右下为本论文提出方法生成的图像。

参见:画个草图生成 2K 高清视频,这份效果惊艳研究值得你跑一跑

这一研究目前已经开源:


参考内容:

产业英伟达芯片Titan RTX
2
相关数据
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

自动驾驶技术技术

从 20 世纪 80 年代首次成功演示以来(Dickmanns & Mysliwetz (1992); Dickmanns & Graefe (1988); Thorpe et al. (1988)),自动驾驶汽车领域已经取得了巨大进展。尽管有了这些进展,但在任意复杂环境中实现完全自动驾驶导航仍被认为还需要数十年的发展。原因有两个:首先,在复杂的动态环境中运行的自动驾驶系统需要人工智能归纳不可预测的情境,从而进行实时推论。第二,信息性决策需要准确的感知,目前大部分已有的计算机视觉系统有一定的错误率,这是自动驾驶导航所无法接受的。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

基准技术

一种简单的模型或启发法,用作比较模型效果时的参考点。基准有助于模型开发者针对特定问题量化最低预期效果。

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

数据科学技术

数据科学,又称资料科学,是一门利用数据学习知识的学科,其目标是通过从数据中提取出有价值的部分来生产数据产品。它结合了诸多领域中的理论和技术,包括应用数学、统计、模式识别、机器学习、数据可视化、数据仓库以及高性能计算。数据科学通过运用各种相关的数据来帮助非专业人士理解问题。

光线追踪技术

在计算机图形学中,光线跟踪是一种渲染技术,用于通过将光的路径跟踪为图像平面中的像素并模拟虚拟对象对光线的接收效果来生成图像。 该技术能够产生非常高的视觉真实感,通常高于典型扫描线渲染方法,但计算成本更高。

虚拟现实技术

虚拟现实,简称虚拟技术,也称虚拟环境,是利用电脑模拟产生一个三维空间的虚拟世界,提供用户关于视觉等感官的模拟,让用户感觉仿佛身历其境,可以及时、没有限制地观察三维空间内的事物。用户进行位置移动时,电脑可以立即进行复杂的运算,将精确的三维世界视频传回产生临场感。

张量技术

张量是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数,这些线性关系的基本例子有内积、外积、线性映射以及笛卡儿积。其坐标在 维空间内,有 个分量的一种量,其中每个分量都是坐标的函数,而在坐标变换时,这些分量也依照某些规则作线性变换。称为该张量的秩或阶(与矩阵的秩和阶均无关系)。 在数学里,张量是一种几何实体,或者说广义上的“数量”。张量概念包括标量、矢量和线性算子。张量可以用坐标系统来表达,记作标量的数组,但它是定义为“不依赖于参照系的选择的”。张量在物理和工程学中很重要。例如在扩散张量成像中,表达器官对于水的在各个方向的微分透性的张量可以用来产生大脑的扫描图。工程上最重要的例子可能就是应力张量和应变张量了,它们都是二阶张量,对于一般线性材料他们之间的关系由一个四阶弹性张量来决定。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

映射技术

映射指的是具有某种特殊结构的函数,或泛指类函数思想的范畴论中的态射。 逻辑和图论中也有一些不太常规的用法。其数学定义为:两个非空集合A与B间存在着对应关系f,而且对于A中的每一个元素x,B中总有有唯一的一个元素y与它对应,就这种对应为从A到B的映射,记作f:A→B。其中,y称为元素x在映射f下的象,记作:y=f(x)。x称为y关于映射f的原象*。*集合A中所有元素的象的集合称为映射f的值域,记作f(A)。同样的,在机器学习中,映射就是输入与输出之间的对应关系。

目标函数技术

目标函数f(x)就是用设计变量来表示的所追求的目标形式,所以目标函数就是设计变量的函数,是一个标量。从工程意义讲,目标函数是系统的性能标准,比如,一个结构的最轻重量、最低造价、最合理形式;一件产品的最短生产时间、最小能量消耗;一个实验的最佳配方等等,建立目标函数的过程就是寻找设计变量与目标的关系的过程,目标函数和设计变量的关系可用曲线、曲面或超曲面表示。

语义分割技术

语义分割,简单来说就是给定一张图片,对图片中的每一个像素点进行分类。图像语义分割是AI领域中一个重要的分支,是机器视觉技术中关于图像理解的重要一环。

生成对抗网络技术

生成对抗网络是一种无监督学习方法,是一种通过用对抗网络来训练生成模型的架构。它由两个网络组成:用来拟合数据分布的生成网络G,和用来判断输入是否“真实”的判别网络D。在训练过程中,生成网络-G通过接受一个随机的噪声来尽量模仿训练集中的真实图片去“欺骗”D,而D则尽可能的分辨真实数据和生成网络的输出,从而形成两个网络的博弈过程。理想的情况下,博弈的结果会得到一个可以“以假乱真”的生成模型。

推荐文章
暂无评论
暂无评论~