Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

未来工厂
榜单2024
人才港
端侧AI
Stable Diffusion 实战课
视频生成
向量数据库
llama2
量子经典课
声纹
iconicon最新通讯
iconicon最新参考

Ilya 小题大作?「预训练终结」≠ Scaling Law 撞墙?

icon12.20

前 OpenAI 首席科学家 Ilya Sutskever 在 NeurIPS 2024 会议上作主题演讲,分享了他关于人工智能的未来发展方向,特别是围绕数据峰值的问题、预训练模型的局限性、以及下一代 AI 模型的自主性和推理能力等方面的看法。他讨论了现有数据资源的限制对 AI 训练方式的影响,并预测了 AI 系统将如何发展出更类似于人类思考方式的推理能力。然而,Ilya Sutskever 在演讲中有关「预训练结束」的判断引发了许多争议。

Meta 提出无需 Tokenizer 新架构,不同模态的对齐、融合还会是难题吗?

icon12.20

来自 Meta 、芝加哥大学等机构的研究者近期提出了一种新型字节级大型语言模型架构 Byte Latent Transformer (BLT) ,摒弃了传统的 tokenizer 架构,直接建模原始字节流。社交平台 Reddit 多位网友指出,BLT 架构对于解决多模态模型训练中不同模态对齐、融合问题具有极大的潜在价值。

深度访谈:Gemini 2.0 如何映射 DeepMind 的研究路线?

icon12.20

在 Gemini 2.0 模型发布后,DeepMind Drastic Research 副总裁兼 Gemini 联合技术负责人 Oriol Vinyals 在最新一期的谷歌 DeepMind 官方播客中,与 Hannah Fry 教授进一步分享了关于 Gemini 2.0 模型的下一步计划,并从 Gemini 2.0 在设计出发,分享了他对于 AI Agent、多模态系统以及自主决策等方面的看法。

预训练将结束?AI的下一步发展有何论调?Scaling Law 撞墙与否还重要吗?

icon12.13

Scaling Law 撞墙的消息传出后引发了大量消极的论调。回顾 2022 年,深度学习领域也曾面临类似的“撞墙”质疑,但事实证明,这些担忧并未成为现实。语言模型的 Scaling Law 允许研究者预测模型性能随参数、数据和计算资源变化的趋势。尽管其在推动 AI 发展中扮演了重要角色,但构建更强大的 AI 系统并非只有一条路径。

世界模型才是智驾唯一解?造车新势力们对于自动驾驶世界模型的探索路线有何异同?

icon12.13

「端到端」模型上车概念的热潮下,世界模型才是通往 L4 的关键?

麦肯锡报告:未来可能重塑全球经济的 18 个领域

icon12.13

麦肯锡全球研究所近日发布报告《The next big arenas of competition》,该报告预测了未来可能重塑全球经济的 18 个潜在竞争领域。

iconicon