一项新的证明,让数学家们离理解「算术原子」素数的隐藏顺序更近了一步。
Auto Byte
专注未来出行及智能汽车科技
微信扫一扫获取更多资讯
Science AI
关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展
微信扫一扫获取更多资讯
Week 51 · Meta 提出无需 Tokenizer 新架构,不同模态的对齐、融合还会是难题吗?
12.20本周,CMU 等多家机构联合推出生成式物理引擎 Genesis;谷歌发布 Gemini 2.0 Flash Thinking 版模型。
Week 50 · 预训练将结束?AI的下一步发展有何论调?Scaling Law 撞墙与否还重要吗?
12.13本周,谷歌发布量子芯片Willow;Yann LeCun 团队提出导航世界模型 NVM。
Week 49 · 在推理阶段给大模型「打补丁」之外,实现更强 AI 还有哪些不一样的思路?
12.06本周,OpenAI 发布推理模型 o1 的完全体版本;谷歌DeepMind 发布 Genie 2 世界模型。
Week 48 · Ilya 「Scaling What」的答案会是程序性知识吗?
11.29本周,艾伦研究院 「完全开源」TÜLU 3 模型及后训练详情;亚马逊向 Anthropic 追加投资 40 亿美元。
Week 47 · RL「误人」?LeCun 在技术路线上又有何战略摇摆?
11.22本周, NEO 推出可自主学习的 AI 工程师,Kaggle 表现优于 o1;月之暗面推出 k0-math 推理模型以及 Kimi 探索版功能。
Week 46 · AI 竞赛进入推理阶段:扩展测试时间计算是万能的吗?Scaling What 成为关键
11.16本周,外媒曝 OpenAI 调整技术策略引热议;MIT 和哈佛分别发文探讨 Scaling Law 局限与改进机会。
Ilya 小题大作?「预训练终结」≠ Scaling Law 撞墙?
12.20前 OpenAI 首席科学家 Ilya Sutskever 在 NeurIPS 2024 会议上作主题演讲,分享了他关于人工智能的未来发展方向,特别是围绕数据峰值的问题、预训练模型的局限性、以及下一代 AI 模型的自主性和推理能力等方面的看法。他讨论了现有数据资源的限制对 AI 训练方式的影响,并预测了 AI 系统将如何发展出更类似于人类思考方式的推理能力。然而,Ilya Sutskever 在演讲中有关「预训练结束」的判断引发了许多争议。
Meta 提出无需 Tokenizer 新架构,不同模态的对齐、融合还会是难题吗?
12.20来自 Meta 、芝加哥大学等机构的研究者近期提出了一种新型字节级大型语言模型架构 Byte Latent Transformer (BLT) ,摒弃了传统的 tokenizer 架构,直接建模原始字节流。社交平台 Reddit 多位网友指出,BLT 架构对于解决多模态模型训练中不同模态对齐、融合问题具有极大的潜在价值。
深度访谈:Gemini 2.0 如何映射 DeepMind 的研究路线?
12.20在 Gemini 2.0 模型发布后,DeepMind Drastic Research 副总裁兼 Gemini 联合技术负责人 Oriol Vinyals 在最新一期的谷歌 DeepMind 官方播客中,与 Hannah Fry 教授进一步分享了关于 Gemini 2.0 模型的下一步计划,并从 Gemini 2.0 在设计出发,分享了他对于 AI Agent、多模态系统以及自主决策等方面的看法。
预训练将结束?AI的下一步发展有何论调?Scaling Law 撞墙与否还重要吗?
12.13Scaling Law 撞墙的消息传出后引发了大量消极的论调。回顾 2022 年,深度学习领域也曾面临类似的“撞墙”质疑,但事实证明,这些担忧并未成为现实。语言模型的 Scaling Law 允许研究者预测模型性能随参数、数据和计算资源变化的趋势。尽管其在推动 AI 发展中扮演了重要角色,但构建更强大的 AI 系统并非只有一条路径。
世界模型才是智驾唯一解?造车新势力们对于自动驾驶世界模型的探索路线有何异同?
12.13「端到端」模型上车概念的热潮下,世界模型才是通往 L4 的关键?
麦肯锡报告:未来可能重塑全球经济的 18 个领域
12.13麦肯锡全球研究所近日发布报告《The next big arenas of competition》,该报告预测了未来可能重塑全球经济的 18 个潜在竞争领域。
一项新的证明,让数学家们离理解「算术原子」素数的隐藏顺序更近了一步。
我们或许可以称o3是「更高级的推理AI」,而远不是AGI。
近期,OpenAI 号称最强推理模型的推出,引发了社区的热议,无论是性能还是价格,都产生了不少话题。
现有的深伪检测方法大多依赖于配对数据,即一张压缩图像和其对应的原始图像来训练模型,这在许多实际的开放环境中并不适用。
刚刚,OpenAI 为期 12 天的发布迎来尾声。如外界所料,新的推理系列模型 ——o3 和 o3-mini 成为这次发布的收官之作。
如今,多模态大模型(MLLM)已经在视觉理解领域取得了长足进步,其中视觉指令调整方法已被广泛应用。
人能逆向思维,LLM 也可以吗?北卡罗来纳大学教堂山分校与谷歌最近的一项研究表明,LLM 确实可以,并且逆向思维还能帮助提升 LLM 的正向推理能力!
想象一下,市面上有数十种形态各异的灵巧手,每一款都被设计得精巧而独特。
华人学生占比 70%。
自动驾驶行业正经历新一轮洗牌。
2024 年 12 月 19 日,智源研究院发布并解读国内外 100 余个开源和商业闭源的语言、视觉语言、文生图、文生视频、语音语言大模型综合及专项评测结果。
不仅能推理,还能明确展示自己「推理逻辑」的大模型出现了。
最热文章