Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

万字长文,腾讯、清华等多位生物大模型作者专访,畅谈AI生物学,解析大型细胞模型技术

图片

编辑 | KX

大型语言模型(LLM)在自然语言处理和理解领域已取得重大突破。

在生物学领域,一些采用类似 LLM 结构的大型细胞模型(Large Cellular Model,LCM)被开发用于单细胞转录组学,比如:scBERT、Geneformer、scGPT、scFoundation 和 GeneCompass。

这些模型展示了 LCM 在各种生物任务中的应用潜力,并说明了 LCM 彻底改变未来生物学研究的可能性。

图片

大型细胞模型的示意图。

近日,《Quantitative Biology》期刊采访了一些最具影响力的 LCM 背后的有影响力的作者。例如:腾讯 AI Lab 杨帆和姚建华(scBERT)、加州大学 Christina V. Theodoris(Geneformer)、多伦多大学王波scGPT )、清华大学张学工(scFoundation)以及中国科学院李鑫和杨戈(GeneCompass)。

该评论文章详细介绍了这些模型背后的总体框架和核心人工智能概念,并前瞻性地讨论了这些模型如何与生物学知识有效结合。还讨论了 LCM 研究和开发过程中面临的关键挑战,包括缩放规律问题和数据预训练的必要性。

这些观点阐明了 LCM 对生物研究的变革性影响,并让我们看到了 AI 和生命科学融合,回答有关生命的关键问题的未来。

图片

论文链接:https://onlinelibrary.wiley.com/doi/10.1002/qub2.65

ScienceAI 对原论文进行了不改变原意的编辑、整理:

对所有作者的问题

Quantitative Biology:你能否简要介绍一下你的模型是什么,以及它可以用于什么?

杨帆&姚建华:scBERT 是一种预训练语言模型,旨在将单细胞转录组数据转换为通用嵌入。这种基于 Transformer 的模型使用 BERT 范式进行训练,可用于各种应用,包括细胞类型注释、新细胞类型的发现和新标记基因的识别。

Christina V. Theodoris:Geneformer 是一种基础深度学习模型,在约 3000 万个单细胞转录组的大规模语料库上进行预训练,通过迁移学习,在网络生物学中数据有限的环境中实现上下文特定的预测。通过零样本学习和有限数据微调,Geneformer 在一系列具有生物学意义的下游任务中持续提高了预测准确性。我们展示了 Geneformer 获得新生物学见解的能力,包括通过零样本学习发现心肌细胞中的新转录因子,以及使用有限的患者数据揭示心肌病的候选治疗靶点,这两项我们都通过细胞功能分析进行了实验验证。Geneformer 对基因网络动态的基本理解现在可以推广到大量下游任务,以加速发现关键网络调节器和候选治疗靶点。

王波scGPT 是一个在 3300 万个人类细胞上进行预训练的单细胞基础模型。受 LLM 的启发,scGPT 作为基础模型,首先从大规模多样化的人类细胞预训练数据集中学习单细胞生物学,然后有效地将知识转移到各种下游任务。

scGPT 利用注意力机制的 Transformer 主干来捕捉基因之间错综复杂的互连性。更重要的是,scGPT 设计了一种特殊的注意机制,具有细胞提示和基因提示,能够以自回归的方式使用非序列 scRNA-seq 数据进行生成训练。预训练的 scGPT 模型表现出对新数据集的稳健外推能力,在零样本实验中准确地聚类细胞类型并与已知的基因网络对齐。通过微调,其知识可以转移到各种任务中,在细胞类型注释和扰动预测任务中始终优于专门的模型。

张学工:scFoundation 是一个在单细胞转录组学数据上进行预训练的模型,在参数大小、基因维数和训练数据大小方面规模很大。得益于模型架构设计和训练策略,它可以为单细胞和批量分析提供有价值的嵌入。这些嵌入可以应用于各种细胞级任务,例如增强基因表达、注释细胞类型以及预测组织和单个细胞中的药物反应。此外,scFoundation 可以生成基因级嵌入,用于推断基因网络和预测扰动对单细胞的影响。

李鑫&杨戈:GeneCompass 是一个知识型跨物种基础模型,在超过 1.2 亿个人类和小鼠单细胞转录组上进行了预训练。启动子序列、基因家族、基因调控网络 (GRN) 和共表达关系这四种先验知识通过将其编码到输入中而被整合到 GeneCompass 中。GeneCompass 可以促进整个生物领域的广泛应用,包括跨物种细胞类型注释、GRN 预测、药物剂量反应预测和扰动预测。此外,GeneCompass 可以通过在高维嵌入空间中进行计算机基因扰动来加速关键细胞命运调节因子的发现。

关于 scBERT 的访谈

Quantitative Biology:scBERT 是第一个针对单细胞 RNA 序列数据开发的类 Transformer 模型吗?您是如何启动这个项目的,以及在工作中遇到了哪些主要挑战?

杨帆&姚建华:我们于 2021 年初启动了 scBERT 项目,并于 2021 年 12 月发布了代码和预印本论文。据我们所知,scBERT 是第一个针对单细胞 RNA 序列数据的类 Transformer 模型。受 BERT 范式在 NLP 中的成功的启发,我们将 BERT 应用于单细胞 RNA 序列数据。

这项开创性的工作带来了几个挑战,其中最主要的是将单细胞 RNA 序列数据(通常为计数矩阵格式)转换为 Transformer 的输入嵌入。在彻底研究了 scRNA 数据的性质并与 NLP 专家讨论后,我们设计了基因嵌入和表达嵌入,类似于 NLP 中的位置嵌入和词嵌入。这些嵌入的成功实现启发了后续几个基于 Transformer 的模型的设计。其他挑战包括收集大量合适的训练数据,以及如何有效地进行自监督预训练。

Quantitative Biology:您认为 AI 模型扩展或应用于生命科学任务的关键技术挑战是什么?

杨帆&姚建华:我认为 AI 扩展或应用于生命科学任务的关键技术挑战在于定义问题,并将具有生物学价值的问题公式化为 AI 算法可优化的对象。另一个重要的技术挑战是如何基于极其稀缺的实验数据构建高性能模型。我认为这是生命科学中常见的场景。

图片

scBERT 模型概述。

Quantitative Biology:scBERT 是 3 年前建立的。从那以后,你们实验室的研究进展如何?

杨帆&姚建华:从那时起,我们就一直在探索 AI 在空间组学和单细胞蛋白质组学中的应用。在空间组学方面,我们开发了一种细胞类型注释算法和一种微环境分析工具。至于单细胞蛋白质组学,我们开发了一个通用嵌入框架和一种反卷积算法。我们所有的工作都集中在中心法则及其潜在的生物学应用上。

Quantitative Biology:您对 AI 模型在生物学研究中的潜在应用有何看法?

杨帆&姚建华:AI 可以促进生物学研究的各个方面,从理解、发现到创造。分析单细胞多组学数据使我们能够从系统的角度了解单个细胞中 DNA、RNA 和蛋白质之间的相互作用。将这些数据(可选的其他模态数据)与表型(如患者级标签)联系起来,可以帮助我们了解疾病过程并发现新疗法的新靶点。通过对蛋白质与其他分子之间的原子级相互作用进行建模,我们可以从头设计(创造)新型蛋白质结合药物。本质上,我们可以利用人工智能帮助我们了解生命的本质并改善我们的生活质量。

Quantitative Biology:人工智能和生物学领域都在快速发展,技术以前所未有的速度更新甚至革命。您如何看待人工智能在生物研究中的应用?

杨帆&姚建华:众所周知,AlphaFold2 通过相对准确地从序列预测蛋白质结构,彻底改变了结构生物学。已经出现了更多模型来预测蛋白质与其他分子相互作用的复合物的结构,例如核酸、化学药物和共价修饰。在不久的将来,我认为用于蛋白质复合物分析的人工智能,结合单细胞多组学提供的细胞背景,有望为生物研究带来有价值的应用。

关于 Geneformer 的访谈

Quantitative Biology:您在实际生物学问题上应用 Geneformer 时取得了哪些重大生物学发现?这些发现是否也能通过更传统的统计或机器学习方法找到?

Christina V. Theodoris:我们展示了 Geneformer 能够通过零样本学习和微调在各种生物学环境中进行预测的能力,包括基因网络动力学、染色质动力学、动态细胞轨迹和疾病依赖性失调。我们将 Geneformer 应用于广泛的组织、疾病和发育阶段,以确认其基本知识的普遍性。我们还将 Geneformer 与随机森林支持向量机逻辑回归等替代机器学习方法进行了比较,发现 Geneformer 始终提高了预测准确性。

在新发现方面,我们设计了一种计算机扰动方法,通过零样本学习发现了心肌细胞中的一种新型转录因子,我们通过实验证实了该转录因子对细胞产生收缩力的能力至关重要。尽管之前对心肌细胞进行了数十年的研究,但 Geneformer 仍然能够发现这种新型调节剂,并且这些预测被证实对细胞具有真正的生物学效应,这让我们感到兴奋。

然后,我们将我们的方法扩展到计算机治疗策略,该方法发现了心肌细胞中的新型治疗靶点,可显著提高心肌病诱导多能干细胞疾病模型中细胞产生收缩力的能力。我们很高兴该模型能够预测对细胞表型具有真正生物学影响的新型治疗靶点,并期待看到其他人如何使用 Geneformer 推动未来在其他疾病和生物学环境中的发现。

Quantitative Biology:您是一位研究心血管疾病的科学家,您能否在心血管研究中给出一些您认为人工智能尤其是 LCM 将发挥重要作用的场景?

Christina V. Theodoris:从更广泛的角度看,生物学的主要障碍之一是,要在湿实验室实验中测试所有天文数字的扰动,以发现网络调节因子和治疗靶点,这是不可行的,而且成本过高。人工智能的主要前景之一是能够以无偏见、数据驱动的方式有效地计算下游实验的优先级。此外,通过采用闭环方法,湿实验室中优先考虑的下游实验的数据可以向模型提供反馈,说明其预测在哪里是正确的,在哪里是错误的,从而不断利用真实世界的数据改进模型的预测。

Quantitative Biology:在您文章的讨论部分,你预测「随着公开可用的转录组数据的数量不断扩大,未来的模型在更大规模的语料库上进行预训练,可能会有机会在越来越有限的特定任务数据中实现更难以捉摸的任务的有意义的预测」,你能给一些可能属于这一类的任务的例子吗?

Christina V. Theodoris:我们在 2021 年 6 月对 Geneformer 进行了预训练,从那时起,公共领域可用的单细胞转录组数据的数量和多样性迅速增加。我们在 Geneformer 手稿中测试的最困难的任务之一是预测转录因子是否在短距离或长距离作用于其靶标。对于模型来说,仅使用转录组数据进行预测是一项特别困难的任务,而没有关于基因组距离的信息。然而,该模型能够在一定程度上预测转录因子的这种高阶属性,而更传统的机器学习方法则具有随机预测。

随着模型在更大量的数据上进行预训练,它们可能会获得更多的基础知识,从而更好地预测基因的这些高阶特征。此外,Geneformer 能够用少至 ∼800 个任务特定细胞来预测基因的网络中心性。随着模型在更大规模的预训练过程中获得更多的基础知识,这些任务可以用更少的任务特定细胞来完成,甚至可以在没有微调数据的情况下通过零样本学习来完成。

Quantitative Biology:您的实验室在开发生物学 AI 模型时面临哪些障碍?

Christina V. Theodoris:最大的障碍仍然是获取足够的 GPU 计算资源来训练我们感兴趣的模型类型,与工业界公司可用的资源相比,这是大多数学术机构面临的问题。另一个主要障碍是统一存储在公共领域的数据,这些数据格式极其多变,而且很多时候几乎没有关于数据之前如何处理或相关元数据的信息,例如样本是来自健康人还是疾病患者等。随着我们认识到 AI 在生物医学研究中的前景,开发系统从而将数据结构化为 AI 就绪数据非常重要,这样才能最大限度地利用全球投入到生物研究的巨额资金。CELLxGENE 就是这样一种数据库,它允许基于应用程序编程接口 (API) 高效访问大量单细胞数据,为其他类型的生物数据提供了一个效仿的例子。

图片

Geneformer 架构和迁移学习策略。

Quantitative Biology:您的研究成果发表已经一年多了,您能否向我们简要介绍一下您实验室正在进行的研究,这些研究是基于 Geneformer 或其他大型细胞模型建立的或与之相关的吗?如今,许多生物学家都对将人工智能(尤其是大型模型)引入他们的研究感兴趣,您对他们有什么建议吗?让他们的工作更顺利,或者他们可能需要注意的陷阱是什么?

Christina V. Theodoris:我们的实验室利用人工智能和实验基因组学来解决基因网络生物学的主要挑战。我们实验室的一部分专注于开发新的人工智能模型,扩展我们的迁移学习方法,以解决新的方向,例如基因网络如何通过空间和时间影响细胞相互作用。我们实验室的另一部分是应用这些模型来研究基因调控中尚未解答的基本问题,并确定人类疾病的网络校正疗法。我们强调计算和实验成员之间的密切合作,以促进闭环人工智能和实验基因组学策略,从而加速我们的发现。

在将 AI 融入生物研究方面,一个常见的陷阱是用户将默认超参数应用于他们感兴趣的所有任务,而超参数调整非常重要,并且可能是模型完全不学习或具有近乎完美的预测准确性之间的区别。其他建议包括确保数据在其他潜在混杂属性之间保持平衡,并收集足够的数据以按样本/个体分成单独的训练、验证和测试集,而不是对所有分割的所有条件的细胞进行子采样。值得注意的是,如果使用验证集来优化超参数,则使用单独的保留测试集来确认最佳模型对未见数据的通用性。

Quantitative Biology:AI 和生物学领域都在快速发展,技术以前所未有的速度更新甚至革命。您如何看待 AI 在生物和医学研究中的应用?

Christina V. Theodoris:这是 AI 和生物学领域极其激动人心的时刻。随着当前大规模生物数据的蓬勃发展,我们现在正进入一个可以训练大规模人工智能模型以对生物学有基本了解的领域。随着基础模型方法被生物研究界采用,也有机会根据生物系统的独特特征推动人工智能的创新,例如需要遵守限制物理上可能的蛋白质结构的物理定律等。

scGPT 访谈

Quantitative Biology:人们对大型细胞模型在生物学研究中的应用寄予厚望,但也有人怀疑大型模型的必要性。有人认为,LCM 在许多单细胞分析任务上的卓越性能也可以通过针对这些特定任务精心设计的方法实现,但这些方法在数据和计算成本方面可以更轻量。您对这种怀疑有何看法?

王波:毫无疑问,更简单的模型可以进行优化,从而在特定任务的特定数据集上表现良好。LCM 可以弥补「小模型」方法的两个局限性。

首先,小模型的建模能力受到参数大小的限制。由于这一限制,大多数当前的分析方法严重依赖可变基因选择或其他预处理步骤来减少输入大小和异质性。另一方面,LCM 使用注意力来从整个基因组中捕获基因水平的相互作用,从而呈现更完整的基因相互作用图,这可能有助于更广泛的假设生成。

其次,生物实验的观察结果很嘈杂。小型模型通常难以推广到看不见的数据集或实验条件,并且容易对手头实验的噪声过度拟合。让模型从大规模异构数据中学习细胞表征有助于从噪声中辨别生物信号,从而呈现对潜在生物学的更公正的看法。

Quantitative Biology:当前的 LCM 都基于最初为 NLP 中的任务开发的基本 Transformer 结构。不同的 LCM 使用不同的方式采用基本结构以适用于生物数据。根据您在开发 scGPT 方面的经验,将 LLM 用于 LCM 的主要挑战是什么?您是否认为有必要或有可能专门为生物数据和任务设计根本不同的结构?

王波:考虑到单细胞数据的非序列性质,我们在开发 scGPT 时面临的关键挑战是如何将 LLM 中使用的生成预训练最好地适应 LCM。从高层次来看,自回归训练和生成与捕获基因相互作用的级联并预测细胞对扰动的反应的想法一致。替代架构包括 BERT 和扩散模型,它们也值得在不假设序列的情况下进行探索。

图片

scGPT 模型概述。

Quantitative Biology:一些生物信息学家表示,随着大型模型的参与,与大多数研究都可以使用相对简单的数学模型和基于较小数据的更简单的算法完成的「美好旧时代」相比,进行生物信息学研究的成本激增。您是否同意这个观点,或者您对计算资源较少的生物信息学实验室有什么建议,关于他们如何从当前 AI 的进步中受益?

王波:我们的目标是开发有益于社区并协助生物学家日常工作的工具。具体来说,对于 scGPT,我们将模型托管在 scGPT Hub 上,生物学家可以通过上传数据集来微调模型。在设计新模型时,考虑可访问性非常重要,随着我们进入 LCM 时代,我们设想生物学家将能够轻松获得更多基于云的平台,从而降低计算障碍。

Quantitative Biology:人工智能和生物学领域都在快速发展,技术以前所未有的速度更新甚至革命。您如何看待人工智能在生物和医学研究中的应用?

王波人工智能是一种有价值的工具,它为生物学家提供了更多的建模能力,以模拟生物学中的复杂过程。临床研究中的最新预测模型使医院和诊所的日常工作流程受益,提高了患者护理的标准。我们设想人工智能以类似的方式融入生物研究,生物学家参与其中,帮助他们更有效、更高效地解决问题。

scFoundation 访谈

Quantitative Biology:社区中存在一些误解,认为 LCM 只是将 Transformer 直接应用于单细胞数据。根据您的经验,设计适用于细胞数据的模型的关键挑战是什么?scFoundation 与其他 LCM 的区别是什么?

张学工:设计模型的关键挑战在于处理 scRNA-seq 数据的高维性和高稀疏性特性,以及消除生物变异带来的技术噪音。具体来说,当将每个细胞建模为一个句子,将每个基因表达值建模为一个单词时,近 20,000 个蛋白质编码基因使「句子」异常长,这是传统 Transformer 难以处理的场景。至于技术噪音,不同技术和实验室的 scRNA-seq 数据在测序读取深度方面表现出很大的差异。

为了应对这些挑战,scFoundation 采用了可扩展的基于 Transformer 的架构 xTrimoGene 和一种基于掩码语言建模原理的新型读取深度感知 (RDA) 预训练任务。

xTrimoGene 架构具有一个嵌入模块,可将连续基因表达值转换为可学习的高维向量而无需近似,并且具有非对称编码器-解码器结构,该结构经过量身定制,可有效学习 20,000 个基因之间的关系,同时适应单细胞基因表达数据的高稀疏性。

在 RDA 建模中,任务是使用同一细胞内其他基因提供的上下文来预测细胞中的掩码基因表达,无论这些基因表达是具有原始的还是降低的读取深度。这种方法不仅可以捕获基因-基因关系,还可以协调不同测序深度的细胞,具有 scFoundation 在其他 LCM 中的独特设计。

Quantitative Biology:许多生物学家都渴望将 LCM 引入他们的项目,生物学家或生物信息学家在工作中使用 scFoundation 的最典型方式是什么?他们可以从这些应用中期待什么好处?

张学工:为了研究将 scFoundation 等 LCM 整合到生物学研究中,将其应用分为两大类很有帮助:细胞级任务和基因级任务。细胞级任务通常侧重于识别细胞的特征,例如细胞类型注释或药物敏感性预测。基因级任务更多地是了解基因之间的关系或预测基因表达的变化,例如通过基因网络推断或基因扰动预测。

对于细胞级任务,scFoundation 的常见方法是利用模型的编码器获得读取深度增强的嵌入。这些嵌入可以快速生成并应用于各种下游任务,在短短几分钟内提供读取深度增强的丰富细胞潜在表示,而无需大量计算资源或耗时的微调。此过程有效地将嵌入的生成与下游分析分离开来,为后续模型的应用提供了极大的灵活性。

对于基因级任务,典型的用法包括从模型的解码器中提取基因嵌入。重要的是,scFoundation 为每个细胞内的所有基因提供上下文嵌入,从而能够构建细胞特异性基因共表达网络。对于希望开发更复杂、更准确的算法的用户来说,此功能非常宝贵。例如,这些上下文嵌入可以作为扰动预测模型的输入,从而提高其预测的准确性。这种双重应用方法允许用户利用 scFoundation 显著推进他们的研究,无论是在效率方面还是在科学洞察力方面。

Quantitative Biology:一些生物信息学家表示,随着大型模型的参与,与大多数研究都可以使用相对简单的数学模型和基于较小数据的更简单的算法进行相比,进行生物信息学研究的成本激增。您是否同意这一观点,或者您对计算资源较少的生物信息学实验室有什么建议,告诉他们如何从当前 AI 的进步中受益?

张学工:我们完全理解人们对 LCM 和传统生物信息学方法之间的成本比较的担忧。然而,我们认为这两种方法不是竞争对手,而是互补的。例如,在我们的 scFoundation 工作中,我们证明了虽然 scFoundation 模型在针对特定任务进行微调时性能出色,但它也可以有效地与现有模型结合以提高整体性能。这种整合突出了将大规模基础模型纳入用户工作流程的未来方向,从而减轻了训练的繁重计算需求。

为了帮助计算资源有限的实验室,我们提倡开源模型代码和权重,例如 scFoundation 和其它在 GitHub/Hugging Face Model Hub 上可用的 LCM。此外,我们还为 scFoundation 开发了在线 Web 服务和 API,允许用户直接利用预训练的嵌入执行后续任务。该 API 为各个实验室提供了更易于访问和实用的解决方案,无需针对特定数据集进行重新训练或微调。

图片

scFoundation 模型及下游应用场景。

Quantitative Biology:在 NLP 领域,人们说他们观察到一种「缩放定律」,即当涉及更多数据和更大模型时,模型的性能总是会提高。您在 LCM 上观察到了同样的定律吗?有没有办法确定「合适的」模型规模?

张学工:确实,我们在工作中观察到了与 NLP 中类似的缩放定律。我们用 3、10 和 1 亿个参数对 scFoundation 模型进行了预训练,并注意到模型准确预测掩蔽细胞基因表达的能力随着规模的增加而增加。这表明更大的 scFoundation 模型可能会提供更高的预测性能,这表明我们尚未达到模型规模的上限。

确定「合适的」模型规模涉及几个因素。首先,积累尽可能多的单细胞数据集对于有效扩展模型至关重要。我们在 xTrimoGene 论文中的发现证实,更大的数据集可以显著提高性能。其次,模型架构本身至关重要;鉴于 LCM 与 NLP 相比具有独特的损失函数和数据模式,设计保持缩放定律的预训练模型至关重要。

解决这些因素后,就可以通过参考使用类似数据标记量训练的 NLP 模型来衡量 LCM 的适当大小。最后,还必须考虑部署成本。由于我们仍处于 LCM 开发的起点,因此必须平衡用户的成本影响和他们的期望。在 scFoundation 的情况下,我们努力最大化模型大小,同时确保它仍然可管理,例如可在单个 A100 GPU 上训练并可在更常见的 GPU(如 RTX4090)上部署。这种方法有助于我们在计算能力和可访问性之间保持平衡。

Quantitative Biology:鉴于 scFoundation 保留了所有用于训练的基因,该模型是否可以扩展以包含多组学数据?这种扩展可能为深入了解细胞生物过程提供途径。

张学工:整合多组学数据确实可以提供细胞状态的整体视角。为了扩展 scFoundation 的功能以涵盖多组学数据(例如 ATAC/RNA 整合),我们可以进行几种可能的策略。一种可能的方法是设计利用基因表达和 ATAC-seq 数据的任务。例如,我们可以开发模型来根据 ATAC-seq 上下文预测基因表达值,反之亦然。具体而言,在预测 ATAC-seq 信息时,我们可以通过合并针对从预训练的 scFoundation 派生的每个基因上下文嵌入量身定制的附加 Transformer 块来增强现有的 scFoundation 架构。然后,这些嵌入将由新的 Transformer 处理,以预测与特定基因区域相关的染色质可及性峰。考虑到可访问峰的数量可能非常庞大,探索高级 Transformer 架构以有效处理数据可能是明智之举。

Quantitative Biology:世界正在见证人工智能领域的快速发展,即文本、图像、语音和视频等多模态信息的高保真生成。您认为这些技术很快也会被应用于生物学研究吗?

张学工:生成学习是当前大型 AI 模型中的一个重要范式,在许多任务中都取得了巨大的成功。在 scFoundation 成功的鼓舞下,我们开发了一个新模型 scMulan,它使用纯生成范式来学习细胞语言,包括基因表达数据和各种类型的元数据。初步实验已经证明了它在某些任务中的优势,以及在有条件生成可以携带真实生物信息的合成单细胞转录组数据方面的强大功能。它在进行虚拟细胞实验方面表现出了巨大的潜力,例如在计算机中扰动和沿着生物事件轨迹生成细胞。

跨多种生物模态的数据学习和生成是许多实验室正在研究的课题。我们相信,多媒体数据理解和生成的技术进步,必将提供解决方案或解决方案的提示。然而,很难预测这会在多久后取得成功。生物场景和多媒体场景的一个根本区别在于,人们擅长理解多媒体数据及其潜在含义,但还远未真正理解许多模态中的生物数据及其潜在含义。这是一个值得探索的方向,但找到与当前技术、数据和知识可用性兼容的可行角度至关重要。

关于 GeneCompass 的访谈

Quantitative Biology:与其他已发布的 LCM 相比,GeneCompass 的一个独特之处在于它使用来自人类和小鼠的数据进行训练。您认为这种设置有什么好处?有哪些下游任务只能用 GeneCompass 完成,而仅使用人类数据进行预训练的 LCM 无法完成?

李鑫&杨戈:正如背景中提到的,大量单细胞数据对于预训练 LCM 至关重要。人们认为,多样性更高、容量更大的数据可以实现更好的性能。与仅使用人类数据进行预训练的 LCM 相比,GeneCompass 是使用最多数据进行预训练的 LCM,超过 1.2 亿个细胞,这使得它在几个下游任务上的表现优于一些早期的 LCM。其内在的生物学原理是人类和小鼠之间的 GRN 保守性。通过同源基因映射,一个物种中学习到的潜在基因关系将转移到另一个物种,这对于需要 ChIP-seq 数据的下游任务至关重要。如果只在人类数据上,跨物种细胞类型注释是无法完成的下游任务之一。

基于预训练的 GeneCompass,我们利用小鼠细胞类型作为参考,在来自四个不同器官(视网膜、大脑、胰腺和睾丸)的七对数据集上注释人类细胞。与 CAME 相比,在视网膜上观察到 7.5% 的改进,表明 GeneCompass 可以与领先的专业跨物种细胞注释工具相媲美,甚至超越它。

Quantitative Biology:GeneCompass 的一个新功能是将知识整合到基因建模中。许多人认为,在设计 AI 系统时整合数据和知识是复杂生物任务的未来解决方案。您能否根据自己的实践,就这个主题的可能策略或方法发表见解?

李鑫&杨戈:大多数现有的 LCM 仅通过自监督学习范式由数据驱动。引入累积的先验知识可以补充训练数据可能不包含的生命信息。知识整合策略应根据知识类型而变化。对于 GeneCompass,我们整合了四种类型的知识,包括启动子序列、基因家族、GRN 和共表达关系,方法是将每种知识编码到嵌入向量中,并将它们与单细胞转录组的嵌入连接起来。这是一种输入级的整合策略。此外,还有一些其他策略,例如知识引导的预训练任务和知识监督损失。最佳策略仍然是正在进行的研究领域,也将是我们未来工作的重点。

Quantitative Biology:当您为跨物种数据构建模型时,GeneCompass 模型及其预训练方法的开发面临的关键挑战是什么?

李鑫&杨戈:开发跨物种 LCM 的关键挑战是如何整合来自人类和小鼠的单细胞数据,它们的基因彼此不同。连接它们的基因列表可能是一种简单易行的解决方案,但不能利用基因保守性。超长的基因列表需要更多的计算能力和内存空间。为了解决这个问题,我们设计了一种同源比对策略,根据同源关系在人类和小鼠之间映射基因。同源基因将在我们的基因列表中共享相同的基因 ID。此外,我们将人类和小鼠的先验知识编码到统一的表示空间中,以确保跨物种的语义一致性。我们比较同源基因嵌入相似性与非同源基因嵌入相似性的实验结果验证了该策略的有效性。

Quantitative Biology:您的工作包括识别关键转录因子的例子。由于大多数可用的单细胞数据都是获取样本时基因表达的静态快照,您认为 LCM 如何有助于理解动态细胞过程(例如细胞状态转变)并识别可能驱动此类过程的关键因素?

李鑫&杨戈:与一般 NLP 领域的 LLM 一样,预训练 LCM 的基本理念是,对从各种来源收集的各种数据集进行大量训练有助于模型学习对细胞、环境和生命的广泛理解。虽然大多数可用的单细胞数据都是静态快照,但广泛的预训练数据涵盖了细胞转变的不同阶段。根据预训练的 LCM,相似的细胞状态数据在编码的嵌入空间中具有很强的相似性,这将有助于理解动态细胞过程。

为了确定关键因素,我们进行了计算机基因扰动,以过度表达或敲除基因到一定的表达水平。通过对比扰动细胞与原细胞和靶细胞的相似度,可以识别出潜在的关键因子。我们的实验结果和 Geneformer 的结果都验证了该方法的有效性。我们的湿实验结果也证明了所识别的关键因子的部分功能。这对于发现关键的细胞命运调控因子和候选药物靶点具有重要意义。

图片

GeneCompass:首个跨物种生命基础大模型。

Quantitative Biology:人工智能和生物学领域都在快速发展,技术以前所未有的速度更新甚至革命。您如何看待人工智能在生物和医学研究中的应用?

李鑫&杨戈:我相信人工智能与生命科学的交叉学科将推动生物和医学研究的重大突破。特别是随着基础模型的出现,LCM 可以很好地推广到新的、未见过的任务,而无需特定的面向任务的训练或使用相对较小的数据集进行微调,使其成为一系列下游应用的万能工具。

一方面,使用 LCM 将大大减少与生物和医学研究相关的时间和经济成本。越来越多的体内和体外实验将通过 LCM 进行模拟,这将有助于提高传统湿实验任务(如药物发现、蛋白质结构设计等)的成功率。另一方面,已经出现了不同生命过程水平的 AI 模型,例如转录组水平的 LCM、蛋白质水平的 AlphaFold 和 ESMFold,以及 DNA 水平的 EVO。还有多模态 LLM 可用于理解医学图像等表型数据。我相信将会有一个统一的模型来整合生物学并模拟中心法则,从而建立所有生命体基因型和表型之间的复杂关系。

结束语

这些 LCM 在许多下游生物学任务中取得了巨大成功,但整个领域仍处于早期发展阶段。现在问什么是单细胞转录组学数据的最佳或收敛模型结构还为时过早。

几位 LCM 作者分享了他们针对生物对象开发和采用基于 Transformer 的 AI 模型的关键技术挑战的策略和考虑,这是很有价值的,例如将复杂的单细胞数据转换为 AI 兼容的格式、处理高维和稀疏性,以及在有限的数据和资源下优化模型性能。

他们还分享了模型开发和优化的策略,包括将通用预训练技术应用于非序列单细胞数据,以及设计能够从噪声中辨别生物信号的模型。还包括对下游用户计算资源挑战以及开发云平台,使大型 AI 模型更易于生物学家使用。作者还提供了他们的观点和建议,以便在未来的生物学研究中更好地使用 LCM。

与 NLP 和计算机视觉中的 AI 领域相比,生物学领域缺乏用于开发机器学习技术的系统基准数据集、任务和测量。每项研究都有自己的数据,并设计自己的实验来测试他们的模型和算法,并展示他们的方法的有用性。这种情况不利于该领域的健康发展。

生物学是复杂的,我们不能梦想任何技术能够突然回答所有主要的生物学问题,即使该技术已经在许多其他领域被证明是成功的。建立一个系统的多层次的测试场,用于开发、评估和选择适合生物学问题性质的技术,是生命科学人工智能研究的一个关键,但尚未得到充分研究的课题。

理论大模型细胞生物医学AI
相关数据
清华大学机构

清华大学(Tsinghua University),简称“清华”,由中华人民共和国教育部直属,中央直管副部级建制,位列“211工程”、“985工程”、“世界一流大学和一流学科”,入选“基础学科拔尖学生培养试验计划”、“高等学校创新能力提升计划”、“高等学校学科创新引智计划”,为九校联盟、中国大学校长联谊会、东亚研究型大学协会、亚洲大学联盟、环太平洋大学联盟、清华—剑桥—MIT低碳大学联盟成员,被誉为“红色工程师的摇篮”。 清华大学的前身清华学堂始建于1911年,因水木清华而得名,是清政府设立的留美预备学校,其建校的资金源于1908年美国退还的部分庚子赔款。1912年更名为清华学校。1928年更名为国立清华大学。1937年抗日战争全面爆发后南迁长沙,与北京大学、南开大学组建国立长沙临时大学,1938年迁至昆明改名为国立西南联合大学。1946年迁回清华园。1949年中华人民共和国成立,清华大学进入了新的发展阶段。1952年全国高等学校院系调整后成为多科性工业大学。1978年以来逐步恢复和发展为综合性的研究型大学。

http://www.tsinghua.edu.cn/
相关技术
王波人物

斯坦福大学计算机科学系博士,研究兴趣:机器学习、生物信息学、计算机视觉和数值分析。

深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

逻辑回归技术

逻辑回归(英语:Logistic regression 或logit regression),即逻辑模型(英语:Logit model,也译作“评定模型”、“分类评定模型”)是离散选择法模型之一,属于多重变量分析范畴,是社会学、生物统计学、临床、数量心理学、计量经济学、市场营销等统计实证分析的常用方法。

权重技术

线性模型中特征的系数,或深度网络中的边。训练线性模型的目标是确定每个特征的理想权重。如果权重为 0,则相应的特征对模型来说没有任何贡献。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

感知技术

知觉或感知是外界刺激作用于感官时,脑对外界的整体的看法和理解,为我们对外界的感官信息进行组织和解释。在认知科学中,也可看作一组程序,包括获取信息、理解信息、筛选信息、组织信息。与感觉不同,知觉反映的是由对象的各样属性及关系构成的整体。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

基准技术

一种简单的模型或启发法,用作比较模型效果时的参考点。基准有助于模型开发者针对特定问题量化最低预期效果。

词嵌入技术

词嵌入是自然语言处理(NLP)中语言模型与表征学习技术的统称。概念上而言,它是指把一个维数为所有词的数量的高维空间嵌入到一个维数低得多的连续向量空间中,每个单词或词组被映射为实数域上的向量。

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

收敛技术

在数学,计算机科学和逻辑学中,收敛指的是不同的变换序列在有限的时间内达到一个结论(变换终止),并且得出的结论是独立于达到它的路径(他们是融合的)。 通俗来说,收敛通常是指在训练期间达到的一种状态,即经过一定次数的迭代之后,训练损失和验证损失在每次迭代中的变化都非常小或根本没有变化。也就是说,如果采用当前数据进行额外的训练将无法改进模型,模型即达到收敛状态。在深度学习中,损失值有时会在最终下降之前的多次迭代中保持不变或几乎保持不变,暂时形成收敛的假象。

损失函数技术

在数学优化,统计学,计量经济学,决策理论,机器学习和计算神经科学等领域,损失函数或成本函数是将一或多个变量的一个事件或值映射为可以直观地表示某种与之相关“成本”的实数的函数。

超参数技术

在机器学习中,超参数是在学习过程开始之前设置其值的参数。 相反,其他参数的值是通过训练得出的。 不同的模型训练算法需要不同的超参数,一些简单的算法(如普通最小二乘回归)不需要。 给定这些超参数,训练算法从数据中学习参数。相同种类的机器学习模型可能需要不同的超参数来适应不同的数据模式,并且必须对其进行调整以便模型能够最优地解决机器学习问题。 在实际应用中一般需要对超参数进行优化,以找到一个超参数元组(tuple),由这些超参数元组形成一个最优化模型,该模型可以将在给定的独立数据上预定义的损失函数最小化。

注意力机制技术

我们可以粗略地把神经注意机制类比成一个可以专注于输入内容的某一子集(或特征)的神经网络. 注意力机制最早是由 DeepMind 为图像分类提出的,这让「神经网络在执行预测任务时可以更多关注输入中的相关部分,更少关注不相关的部分」。当解码器生成一个用于构成目标句子的词时,源句子中仅有少部分是相关的;因此,可以应用一个基于内容的注意力机制来根据源句子动态地生成一个(加权的)语境向量(context vector), 然后网络会根据这个语境向量而不是某个固定长度的向量来预测词。

验证集技术

验证数据集是用于调整分类器超参数(即模型结构)的一组数据集,它有时也被称为开发集(dev set)。

计算机视觉技术

计算机视觉(CV)是指机器感知环境的能力。这一技术类别中的经典任务有图像形成、图像处理、图像提取和图像的三维推理。目标识别和面部识别也是很重要的研究领域。

数据库技术

数据库,简而言之可视为电子化的文件柜——存储电子文件的处所,用户可以对文件中的数据运行新增、截取、更新、删除等操作。 所谓“数据库”系以一定方式储存在一起、能予多个用户共享、具有尽可能小的冗余度、与应用程序彼此独立的数据集合。

随机森林技术

在机器学习中,随机森林是一个包含多个决策树的分类器,并且其输出的类别是由个别树输出的类别的众数而定。 Leo Breiman和Adele Cutler发展出推论出随机森林的算法。而"Random Forests"是他们的商标。这个术语是1995年由贝尔实验室的Tin Kam Ho所提出的随机决策森林(random decision forests)而来的。这个方法则是结合Breimans的"Bootstrap aggregating"想法和Ho的"random subspace method" 以建造决策树的集合。

映射技术

映射指的是具有某种特殊结构的函数,或泛指类函数思想的范畴论中的态射。 逻辑和图论中也有一些不太常规的用法。其数学定义为:两个非空集合A与B间存在着对应关系f,而且对于A中的每一个元素x,B中总有有唯一的一个元素y与它对应,就这种对应为从A到B的映射,记作f:A→B。其中,y称为元素x在映射f下的象,记作:y=f(x)。x称为y关于映射f的原象*。*集合A中所有元素的象的集合称为映射f的值域,记作f(A)。同样的,在机器学习中,映射就是输入与输出之间的对应关系。

语料库技术

语料库一词在语言学上意指大量的文本,通常经过整理,具有既定格式与标记;事实上,语料库英文 "text corpus" 的涵意即为"body of text"。

逻辑技术

人工智能领域用逻辑来理解智能推理问题;它可以提供用于分析编程语言的技术,也可用作分析、表征知识或编程的工具。目前人们常用的逻辑分支有命题逻辑(Propositional Logic )以及一阶逻辑(FOL)等谓词逻辑。

先验知识技术

先验(apriori ;也译作 先天)在拉丁文中指“来自先前的东西”,或稍稍引申指“在经验之前”。近代西方传统中,认为先验指无需经验或先于经验获得的知识。先验知识不依赖于经验,比如,数学式子2+2=4;恒真命题“所有的单身汉一定没有结婚”;以及来自纯粹理性的推断“本体论证明”

噪音技术

噪音是一个随机误差或观测变量的方差。在拟合数据的过程中,我们常见的公式$y=f(x)+\epsilon$中$\epsilon$即为噪音。 数据通常包含噪音,错误,例外或不确定性,或者不完整。 错误和噪音可能会混淆数据挖掘过程,从而导致错误模式的衍生。去除噪音是数据挖掘(data mining)或知识发现(Knowledge Discovery in Database,KDD)的一个重要步骤。

支持向量机技术

在机器学习中,支持向量机是在分类与回归分析中分析数据的监督式学习模型与相关的学习算法。给定一组训练实例,每个训练实例被标记为属于两个类别中的一个或另一个,SVM训练算法创建一个将新的实例分配给两个类别之一的模型,使其成为非概率二元线性分类器。SVM模型是将实例表示为空间中的点,这样映射就使得单独类别的实例被尽可能宽的明显的间隔分开。然后,将新的实例映射到同一空间,并基于它们落在间隔的哪一侧来预测所属类别。

自然语言处理技术

自然语言处理(英语:natural language processing,缩写作 NLP)是人工智能和语言学领域的分支学科。此领域探讨如何处理及运用自然语言;自然语言认知则是指让电脑“懂”人类的语言。自然语言生成系统把计算机数据转化为自然语言。自然语言理解系统把自然语言转化为计算机程序更易于处理的形式。

AlphaFold技术

DeepMind 提出的深度神经网络蛋白质形态预测方法。AlphaFold系统,是DeepMind在2017-2018年中一直在研究的项目,它建立在多年以前使用大量基因组数据来预测蛋白质结构的研究基础之上。 AlphaFold产生的蛋白质3D模型比以往任何一种都精确得多,在生物学的核心挑战之一上取得了重大进展。

零样本学习技术

从仅仅一个或一小撮样本中学习一个新的概念,而普通的机器学习标准算法通常需要几十或几百个表现类似的样本。

语言模型技术

语言模型经常使用在许多自然语言处理方面的应用,如语音识别,机器翻译,词性标注,句法分析和资讯检索。由于字词与句子都是任意组合的长度,因此在训练过的语言模型中会出现未曾出现的字串(资料稀疏的问题),也使得在语料库中估算字串的机率变得很困难,这也是要使用近似的平滑n元语法(N-gram)模型之原因。

腾讯机构

腾讯,1998年11月诞生于中国深圳,是一家以互联网为基础的科技与文化公司。我们的使命是“通过互联网服务提升人类生活品质”。腾讯秉承着 “一切以用户价值为依归”的经营理念,为亿万网民提供优质的互联网综合服务。 腾讯的战略目标是“连接一切”,我们长期致力于社交平台与数字内容两大核心业务:一方面通过微信与QQ等社交平台,实现人与人、服务及设备的智慧连接;另一方面为数以亿计的用户提供优质的新闻、视频、游戏、音乐、文学、动漫、影业等数字内容产品及相关服务。我们还积极推动金融科技的发展,通过普及移动支付等技术能力,为智慧交通、智慧零售、智慧城市等领域提供有力支持。

http://www.tencent.com/
相关技术
聚类技术

将物理或抽象对象的集合分成由类似的对象组成的多个类的过程被称为聚类。由聚类所生成的簇是一组数据对象的集合,这些对象与同一个簇中的对象彼此相似,与其他簇中的对象相异。“物以类聚,人以群分”,在自然科学和社会科学中,存在着大量的分类问题。聚类分析又称群分析,它是研究(样品或指标)分类问题的一种统计分析方法。聚类分析起源于分类学,但是聚类不等于分类。聚类与分类的不同在于,聚类所要求划分的类是未知的。聚类分析内容非常丰富,有系统聚类法、有序样品聚类法、动态聚类法、模糊聚类法、图论聚类法、聚类预报法等。

自监督学习技术

一个例子中的内容特别多,而用一个例子做一个任务,就等于把其他的内容浪费了,因此我们需要从一个样本中找出多个任务。比如说遮挡图片的一个特定部分,用没遮挡部分来猜遮挡的部分是一个任务。那么通过遮挡不同的部分,就可以用一个样本完成不同任务。Yann Lecun描述的这个方法被业界称作「自监督学习」

迁移学习技术

迁移学习 是属于机器学习的一种研究领域。它专注于存储已有问题的解决模型,并将其利用在其他不同但相关问题上。比如说,用来辨识汽车的知识(或者是模型)也可以被用来提升识别卡车的能力。计算机领域的迁移学习和心理学常常提到的学习迁移在概念上有一定关系,但是两个领域在学术上的关系非常有限。

药物发现技术

在医学,生物技术和药理学领域,药物发现是发现新候选药物的过程。

推荐文章
暂无评论
暂无评论~