Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

告别「滤镜」:上理工、上交大团队发布AI赋能的新一代荧光显微镜

图片

编辑 | 2049

想象一下,一位生物学家在显微镜前观察细胞,为了看清细胞中特定的荧光标记物,每个实验都需要使用特制的光学滤光片组。这些滤光片组就像精密的光学「滤镜」,由二向色镜和高光密度带通滤光片构成,用于分离激发光和荧光发射光。

然而,这种传统设计带来了几个显著问题:首先是设备成本增加,其次是系统变得庞大复杂,更重要的是在需要观察多种荧光标记时,机械切换滤光片的过程会显著降低实验效率。

有没有一种方法可以摆脱这些「滤镜」,让显微镜变得更智能、更高效呢?最近,来自上海理工大学、上海交通大学、杜克大学的研究人员提出了一项由 AI 驱动的创新技术——无滤光片荧光显微镜 DL-F^3 M ——正在改变这一现状。

该研究以「Deep learning-enabled filter-free fluorescence microscope」为题,于 2025 年 1 月 1 日发布在《Science Advances》。

图片

研究背景

荧光成像是生物科学和医学领域的关键技术。通过使用荧光染料或蛋白质等标记物,科研人员可以直观地观察基因和蛋白质的表达,以及细胞和组织中的分子相互作用。但传统技术面临一个根本性挑战:如何在不依赖复杂滤光片组的情况下,有效分离激发光和荧光信号?

业界已有一些改进尝试:一种方法使用时间分辨探测器(如条纹相机)在短暂的检测窗口内探测荧光发射,从而过滤掉飞秒级激发光;另一种是全光谱照明策略,实现激发光和发射光的空间分离。然而,这些方法在弱荧光和强散射样品成像时仍面临挑战。

近年来,人工智能技术在显微成像领域取得了一系列突破,包括提升空间分辨率、实现自动对焦、扩展景深等。基于这些进展,研究团队提出了一种创新方案:深度学习使能的无滤光片荧光显微镜 DL-F^3 M 。这一技术致力于解决荧光显微镜的核心问题:如何在不使用传统滤光片的情况下,准确提取荧光信号。

技术创新

在系统架构上,DL-F^3 M 采用简化的光路设计,使用可调 LED 光源替代传统钨卤灯,通过设置入射角 β 大于物镜半角孔径 α 来最小化激发光进入物镜的耦合。系统利用彩色相机的滤光阵列(Bayer filter)直接检测荧光发射。

其核心是两阶段深度学习框架:首先是基于 MobileNetV2 框架的轻量级 NetFCS,包含 32 个滤波器和 17 个残差瓶颈层,用于自动识别荧光通道;其次是数字光谱滤波网络库,采用三个卷积网络、残差网络与跨阶段部分网络,以及两个转置卷积网络的组合架构。

图片

图1:DL-F^3 M系统工作原理示意图。(来源:论文)

训练采用条件生成对抗网络框架,包括用于重建荧光图像的生成器和基于 PatchGAN 的判别器。训练使用 Adam 优化器,初始学习率为 2×10^-4,通过结合像素级损失和对抗性损失优化网络性能。

图片

图2:DL-F^3 M 神经网络架构图。(来源:论文)

实验验证

为了验证 DL-F^3 M 的性能,研究人员进行了多项实验。实验样本包括 HEK293T 细胞、4T1 小鼠乳腺癌细胞和 BALB/3T3 成纤维细胞,分别标记了不同的荧光染料。实验中使用不同放大倍数的物镜(5×、10×和20×)进行成像,以评估 DL-F^3 M 在不同条件下的表现。

实验结果表明,DL-F^3 M 能够准确地预测荧光信号,其敏感性和特异性均达到了高水平。例如,在观察转染了绿色荧光蛋白(GFP)的细胞时,DL-F^3 M 能够清晰地识别出荧光信号,且与传统的荧光显微镜结果高度一致。此外,DL-F^3 M 还成功应用于免疫荧光实验,定量分析了成纤维细胞转化过程中的生物标志物表达变化。

DL-F^3 M 的创新效果通过结构相似性指数(SSIM)和信噪比(SNR)等指标进行了验证。实验结果显示,DL-F^3 M 生成的荧光图像与真实图像的SSIM值超过 0.87,SNR值超过 31.7,证明了其高精度和可靠性。

图片

图3:HEK293T细胞荧光成像结果。(来源:论文)

结语

DL-F^3 M 技术不仅突破了传统荧光显微成像的物理局限,还开创了光学系统与人工智能深度融合的新范式。这一创新方法在生物医学成像领域具有广阔的应用前景,可望推动整个领域的技术革新。

未来,该系统将在多个方向继续发展,包括扩展荧光通道、提升实时成像性能,以及拓展在其他生物医学仪器上的应用。这项研究不仅体现了 AI 与光学显微技术的创新融合,更为生物医学成像领域提供了富有启发性的方法论指导,凸显了跨学科研究的重要价值。

论文链接:https://www.science.org/doi/10.1126/sciadv.adq2494

产业
相关数据
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

学习率技术

在使用不同优化器(例如随机梯度下降,Adam)神经网络相关训练中,学习速率作为一个超参数控制了权重更新的幅度,以及训练的速度和精度。学习速率太大容易导致目标(代价)函数波动较大从而难以找到最优,而弱学习速率设置太小,则会导致收敛过慢耗时太长

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

优化器技术

优化器基类提供了计算梯度loss的方法,并可以将梯度应用于变量。优化器里包含了实现了经典的优化算法,如梯度下降和Adagrad。 优化器是提供了一个可以使用各种优化算法的接口,可以让用户直接调用一些经典的优化算法,如梯度下降法等等。优化器(optimizers)类的基类。这个类定义了在训练模型的时候添加一个操作的API。用户基本上不会直接使用这个类,但是你会用到他的子类比如GradientDescentOptimizer, AdagradOptimizer, MomentumOptimizer(tensorflow下的优化器包)等等这些算法。

推荐文章
暂无评论
暂无评论~