高通量组学技术的快速进步引发了生物数据的爆炸式增长,远超当前对分子层面规律的解析能力。在自然语言处理领域,大语言模型(LLMs)通过整合海量数据构建统一模型,已显现突破数据困境的潜力。
Nature的这篇文章中,多伦多大学华裔学者提出构建多模态基础模型(Multimodal Foundation Models, MFMs)的设想:该类模型预训练于包含基因组学、转录组学、表观遗传学、蛋白质组学、代谢组学和空间组学等多种组学数据,具有前所未有的能力描绘细胞的分子状态,为构建细胞、基因和组织的整体图谱提供可能。通过特定情境下的迁移学习,MFMs可广泛应用于新型细胞类型识别、生物标志物发现、基因调控推断乃至模拟扰动实验。MFMs有望重构“数据—模型—实验”闭环,加速生命科学认知进程与精准医学转化。
发自「今日水木 on 23013RK75C」
--
FROM 112.96.45.*