针对工具缺陷与需求升级,上海交通大学人工智能与微结构实验室(AIMS-Lab)李金金教授和黄富强教授团队研发出全新 AI 材料设计模型 CGformer,成功突破传统模型的局限。该模型创新地将 Graphormer 的全局注意力机制与 CGCNN 相融合,并集成中心性编码、空间编码,使其既能够通过晶体图直观描述材料结构,又能借助「全局注意力」机制捕捉长距离原子间的相互作用,从而获得了传统「仅关注相邻原子」模型所不具备的全局信息处理能力。
该方法提供了更全面的结构信息,有助于更准确地预测结构内部离子迁移行为,为新材料尤其是高熵、复杂结构晶体材料的研发提供了可靠工具。研究成果以「CGformer: Transformer-enhanced crystal graph network with global attention for material property prediction」为题,发布于顶级期刊 Matter。
研究亮点:
* 研究开发出基于全局注意力机制的 AI 材料设计模型 CGformer,为材料研发科学提供了一个可靠的强大工具,有助于加速复杂晶体结构的发现进程。
下图 a 展示的是晶体图编码过程,该过程是为了将真实的三维晶体结构转化为模型可处理的晶体图。晶体结构中原子被表示为节点,原子之间的化学键被表示为边。通过转换过程,研究人员能够提取节点和边特征,如各种元素属性、电荷、共价半径、原子间距离、键类型和晶体对称性信息,然后再将这些特征进行结合,得到 CGformer 所需的初始输入数据,确保了晶体的化学与结构信息被完整保留。
从晶体到晶体图的编码流程示意图
下图 b 展示了 CGformer 的网络架构,通过多模块协同实现全局信息整合与精准预测。首先输入的晶体图经过一轮图卷积操作,生成简化的图结构,从而减少后续网络层的计算量,加速 CGformer 的训练过程。然后在此基础上,研究人员计算中心编码并更新晶体图的节点特征,中心编码包括每个节点的入度和出度,然后将其整合到原始节点特征中。随后每个节点通过多头注意力模块(Multi-head Attention Module),结合变特征和空间编码来表示节点之间的位置关系。中心编码将相邻节点的平均特征转换为总和形式,而空间编码使自注意力机制能够区分相邻节点,促进有效的消息聚合并增强不同原子之间的信息连接。最后,输出向量经过「池化(整合全局特征)」和「激活(函数运算)」过程,完成最终的材料属性预测。
同样是该团队,去年以「Transformer enables ion transport behavior evolution and conductivity regulation for solid electrolyte」为题,在国际顶刊 Energy Storage Materials 上展示了其研究成果。研究提出了一个名为 T-AIMD 的人工智能模型,采用 Transformer 网络架构,不仅能够大幅降低计算成本,同时还能快速准确地预测任何离子在任何晶体结构中的行为。该方法将传统 AIMD 模拟速度提升了 100 倍以上,显著加速了材料性能的评估过程。
另外,德国柏林工业大学和卢森堡大学的团队也在 AIP Publishing 发表他们的相关研究,提出了一种专门设计用于模拟原子系统的深度学习架构 SchNet,它利用了连续滤波卷积层,能够学习元素周期表中原子类型的化学合理嵌入,在分子和材料的多种化学性质预测中展示了强大的能力。相关成果以「SchNet – A deep learning architecture for molecules and materials」为题。