本文针对神经网络原子间势(nnips)在扩展性方面的不足展开研究。通过提出有效的注意力机制,发展出高效扩展的注意力原子间势(escaip),其在多头自注意力和图神经网络的框架下,实现了显著的性能提升,具体表现为推断速度提高至少10倍,内存使用减少5倍。此研究为开发更具普适性的nnips提供了新思路与实验依据。
本文介绍了一种新的机器学习内原子势函数框架s-nnp,该框架结合了样条meam势和神经网络,能够高效描述复杂数据集。通过样条滤波器编码原子环境,提升了可解释性,并支持在多个化学系统间共享,便于跨系统分析。