互联家居网 设为首页 - 加入收藏
广告位
当前位置: 主页 > 热点 >

AI求解偏微分方程新基准登NeurIPS,发现JAX计算速度比PyTor

2022-10-28 13:24 [热点] 来源于:IT之家  阅读量:12378   
导读:用AI解偏微分方程,这段时间确实有点火。 但是什么样的AI解决方案是最好的,却没有统一的结论。 现在终于有人为这个领域做了一个完整的基准叫做PDEBench,论文已经发表在NeurIPS2022上。 PDEBench不仅可以作为偏...

用AI解偏微分方程,这段时间确实有点火。

AI求解偏微分方程新基准登NeurIPS,发现JAX计算速度比PyTor

但是什么样的AI解决方案是最好的,却没有统一的结论。

现在终于有人为这个领域做了一个完整的基准叫做PDEBench,论文已经发表在NeurIPS 2022上。

PDEBench不仅可以作为偏微分方程的大数据集,还可以作为新AI求解偏微分方程的基准之一——

这里可以找到很多老前辈的预训模型代码作为对比依据。

比如去年大火的FNO,几秒钟就解决了偏微分方程,代码放入PDEBench。

这个新标杆一出,乐存也热情转发:这个领域真的很热。

那么,AI在求解偏微分方程方面有哪些优势,该基准具体提出了哪些评测方法。

为什么要用AI解偏微分方程。

偏微分方程是生活中常见的方程。

这个方程将用于预测天气,模拟飞机空气动力学和预测疾病传播模型。

目前,北大数学系沈伟魏东义的研究方向之一是流体力学中的数学问题,包括偏微分方程中的Navier—Stokes方程。

那么,为什么要用AI来解偏微分方程呢。

AI训练的本质是找到一个尽可能接近真实结果的模型。

用AI求解偏微分方程,其实就是找一个代理模型来模拟偏微分方程模型。

代理模型是指找到一个近似模型,在计算量较少的情况下,保证计算结果尽可能与原偏微分方程相似。

这类似于传统的求解偏微分方程的数值方法。

传统方法往往需要对连续问题进行离散化来逼近方程。

但是传统的数值方法非常复杂,需要大量的计算。人工智能方法训练的模型速度快,模拟效果好—

继2017年华盛顿大学提出PDE—FIND之后,2018年Google AI提出了数据驱动的方法求解偏微分方程,比传统方法快了很多,让更多人开始关注AI求解偏微分方程的领域。

2019年,布朗大学应用数学团队提出了一种叫做PINN的方法,彻底开启了AI在物理领域的广泛应用。

虽然这篇论文在理论上没有PDE—FIND和Google AI的方法那么有突破性,但是它给出了非常完整的代码体系,方便开发者入门,也让更多的研究者开发出不同的PINN现在已经成为AI物理中最常见的框架和词汇之一

去年,加州理工学院和普渡大学的团队发表的一项研究将偏微分方程的计算时间从18小时减少到1秒。

本文提出了一种称为FNO的方法,它在基于傅立叶变换的神经网络中加入了傅立叶层,进一步节省了近似模拟算子的计算。

此外,许多研究人员训练一些经典的人工智能模型来求解偏微分方程,如U—Net。

可是,无论是FNO,优网还是PINN,他们仍然基于各自的基准来评价AI在计算偏微分方程方面的效果。

有没有更统一通用的框架来评价该领域的新突破。

更全面的人工智能偏微分方程基准

在这种背景下,研究人员提出了一个名为PDEBench的基准。

首先,基准中包含的数据集。目前这些数据集已经全部汇总在GitHub中:

它包括许多经典的偏微分方程,如Navier—Stokes方程,Darcy流模型,浅水波模型等。

随后,PDEBench提出了几个指标,从不同角度更全面地评价AI模型:

最后,PDEBench还包含了几个经典模型的预训练模型代码,并将其作为评测其他模型的基准之一,包括FNO,U—Net,PINN等上面提到的

例如,研究团队分别基于每个数据集对这些模型进行训练,得到的均方根误差如下,这也说明了它们在不同偏微分方程上的表现是不同的:

此外,该团队统一了数据格式,优化了PDEBench的可扩展性,因此任何人都可以参与向该基准添加更多的数据集或基准模型。

值得注意的是,团队尝试分别在PyTorch和JAX框架上运行几个预训练模型,发现JAX的速度是PyTorch的6倍左右。

看来,我们今后可以尝试用JAX框架进行相关研究。

NEC R&D中心欧洲高级研究员高本诚毕业于京都大学他的研究兴趣是图像处理,图形神经网络和科学机器学习

斯图加特大学博士生Timothy Praditia对开发基于数据驱动和先验物理知识的神经网络模型感兴趣。

论文地址:

PDEBench地址:

参考链接:

郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。

(编辑:兰心雪)

广告位
广告位