来源:量子位

一种全新的神经网络架构KAN,诞生了!

与传统的MLP架构截然不同,且能用更少的参数在数学、物理问题上取得更高精度。

20fdc3233ccc076a3acd7d46a6c1efac.gif

比如,200个参数的KANs,就能复现DeepMind用30万参数的MLPs发现数学定理研究。

不仅准确性更高,并且还发现了新的公式。要知道后者可是登上Nature封面的研究啊~

232e90c479c15e81f234877078ae2fc9.jpeg

在函数拟合、偏微分方程求解,甚至处理凝聚态物理方面的任务都比MLP效果要好。

而在大模型问题的解决上,KAN天然就能规避掉灾难性遗忘问题,并且注入人类的习惯偏差或领域知识非常容易。

来自MIT、加州理工学院、东北大学等团队的研究一出,瞬间引爆一整个科技圈:Yes We KAN!

bac8f31c9c11ce7a218c8da1d34a9593.png
49c5b42dc72cbe9a998f2f427fc738f2.png

甚至直接引出关于能否替代掉Transformer的MLP层的探讨,有人已经准备开始尝试……

d2e7e2a5c22f4df71b7d133984c7d197.png
165dfccbfd3743d3da742c846c74ace2.png

有网友表示:这看起来像是机器学习的下一步

让机器学习每个特定神经元的最佳激活,而不是由我们人类决定使用什么激活函数。

97473d70492a7808d2cc2f53ac74899e.png

还有人表示:可能正处于某些历史发展的中间。

13d26b05f902bb5f5e9b7db0199ffb3a.png

GitHub上也已经开源,也就短短两三天时间就收获1.1kStar。

f69b5c8111df2ae02bc0eb39f1b85af3.png

对MLP“进行一个简单的更改”

跟MLP最大、也是最为直观的不同就是,MLP激活函数是在神经元上,而KAN把可学习的激活函数放在权重上。

ac1666e60ac47200e40f40e4afabe651.jpeg

在作者看来,这是一个“简单的更改”。

e6004932ea1e8e2f2c13786db6db85cb.png

从数学定理方面来看,MLP的灵感来自于通用近似定理,即对于任意一个连续函数,都可以用一个足够深的神经网络来近似。

而KAN则是来自于 Kolmogorov-Arnold 表示定理 (KART),每个多元连续函数都可以表示为单变量连续函数的两层嵌套叠加。

ecaac2206b658fa4e431a94202660168.png

KAN的名字也由此而来。

正是受到这一定理的启发,研究人员用神经网络将Kolmogorov-Arnold 表示参数化。

为了纪念两位伟大的已故数学家Andrey Kolmogorov和Vladimir Arnold,我们称其为科尔莫格罗夫-阿诺德网络(KANs)。

cc38ec3a05a154567337b5d089393ad0.jpeg

而从算法层面上看,MLPs 在神经元上具有(通常是固定的)激活函数,而 KANs 在权重上具有(可学习的)激活函数。这些一维激活函数被参数化为样条曲线。

在实际应用过程中,KAN可以直观地可视化,提供MLP无法提供的可解释性和交互性。

3e1c7151c08dea4bd2d6e34489c11f9d.png

不过,KAN的缺点就是训练速度较慢。

对于训练速度慢的问题,MIT博士生一作Ziming Liu解释道,主要有两个方面的原因。

一个是技术原因,可学习的激活函数评估成本比固定激活函数成本更高。

另一个则是主观原因,因为体内物理学家属性抑制程序员的个性,因此没有去尝试优化效率。

c6117aab894696e4f2bf182613b3b6d4.png

对于是否能适配Transformer,他表示:暂时不知道如何做到这一点。

65c6b511df8d88aa41b63dc466af09e9.png

以及对GPU友好吗?他表示:还没有,正在努力中。

53f350b20e7326c0791ab3071670efca.png

天然能解决大模型灾难性遗忘

再来看看KAN的具体实现效果。

神经缩放规律:KAN 的缩放速度比 MLP 快得多。除了数学上以Kolmogorov-Arnold 表示定理为基础,KAN缩放指数也可以通过经验来实现。

a4ddd650f87758592f428278777c6f1a.jpeg

函数拟合方面,KAN比MLP更准确。

946133990b207f9ff6e7fcd2ce6d265e.jpeg

而在偏微分方程求解,比如求解泊松方程,KAN比MLP更准确。

b7a39523084bff8483928da31e2c84ec.jpeg

研究人员还有个意外发现,就是KAN不会像MLP那样容易灾难性遗忘,它天然就可以规避这个缺陷。

好好好,大模型的遗忘问题从源头就能解决。

5af08060e286690725429992200fef6c.png

在可解释方面,KAN能通过符号公式揭示合成数据集的组成结构和变量依赖性。

770011724327faa8ff7ea0ff71d27caf.png

人类用户可以与 KANs 交互,使其更具可解释性。在 KAN 中注入人类的归纳偏差或领域知识非常容易。

ea0bff8a5770ce7a533bb1b189ba000e.jpeg

研究人员利用KANs还重新复现了DeepMind当年登上Nature的结果,并且还找到了Knot理论中新的公式,并以无监督的方式发现了新的结不变式关系。

313ba2476daf4b53dd1e59470edf94c5.png

cdbf0a2508d2e8849922fd4816a05896.png
DeepMind登Nature研究成果

Deepmind的MLP大约300000 个参数,而KAN大约只有200 个参数。KAN 可以立即进行解释,而 MLP 则需要进行特征归因的后期分析。并且准确性也更高。

对于计算要求,团队表示论文中的所有例子都可以在单个CPU上10分钟内重现。

虽然KAN所能处理的问题规模比许多机器学习任务要小,但对于科学相关任务来说就刚刚好。

比如研究凝固态物理中的一种相变:安德森局域化。

c897e83da2eef518d09d6bb63f712ba4.jpeg

好了,那么KAN是否会取代Transformer中的MLP层呢?

有网友表示,这取决于两个因素。

一点是学习算法,如 SGD、AdamW、Sophia 等—能否找到适合 KANs 参数的局部最小值?

另一点则是能否在GPU上高效地实现KANs层,最好能比MLPs跟快。

096e54c66d6ed0235bd84be444f7c9e8.png

最后,论文中还贴心的给出了“何时该选用KAN?”的决策树。

a5a78f9a85e97ad9e5f435ae3a481116.png

那么,你会开始尝试用KAN吗?还是让子弹再飞一会儿~

项目链接:
https://kindxiaoming.github.io/pykan/
论文链接:
https://arxiv.org/abs/2404.19756
参考链接:
[1]https://twitter.com/ZimingLiu11/status/1785483967719981538
[2]https://twitter.com/AnthropicAI/status/1785701418546180326

推荐阅读

欢迎大家加入DLer-计算机视觉技术交流群!

大家好,群里会第一时间发布计算机视觉方向的前沿论文解读和交流分享,主要方向有:图像分类、Transformer、目标检测、目标跟踪、点云与语义分割、GAN、超分辨率、人脸检测与识别、动作行为与时空运动、模型压缩和量化剪枝、迁移学习、人体姿态估计等内容。

进群请备注:研究方向+学校/公司+昵称(如图像分类+上交+小明)

eafed8d70ad98b9d6df49025fbd81731.jpeg

👆 长按识别,邀请您进群!

fd19c825738c8efba88537de3b0aa96c.gif

Logo

开放原子开发者工作坊旨在鼓励更多人参与开源活动,与志同道合的开发者们相互交流开发经验、分享开发心得、获取前沿技术趋势。工作坊有多种形式的开发者活动,如meetup、训练营等,主打技术交流,干货满满,真诚地邀请各位开发者共同参与!

更多推荐