多元函数(多变量)
f:Rn→R1
(x1⋮xn)→y
y=f(x1,x2,⋯,xn)
例子:通过升级实现二元函数的可视化 z=f(x,y),(x,y)∈[0,1]×[0,1]
二元函数的基函数构造
张量积,即用两个一元函数的基函数的相互乘积来定义,
例1:二次二元多项式函数z=f(x,y)的基函数{1,x,y,x2,xy,y2}
✅ [10:23] 例子中幂基最高为二次,因此只取不超过二次的项。
例2: 以任意函数为基函数
👆 [11:22] 例子:任意基。横轴和竖轴可以用不同的函数,但很少这样做。
多元函数的基函数构造
多元函数的张量积定义
优点:定义简单,多个一元基函数的乘积形式
不足:随着维数增加,基函数个数急剧增加,导致变量急据增加
求解系统规模急剧增加、求解代价大、占用内存空间大
多元函数的神经网络表达
用一个单变量函数σ(x)(称为激活函数)的不同仿射变换来构造 “基函数”:基函数数目可控
y=f(x1,x2,...,xn)
=w0+m∑j−1wjσ(a1jx1+...aijxi+...+anjxn+bj)
🔎 [16:12]
✅ 神网络方式的优点:
(1)可以解决张量积方式的维数膨胀问题,因为张量积的维度是指数级增长,而神经网络的m可以控制。
(2)有统一的优化方法和优化框架
❗ 存在的问题:仍需要调参
💡 我的思考
能用低维的神经网络代替高维的张量积,是因为,虽然张量积的各维度独立,但它对于要拟合的数据来说是有冗余的。
神经网络 hidden layer 的本质,把n维空间的点映射到m维空间的点,网络学习点在不同维度空间中的性质。
本文出自CaterpillarStudyGroup,转载请注明出处。 https://caterpillarstudygroup.github.io/GAMES102_mdbook/