场论中的顶点生成函数、累积量展开与环展开
立即解锁
发布时间: 2025-09-01 00:27:55 阅读量: 16 订阅数: 14 AIGC 


神经网络的统计场论
# 场论中的顶点生成函数、累积量展开与环展开
## 1. 顶点生成函数与最大熵成对模型
### 1.1 最大熵成对模型与TAP平均场理论
在研究神经元网络时,最大熵成对模型和TAP平均场理论有着重要应用。以N = 10个神经元为例,有以下几个方面的研究:
- **平均活动散点图**:每个神经元的期望平均活动$m_i$与通过采样相应的Glauber动力学得到的经验估计$m_{i,emp}$的散点图。其中,分配的平均活动呈正态分布,均值$\langle m_i \rangle = 0.2$,标准差$\langle m_i^2 \rangle - \langle m_i \rangle^2 = 0.05$,并限制在$m_i \in [0.05, 0.95]$范围内。
- **协方差散点图**:初始值的选择基于相关系数$k_{ij} \equiv \frac{c_{ij}}{\sqrt{m_i(1 - m_i)m_j(1 - m_j)}}$,这些系数从均值为0.05、标准差为0.03的正态分布中随机抽取,并限制在$k_{ij} \in [-1, 1]$范围内。
- **Glauber动力学状态图**:展示了Glauber动力学中神经元状态随时间步的变化,黑色表示$n_i = 1$,白色表示$n_i = 0$。
- **有效作用图**:对于均匀模型的有效作用$\Gamma(m)$,不同数量的单元N(从黑色到浅灰色:N = 10, 20, $N_C$, 50, 100)有不同的曲线。红色曲线表示临界值$N_C \approx 32$,在该值处$\Gamma$的近似变得非凸。
### 1.2 状态方程与逆问题求解
我们希望确定状态方程有两个解的必要条件,即分布变为双峰的条件,也就是$\Gamma$近似的严格凸性的丧失。对于均匀设置,我们需要推导状态方程并解决逆问题。
- **逆矩阵的使用**:均匀协方差矩阵$c_{ii} = m(1 - m)$和$c_{i\neq j} = c$的逆为$c_{i\neq j}^{-1} = \frac{c}{c - m(1 - m)}\frac{1}{m(1 - m) + (N - 1)c}$。
- **参数选择与绘图**:选择参数K和h,使得$m = 0.2$且$c = 0.05 \cdot m(1 - m)$,然后绘制状态方程$\Gamma^{(1)}(m) - h$作为m的函数,针对不同数量的单元N进行绘图。
- **凸性丧失的条件**:确定$\Gamma$凸性丧失的必要条件,即$\exists m : \frac{\partial}{\partial m}\Gamma^{(2)}((m, \cdots, m)) = 0$,在忽略TAP项的近似下,即精确到$O(K)$阶。
## 2. 累积量展开为顶点函数的树图
### 2.1 顶点函数的定义
顶点函数在场论中有着重要的地位,它与配分函数Z、累积量生成函数W和有效作用$\Gamma$有着紧密的联系。
- **泰勒级数表示**:将$\Gamma$写为泰勒级数,其系数称为顶点函数,定义为$\Gamma^{(n_1, \cdots, n_N)}(x^*) := \partial_1^{n_1} \cdots \partial_N^{n_N} \Gamma(x^*)$。反之,$\Gamma(x^*) = \sum_{n_1, \cdots, n_N} \frac{\Gamma^{(n_1, \cdots, n_N)}(x_0)}{n_1! \cdots n_N!} \delta x_1^{*n_1} \cdots \delta x_N^{*n_N}$,其中$\delta x_i^* = x_i^* - x_{0,i}$,$x_0$是任意展开点。
- **图形表示**:对于泰勒系数,我们使用图形表示。额外对$x_i^*$求导会为顶点$\Gamma^{(n)}$添加一个带有相应索引i的腿,对于$W^{(n)}$的导数也是类似的。例如:
- $\frac{\partial}{\partial x_1^*} \cdots \frac{\partial}{\partial x_k^*} \Gamma(x^*) = \Gamma^{(k)}_{1, \cdots, k} = \cdots k \ 1$
0
0
复制全文
相关推荐









