\(\newcommand{\D}{\text{d}} \newcommand{\I}{\text{i}} \newcommand{\E}{\text{e}} \newcommand{\Prob}{\mathbb{P}} \newcommand{\Expect}{\mathbb{E}} \newcommand{\Var}{\text{Var}} \newcommand{\PAvg}[1]{\left[#1\right]} \newcommand{\Avg}[1]{\left\langle#1\right\rangle} \newcommand{\AvgJ}[1]{\Avg{#1}_{\bm J}} \newcommand{\AvgDyn}[1]{\Avg{#1}_{\text{dyn.}}} \newcommand{\CAvg}[2]{\Avg{#1}_{\left|#2\right.}} \newcommand{\Devi}{\mathfrak{d}}\)

はじめての興奮・抑制均衡

はじめに の簡単な議論から, k = E, I について興奮性と抑制性の入力が均衡した状態

J_{kE} m_E - J_{kI} m_I + J_{k0} m_0 \approx 0

が成り立てば, ニューロンの活動の不規則性が説明出来ることが示唆された. ただし, 集団を表す添字を上付添字から下付添字に変更した. [1] [2]

[1]これ以降の議論では, 集団を表す添字は下付きで, ニューロンを表す添字を上付にする (例: J_{EI}^{ij}).
[2]記号 \approx の意味がきちんと定義されていないので条件の意味を把握するのは難しい. 実は, この節に現れる X \approx Y の形の式 (Y = 0 でも良い) を, すべて X = Y + O(1/\sqrt K) に書き換えれば厳密な議論となる. ただし, O(1/\sqrt K) は ランダウの記号 あるいは O-記法 (Big O notation) と呼ばれる漸近関係を表す記号のひとつである (漸近解析 (Asymptotic analysis) を参照).

外部入力の項を h_k = J_{k0} m_0 と書き,

\bm J =
\begin{pmatrix}
  J_{EE} & J_{EI} \\
  J_{IE} & J_{II} \\
\end{pmatrix},

\bm m =
\begin{pmatrix}
  m_{E} \\
  m_{I} \\
\end{pmatrix},

\bm h =
\begin{pmatrix}
  h_{E} \\
  h_{I} \\
\end{pmatrix}

なる行列・ベクトル表現を使えばこの式は

\bm J \bm m \approx - \bm h

と書ける. 行列 \bm J が可逆であれば,

(1)\bm m \approx \bm J^{-1} \bm h

である. つまり, ネットワークのパラメタ \bm J と外部からの入力 \bm h が決まれば, このネットワークの「グローバルな状態」 \bm m はただひとつに決まる. 興奮性と抑制性の入力が常に均衡していればこの状態は時間変化しないはずであるから, これは \bm m のダイナミクスの固定点である. よって式 (1)均衡固定点 (balanced fixed point) と呼ぶ. この式から \bm h = 0 なら \bm m \approx 0 なので, 外部入力がなければ興奮・抑制均衡ネットワークは活動出来ない (非ゼロの均衡固定点が存在しない) ことが分かる.

一般論へ

上記の議論を正確におこなうには, \bm m のダイナミクスが定義されていなくてはならない. しかも, それがひとつひとつは不規則なニューロンのダイナミクスから導出出来る必要がある. この導出は 二状態ニューロンのネットワーク平均場方程式の導出 でおこなう. しかし今は, \bm m のダイナミクスが

\bm \tau \frac{\D \bm m(t)}{\D t}
=
- \bm m(t) + \bm f(C \, \{\bm J \bm m(t) + \bm h\})

(ただし, C = \sqrt K, \bm m = (m_{E}, m_{I}), \bm \tau = (\tau_{E}, \tau_{I})^\intercal, \bm f(\bm m) = (f_{E}(m_{E}), f_{I}(m_{I}))^\intercal である) と書けることを仮定して議論を進めよう. 関数 f_Ef_I は集団レベルでの, 入力と出力の関係を定義している. 例えばロジスティクス関数 f_E(x) = f_I(x) = 1 / (1 + \exp(-x)) を使うことを想像しても良い. 実は関数 \bm f はあるゆるい条件を満たせば何でも良いことがわかる.

「フィードバック強度」 C は, はじめに の議論では J_{kl}^{ij} のスケーリングをどう定義するかに依っていたが, この C の起原は興奮・抑制均衡ネットワークの特性を議論するためにほとんど効いてこない. そこで, 強フィードバック系 ではこの均衡固定点を別の視点から「導出」する.