\(\newcommand{\D}{\text{d}} \newcommand{\I}{\text{i}} \newcommand{\E}{\text{e}} \newcommand{\Prob}{\mathbb{P}} \newcommand{\Expect}{\mathbb{E}} \newcommand{\Var}{\text{Var}} \newcommand{\PAvg}[1]{\left[#1\right]} \newcommand{\Avg}[1]{\left\langle#1\right\rangle} \newcommand{\AvgJ}[1]{\Avg{#1}_{\bm J}} \newcommand{\AvgDyn}[1]{\Avg{#1}_{\text{dyn.}}} \newcommand{\CAvg}[2]{\Avg{#1}_{\left|#2\right.}} \newcommand{\Devi}{\mathfrak{d}}\)

はじめに

生体内 (in vivo) の大脳皮質のニューロンは典型的に, (1) 発火の時系列パターンが不規則であり (発火時間間隔 (interspike interval; ISI) の分布が指数分布に近い), (2) ニューロン同士はほぼ無相関に発火するという特徴を持つ. 一方, 生体外 (in vitro) の電気生理記録から, 大脳皮質のニューロンは決定論的にふるまうことが知られている. それでも, 大脳皮質のニューロンは相互に結合しているのだから, 入力として他のニューロンの発火の不規則なパターンを受けることにより不規則な発火パターンを出力するというメカニズムが考えられる. しかし, この素朴に考えれば「自然な」メカニズムは, 簡単な考察から破綻することが分かる.

\(N\) 個のニューロンが相互に結合した系を考える. それぞれのニューロンは平均して \(K\) 個のニューロンから入力を受けているとし, 行列 \(\bm J\) を用いて, \(i\) 番目のニューロンが \(j\) 番目のニューロンからの入力を受けているなら \(J_{ij} = J / K\) そうでなければ \(J_{ij} = 0\) として結合を表現する. ここで結合力を \(J/K\) とスケールした理由は以下で明らかになる. 以下の議論は興奮性の集団 (\(J > 0\)) でも抑制性の集団 (\(J < 0\)) でも成り立つ. ニューロンの数やその結合の数は非常に大きいので, \(N, K \to \infty\) の極限で現れる普遍的な性質を調べる. ニューロン \(i\) への入力を \(x_i\), その出力を \(y_i\) と書く. 入力 \(x_i\) がどのように出力 \(y_i\) に変換されるかは指定しないが, 何らかの決定論的な仕組みに依る, つまり出力の不規則性は入力の不規則性のみに依るという仮定をする. 簡単のために, すべてのニューロンの出力 \(y_1, \ldots, y_N\) は独立で, 同じ平均 \(m = \Avg{y_i}\) (「ネットワークの平均発火率」のようなもの) を持つとする. さらに, 入力 \(x_i\) が線形和

\[x_i = \sum_{j=1}^{N} J_{ij} y_j\]

で表されるとする. 右辺はたくさんの \(y_i\) の和なのだから, 大数の法則 (law of large numbers) により「その平均 (\(= m\)) × \(J_{ij}\) が非ゼロの時の値 (\(= J / K\)) × \(J_{ij}\) が非ゼロの個数 (\(\approx K\))」で近似出来るはずである. つまり, \(x_i \approx J m\) となる. 結合力が \(J/K\) という選択は \(x_i\)\(K \to \infty\) で発散しないために必要だったのである. しかし, この場合, 中心極限定理 (central limit theorem) により \(x_i\) の分散は \(\Var (x_i) = O(1/K)\) とスケールすることが期待される. つまり, \(x_i\) の不規則性は \(K \to \infty\) の極限で消えてしまう. よって, 出力 \(y_i\) の不規則性は入力 \(x_i\) の不規則性にのみに依るという仮定から, 出力 \(y_i\) の不規則性も消えてしまう. しかし, この結論は出力 \(y_i\) に不規則性があるという仮定のもとで導いたのだから, 矛盾している. つまり, このモデルは間違っている.

この現象を避けるには, 結合力を \(J/K\) から \(J / \sqrt K\) に変更すれば良い. この場合, 同じく 中心極限定理 (central limit theorem) により \(\Var (x_i) = O(1)\) となる. つまり, \(K \to \infty\) の極限でも不規則性が消えない. ところが, 平均は \(\Avg{x_i} = O(\sqrt K)\) となり, \(K \to \infty\) の極限で発散してしまう. 生物学的なモデルでは変数は常に一定の範囲内に収まっているべきであり, 平均が発散するモデルは使えない.

しかし, この困難は相互に結合した興奮性と抑制性の集団と, それらの集団への外部からの興奮性入力 [1] を考えると解決出来る. 興奮性の集団を上付添字 \(E\), 抑制性の集団を上付添字 \(I\), 外部の (興奮性) 集団を上付添字 \(0\) で表し, 例えば \(i\) 番目の興奮性ニューロンへの入力は \(x^E_i\) で, 抑制性ニューロンから興奮性ニューロンへの結合の強さは \(J^{EI} / \sqrt K\) とする. 集団 \(E, 0\) は興奮性なので \(J^{kE}, J^{k0} > 0\) (\(k = E, I\)), 集団 \(I\) は抑制性なので \(J^{kI} < 0\) (\(k = E, I\)) であることに注意. 集団 \(k\) (\(= E, I\)) への入力は

\[x^k_i = \sum_{j=1}^{N} J^{kE}_{ij} y^{E}_j + \sum_{j=1}^{N} J^{kI}_{ij} y^{I}_j + \sum_{j=1}^{N} J^{k0}_{ij} y^{0}_j \approx \sqrt{K} (J^{kE} m^E + J^{kI} m^I + J^{k0} m^0)\]

となる. ここで \(J^{kE} m^E + J^{k0} m^0\) は正で \(J^{kI} m^I\) は負である. よって, これらの値がうまく釣り合えば, つまり, \(J^{kE} m^E - J^{kI} m^I + J^{k0} m^0 \approx 0\) が成り立てば, 入力 \(x^k_i\) は発散しない. 本稿ではこの条件の成り立つネットワークを 興奮・抑制均衡ネットワーク と呼び, その特性を解析する. 素朴に考えるとそのためには各結合力 \(J^{kl}\) (\(k, l = E, I, 0\)) を注意深く選ぶ (fine tuning する) 必要があり, 恣意的なモデルに見える. よって, 興奮・抑制均衡ネットワークの重要なアイディアは, この条件が 自動的に [2] 達成されることにある. もちろんそのためには結合力 \(J^{kl}\) はある条件を満たす必要があるが, その条件は大変ゆるい.

[1]ここでの議論だけでは外部の集団を考える必然性は自明では無い. しかし, 興奮・抑制均衡ネットワークは外部の集団なしでは成り立たないことを後に述べる.
[2]力学系の言葉で言えば, この条件が達成された状態が漸近安定.

まず, 興奮・抑制均衡ネットワーク でネットワークの詳細には依らない特性を導く. そして, 二状態ニューロンのネットワーク で上記のアイディアが統計力学的な厳密な系で成立することを示す. 興奮・抑制均衡ネットワーク二状態ニューロンのネットワーク の大部分の議論はゆるやかにしか繋がっていないので, どちらから読み始めても良い. 二状態ニューロンのネットワーク興奮・抑制均衡ネットワーク の議論が必要になるのは, 安定性解析 の部分だけである.

課題

文献を紹介する