京都新聞TOP > 情報技術最前線
インデックス

[18]ニューラルネットワーク

立命館大情報理工学部教授 西川郁子氏
データ認識とデータ生成

 脳は多くの神経細胞(ニューロン)で構成され、信号をやりとりしています。このネットワークを「ニューラルネットワーク」と呼びます。その仕組みをまねて脳機能の理解と実現を目指す人工ニューラルネットワークの研究は、脳の理解とその応用が両輪です。ここでは後者を見ます。

 人工ニューロンからいかに人工脳を作るか。目標は、本物の脳がやっている物の認識など知的機能の実現です。まず適当にニューロンをつなぎ、何か信号を入れて出てくる信号を眺めても、最初は全くでたらめです。そこで例えば、何の絵かを認識させたいなら、ネコの絵を入れて、出てくるでたらめな答えが正解のネコに近づくよう、つなぎ方を少し変えます。いろいろな絵を繰り返し入れては修正を繰り返し、徐々に正解率を上げます。この作業が人工脳の学習です。正解付き例題で学習した脳が、例題以外でも正解することが目標です。

 数学では、xの値に応じてyの値が決まる関数を考えますが、入力に応じて出力を出すニューロンも関数、これを次々と行う脳全体もまた一つの関数とみることができます。つまり、ある絵xを受け取り、出口でy=ネコと出す関数。そして、例題での正解率を上げるように関数を修正する作業が学習です。多くの例題で学習すると、初めて見る問題でも正解できるのは、関数の補間に過ぎません。少々つまらないですが、これが学習の主な枠組みです。

 ヒトでも手段はどうあれ、例題群の正解をただまねる習熟法もありますよね。英語ではlearningとして、経過や思考を重視するstudyと区別しているようです。人工脳の学習は機械学習(machine learning)と呼びますが、learningでは人工物が圧勝です。

ヒトの認識レベル「深層学習」で実現

 入力から出力までを何段にも深くした大規模ネットワークの学習は「深層学習」と呼ばれ、アルファ碁などで注目されました。大規模になるほど必要な例題数は増えますが、高性能計算機と大量データが手に入る近年は、たいへん盛んです。画像処理を中心に従来技術を圧倒する精度を出し、ヒトの認識レベルを深層学習で実現できる事例が増えました。何の絵か認識できる手掛かりを「特徴量」と呼びますが、今まではヒトが考案していた特徴量を、学習で得ることができるにようになったからです。入力に近いニューロンは単純な特徴を検出し、出力に近いニューロンは抽象的な概念に対応するよう、学習につれ役割分担します。

 絵を認識する人工脳が関数なら、その逆向きの関数も作れそうです。例えば、ネコと入れると、新しいネコの絵を出す関数です。データ認識の逆向きとして「データ生成」と呼び、いろいろな学習モデルがあります=図。例えば、データを生成する人工脳、それを偽データだと見抜く人工脳、両者が互いに相手をだまそう、だまされまいと競いつつ同時に学習することで、実写と見まがう架空ネコを次々と生成しはじめます。そこでは、ありとあらゆるネコといったデータ分布や確率的な考え方も有効です。

 抽象的な概念なら、対応するデータは画像に限らず、音や文にも広がります。人工脳の認識機能と生成機能を組み合わせ、文章を入れるとその写真が出るなど自在です。最新成果もプログラムやデータがインターネット上で公開され、誰もがそれを使うことができ、また新しいアイデアが報告される。まさに百花繚乱(りょうらん)の状況で、斬新な発想と突破力も武器です。

 ただ私たちの脳は、関数と呼ぶにはずいぶん気まぐれらしく、信号自体より信号間の同期が情報を担うことを示す実験も多くあります。新しい脳モデルやその学習の源泉はいつまでも尽きません。

にしかわ・いくこ

 1961年生まれ。京都大大学院理学研究科物理学第一専攻博士後期課程単位取得退学。博士(理学)。機械学習、最適化などの研究に従事。神戸大助手、立命館大理工学部助教授などを経て、2004年より現職。

【2018年09月26日掲載】