人工知能は人間を超えるか

はじめに|人工知能の春

  • ポイントは,50年ぶりに訪れたブレークスルーをもたらすかもしれない新技術「ディープラーニング」の意義をどうとらえるかにかかっている.
  • 人工知能にできることは現状ではまだ限られている:
    • 基本的には,決められた処理を決められたように行うことしかできず,「学習」と呼ばれる技術も,決められた範囲内で適切な値を見つけ出すだけ.
    • 例外に弱く,汎用性や柔軟性がない.

現在の人工知能は,「大きな飛躍の可能性」に賭けてもいいような段階だ.

買う価値のある宝くじだと思う.


序章|広がる人工知能──人工知能は人類を滅ぼすか

  • コンピュータは天才的なひらめきで流れるように文章を生み出すのは苦手だが,有望な組み合わせを大量につくり,トライ&エラーで結果のレベルを上げていく作業は得意中の得意.


第1章|人工知能とは何か──専門家と世間の認識のズレ

  • 2015年現在,本当の意味での人工知能──つまり,「人間のように考えるコンピュータ」はできていない
  • 人工知能の歴史は,人間の知的な活動を一生懸命まねしようとしてきた歴史でもある.
    • しかし,人間の持つ知能は深遠で,はるか手の届かないところにあり,いまだその原理はわかっていないし,それをコンピュータでまねすることもできない.
  • 人間のように知的であるとは「気づくことのできる」コンピュータ,つまり,データの中から特徴量を生成し現象をモデル化することのできるコンピュータという意味.
  • 人工知能研究は,「考える」ことを実現するために,抽象的な「目に見えないもの」を扱っている学問と理解してよいだろう.
  • 入力(人間の五感に相当する「センサー」により観測した周囲の環境や状況)に応じて,出力(運動器官に相当する「アクチュエーター」による動作)が変わる.
  • 人工知能の4段階のレベルの例え:
    1. 言われたことだけをこなす,アルバイト
    2. たくさんのルールを理解し判断する,一般社員
    3. 決められたチェック項目に従って業務をよくしていく,課長クラス
    4. チェック項目まで自分で発見する,マネジャークラス


第2章|「推論」と「探索」の時代──第1次AIブーム

  • 探索木とは,要するに「場合分け」である.
    • コンピュータは単純なので,場合分けをどんどんやれと指示すると,いくらでも場合分けをする.そして,いつしか答えを見つけてしまう.
    • 同じ場合分けでも,やり方によって効率が良い悪いというのがある:
      • 深さ優先探索:とにかく行けるとこまで掘り下げてみて,ダメなら次の枝葉に移る.
      • 幅優先探索:同じ階層をしらみつぶしに当たってから次の階層に進む.
  • 特徴量というのは「データの中のどこに注目するか」ということであって,それによって,プログラムの挙動が変化する.
  • スコアの評価に「モンテカルロ法」を導入:
    • いちいち手の意味を考えず,ひたすらランダムに指し続け,その勝率で盤面を評価したほうが,人間がスコアのつけ方を考え,重みづけをして盤面を評価するよりも,最終的に強くなることがわかってきた(実際にはランダムではなく,いろいろな工夫をしている).
    • 素人の判断(ランダム)でも,ケタ違いに多くなれば,玄人の判断(人間による重みづけ)にも勝るということ.
  • 人間の知能をコンピュータで実現することの奥深さがわかったのが,第1次AIブームであった.


第3章|「知識」を入れると賢くなる──第2次AIブーム

  • 第2次AIブームを支えたのは「知識」である:
    • お医者さんの代わりをしようと思えば,「病気に関するたくさんの知識」をコンピュータに入れておけばよい.
    • 弁護士の代わりをしようと思えば,「法律に関するたくさんの知識」を入れておけばよい.
    • そうすると,病気の診断をしたり,判例に従った法律の解釈をしたりという現実の問題を解くことができる.
  • 知識を記述するのが難しいことがわかってくると,知識を記述すること自体に対する研究が行われるようになってきた.それがオントロジー研究につながった.
    • オントロジーとは,哲学用語で「存在論」のことであり,人工知能の用語としては,「概念化の明示的な仕様」と定義される.
    • 情報システムをつくるときに,そこに明確な仕様書があるべきなのと同じように,知識を書くときにも,そこに仕様書があるべきだろうという考え方.
  • ワトソンの性能がどれだけ上がったように見えたとしても,質問の「意味」を理解しているわけではない.コンピュータにとって,「意味」を理解するのはとても難しい.
    • 単純な1つの文を訳すだけでも,一般常識がなければうまく訳せない.ここに機械翻訳の難しさがある.
    • 一般常識をコンピュータが扱うためには,人間が持っている書ききれないくらい膨大な知識を扱う必要があり,きわめて困難である.
    • コンピュータが知識を獲得することの難しさを,人工知能の分野では「知識獲得のボトルネック」という.


第4章|「機械学習」の静かな広がり──第3次AIブーム①

  • 機械学習とは,人工知能のプログラム自身が学習する仕組みである.
    • 学習の根幹をなすのは「分ける」という処理.
    • 人間にとっての「認識」や「判断」は,基本的に「イエス・ノー問題」としてとらえることができる.
      • 食べられるか食べられないか.敵か味方か.雄か雌か.
    • この「イエス・ノー問題」の精度,正解率を上げることが,学習することである.
    • 機械学習は,コンピュータが大量のデータを処理しながらこの「分け方」を自動的に習得する.
      • いったん「分け方」を習得すれば,それを使って未知のデータを「分ける」ことができる.
  • 教師あり学習
    • 「入力」と「正しい出力(分け方)」がセットになった訓練データをあらかじめ用意して,ある入力が与えられたときに,正しい出力(分け方)ができるようにコンピュータに学習させる.
    • 通常は,人間が教師役として正しい分け方を与える.
  • 教師なし学習
    • 入力用のデータのみを与え,データに内在する構造をつかむために用いられる.
    • データの中にある一定のパターンやルールを抽出することが目的である.
  • 微分をとるというのは,つまり,あるひとつの重みづけを大きくすると誤差が減るのか,小さくすると誤差が減るのかを計算するということである.
  • 機械学習ニューラルネットワークをつくる「学習フェーズ」と,できあがったニューラルネットワークを使って正解を出す「予測フェーズ」の2つに分かれる.
    • 学習フェーズは,大量のデータを入力し,答え合わせをして,間違うたびに重みを適切な値に修正する作業をひたすら繰り返す.
    • いったんできてしまえば,使うときは簡単で,できあがった重みづけを使って,これまでの訓練用データとは違う新しいデータを入力して,出力を計算する.
    • 人間も学習しているときは時間がかかるが,学習した成果を使って判断するときは一瞬でできる.
  • 機械学習によって「分け方」や「線の引き方」をコンピュータが自ら見つけることで,未知のものに対して判断・識別,そして予測をすることができる.
  • 機械学習にも弱点がある.それが特徴量の設計である(特徴量設計):
    • 特徴量というのは,機械学習の入力に使う変数のことで,その値が対象の特徴を定量的に表す.
    • この特徴量に何を選ぶかで,予測精度が大きく変化する.
    • 機械学習の精度を上げるのは,「どんな特徴量を入れるか」にかかっているのに,それは人間が頭を使って考えるしかなかった.
    • これが「特徴量設計」で,機械学習の最大の関門だった.

特徴量をどうつくるかが機械学習における本質的な問題である.

人間がうまく特徴量を設計すれば機械学習はうまく動き,そうでなければうまく動かない.

これらの問題は,結局,同じひとつのことを指している.

いままで人工知能が実現しなかったのは,「世界からどの特徴に注目して情報を取り出すべきか」に関して,人間の手を借りなければならなかったからだ.

つまり,コンピュータが与えられたデータから注目すべき特徴を見つけ,その特徴の程度を表す「特徴量」を得ることができれば,機械学習における「特徴量設計」の問題はクリアできる.


第5章|静寂を破る「ディープラーニング」──第3次AIブーム②

  • それまで,画像認識というタスクで機械学習を用いることは常識であったが,機械学習の際に用いる特徴量の設計は,人間の仕事であった
    • 機械学習といっても,特徴量の設計は,長年の知識と経験がものをいう職人技である.
    • 研究者からすると,「やってもいいけど大変なわりにあまり未来がない」ように思える世界.
  • 2012年に初参加してきたトロント大学は,ほかの人工知能を10ポイント以上引き離して,いきなりエラー率15%台をたたき出した.
  • ディープラーニングは,データをもとに,コンピュータが自ら特徴量をつくり出す.
    • 人間が特徴量を設計するのではなく,コンピュータが自ら高次の特徴量を獲得し,それをもとに画像を分類できるようになる.
    • ディープラーニングによって,これまで人間が介在しなければならなかった領域に,ついに人工知能が一歩踏み込んだ.
  • ディープラーニングが従来の機械学習とは大きく異なる点が2点ある:
    1. 1層ずつ階層ごとに学習していく点.
    2. 自己符号化器(オートエンコーダー)という「情報圧縮器」を用いること.
      • 自己符号化器は「八百屋に行って新しいバナナを買うときに古いバナナを支払うようなもの」,あるいは「銀行に行ってボロボロの100ドル札を100ドルの新札に取り替えてもらうようなもの」.
  • 自己符号化器でやっていることは,アンケート結果の分析などでおなじみの「主成分分析」と同じである.
    • 主成分分析とは,たくさんの変数を,少数個の無相関な合成変数に縮約する方法で,マーケティングの世界でよく使われる.
    • 自己符号化器の場合は,さまざまな形でノイズを与え,それによって非常に頑健に主成分を取り出すことができる,
    • そのことが「ディープに」,つまり多階層にすることを可能にし,その結果,主成分分析では取り出せないような高次の特徴量を取り出すことができる.
  • ディープラーニングは「データをもとに何を特徴表現すべきか」という,これまで一番難しかった部分を解決する光明が見えてきたという意味で,人工知能研究を飛躍的に発展させる可能性を秘めている.
    • ところが,その実,ディープラーニングでやっていることは,主成分分析を非線形にし,多段にしただけである.
    • つまり,データの中から特徴量や概念を見つけ,そのかたまりを使って,もっと大きなかたまりを見つけるだけである.
  • マシンパワーが飛躍的に高まった現在になって,ようやく頑健性を高めること,それによってニューラルネットワークを多段にして,高次の特徴量を得ることが可能になってきた.
  • ディープラーニングの頑健性の高め方:
    • ドロップアウトといって,ニューラルネットワークニューロンを一部停止させる.
      • こうすることで,ある特徴量がほかの特徴量をカバーするように,最適化されていく.
      • ある特徴量に過度に依存した特徴表現がなくなる.
      • 一部分の特徴量を使えなくすることが,適切な特徴表現を見つけることに有効に働く.
  • 画像認識の精度が上がらなかった理由:
    1. 頑健性を高めるためにいじめ抜くという作業の重要性(専門的に言うと,正則化のための新しい方法)に気づいていなかったため.
    2. そもそもマシンパワーが不足してできなかったため.


第6章|人工知能は人間を超えるか──ディープラーニングの先にあるもの

  • コンピュータが自ら特徴量や概念を獲得するディープラーニングでは,コンピュータがつくり出した「概念」が,実は,人間が持っていた「概念」とは違うというケースが起こりうる.
    • 人間がネコを認識するときに「目や耳の形」「ひげ」「全体の形状」「鳴き声」「毛の模様」などを「特徴量」として使っていたとしても,コンピュータはまったく別の「特徴量」からネコという概念をつかまえるかもしれない.
  • 複数の人間に共通して現れる概念は,本質をとらえている可能性が高い.
    • つまり「ノイズを加えても」出てくる概念と同じで,「生きている場所や環境が異なるのに共通して出てくる概念」は何らかの普遍性を持っている可能性が高い.
  • シンギュラリティというのは,人工知能が自分の能力を超える人工知能を自ら生み出せるようになる時点を指す.
    • かけ合わせる数が1.0をわずかでも超えると,いきなり無限大に発散することから「特異点」と呼ばれている.
  • 「人間=知能+生命」である.
    • 知能をつくることができたとしても,生命をつくることは非常に難しい.
    • 人工知能が人間を征服する心配をする必要はない.


終章|変わりゆく世界──産業・社会への影響と戦略

  • 残念なことに,日本には「機械学習の精度が上がると売上が莫大に伸びる」というビジネスモデルを築き上げている企業がほとんどない.
    • そのことが,日本企業が人工知能研究に本腰を入れるハードルにもなっている.
  • 現在,ディープラーニングに代表される特徴表現学習の研究は,まだアルゴリズムの開発競争の段階である.
    • ところが,この段階を超えると,今度はデータを大量に持っているところほど有利な世界になる.
    • 日本には世界的なプラットフォーム企業が存在しないため,海外のデータを持っている企業におそらく太刀打ちできない.