0120-70-4515
電話受付:平日 10:00〜17:00
(土・日・祝日休)
column
2024年09月11日
水谷IT支援事務所代表 水谷哲也
生成AIを業務で使うことが増えつつあります。今のAIブームが起きたのが2016年で、きっかけはAIが囲碁の世界チャンピオンに勝ったというニュースです。深層学習(ディープラーニング)という言葉が世界に衝撃を与え、第3次AIブームが巻き起こります。今の生成AIにつながる技術ですが、なぜ日本で生まれなかったのでしょうか。
話は1956年に遡ります。ダートマス大学で2ケ月間、10人の研究者が集まり、会議を行います。この時に参加していたジョン・マッカーシーが人工知能という言葉を考えます。当初は簡単に人工知能を作れると考えていましたが、どうして、どうして、研究すると人は、とんでもない情報処理をしていることが分かります。コンピュータだけの研究では無理で、新しく認知科学という学問が生まれます。認知科学とは各分野の領域を超えて人間とは何かを解明していく学際的な学問です。知識の獲得や表現、学習、記憶、推論の仕組みなどを動物行動学、神経科学、心理学、言語学、数学、計算機科学、哲学などをより集めて研究します。
認知科学の中に神経科学があり、これが深層学習に結びついていきます。脳神経の動きをコンピュータで模倣することで人と同じ認識能力を再現しようという研究がすすみパーセプトロンが考え出されます。複数の信号を与え、いろいろな計算をして一つの信号を出力します。例えばパーセプトロンを使って身長と体重の2つのデータから大人か子供かを判定するアルゴリズムを作成することができました。第2次人工知能ブームの頃です。
最適なアルゴリズムを導き出すために、いろいろと数値を変えますが膨大な計算は人工知能が行います。ただし集団の間に大人か子供のように、直線を引いて分類できるような問題しか解くことができず、例えば自分がいる場所が町の中なのか外かを判別する、直線では解けない問題には応用できませんでした。第2次人工知能ブームが去ると研究予算などが削減され冬の時代を迎えます。
冬の時代にもめげずに研究していたのがヒントンなどの研究者で、新しい方法(バックプロパゲーション法)を生み出します。おおざっぱに説明すると直線で解けないのなら、たくさんの層を増やして一つ一つの層は直線で解けるようにし、全体にすると直線で解けないものも解けるようにするということです。たくさんの層を作るので深層学習と呼ばれます。
画像認識コンテストILSVRCでは1000万枚の画像データを認識させたコンピュータに、犬や花、車などの画像を見せて正解率を競います。チーム戦で戦いますが、2012年大会でトロント大学のヒントン教授率いるチームが2位以下に圧倒的な差をつけて勝利します。それまでの正解率が74%程度だったのを一気に10%近くも上昇させました。トロント大学はどんな技術を使っているのだと話題になり、ここで深層学習が話題になります。
ヒントン教授の会社をグーグルが買収し、教授はグーグルでAI研究にかかわります。2012年、グーグルから人が教えることなく、AIが自発的に猫を認識することに成功したと発表され、世界中に大きな衝撃を与えました。やがて囲碁の世界チャンピオンを破るアルファゴが生み出されます。
深層学習に注目が集まり、マイクロソフトなど巨大テック技術の大型投資が始まります。深層学習は画像認識から言葉の認識に発展し、LLM(大規模言語モデル)から現在の生成AIにつながっています。
ヒントン教授のように研究の主流からはずれていても、めげずに研究し続けたことが30年たって花開くことになります。ヒントン教授は最初、アメリカの大学で研究していましたが短期的成果が求められるためトロント大学に移ります。コンピューターサイエンス学部教授に就任し、これで安定した研究環境が確保でき、長年にわたり研究でき深層学習に結びつきました。
海外の大学では教育や研究の実績に基づいて配分を決めますが、日本の大学では前年度額ベースや教育研究以外の改革度合いで予算を配分しており、ヒントン教授のような研究をしていても研究予算を確保することは難しいでしょう。
まだ、どうビジネス化できそうか分からなくても有望そうだと考えて研究資金を提供するグーグルやVC(ベンチャーキャピタル)の存在が弱い面があります。つまりお金の出し手側に目利きできる人材がいません。
関連コラム
ITコラムAIで働かなくてもすむ時代へ