MENU

AIの光と影

column

2024年04月10日

合同会社エムアイティエス代表 水谷哲也

AIを活用していますか。小中高生を対象にした読書感想文の全国コンクールでは、AIが生成した文章を引用するなどした複数の応募作品が審査対象外となりました。生成AIはアイデア出しの壁打ちに活用できるなど有効な面もありますが、影の面もあります。

データバイアス問題

マイクロソフトが2016年に公開したチャットボット・テイ(Tay)はツイッター上で発言する、おしゃべりボットでした。しかもツイッターユーザーとのやり取りで学習するAIでした。公開したところユーザーから人種差別などの発言がたくさん送られてくるうちにチャットボット自身が人種差別的な発言を繰り返すようになってしまいました。わずか1日で公開停止となります。AIの学習を一般ユーザーに委ねるとリスクが伴うことが判明しました。

サンプリングの偏り問題もあります。例えば台風の状況をツイッターの発言から把握するシステムを作った場合、スマホの所有率やツイッター利用率が高い地域に偏り、全体を表していないことにあります。

ロボット三原則とは

「ファウンデーション」、「ミクロの決死圏」などで有名なSF作家アイザック・アシモフが「われはロボット」という作品に記載したのがロボット三原則というロボットが従うべき原則です。

第一条「ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない」

第二条「ロボットは人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が、第一条に反する場合は、この限りでない」

第三条「ロボットは、前掲第一条および第二条に反するおそれのないかぎり、自己を守らなければならない」

となっています。この原則は現実のロボット工学にも影響を与えています。既に人間の判断を介さずにAIなどを使って人間を殺傷する自律型兵器システムの開発が進んでいます。ロボットをAIに置き換えればロボット三原則の第一条に明確に反しています。そこで兵器システムについて国際ルールを作ろうという機運が高まっています。

AIが何をしているのか説明できない

最新のChat-GPTでは100兆個のパラメータを使っており、膨大な数で階層も深く、人間の理解を超えています。つまり人間の理解の外側にいかないと、よい予測などはできないということです。ただAIが何をしているか説明できないと例えば自動運転で万が一、事故が起きた時に困ります。

Chat-GPTをすごく単純化すると文章の中で次に並ぶ言葉を確率的に予測して返すことを行っているだけです。ただし「サリーとアン課題」という社会的認知能力を調べる心理検査をパスするようになりました。

サリーとアンという二人の女の子が部屋にいます。部屋には中が見えないカゴと箱があります。サリーは大好きなボールをカゴの中に入れて部屋から出て行きました。それを見たアンはカゴの中のボールを箱に移します。そこにサリーが戻ってきました。

ここまで子供に聞かせて質問をします。

質問1 ボールはどこにありますか?

質問2 ボールで遊びたいサリーは、どこを探しますか?

質問1の答えは「箱の中」です。質問2は「カゴの中」になります。3歳ぐらいまでは間違えますが、4歳ぐらいから正解が増えてきます。Chat-GPTも最初は3歳児と同様に間違っていましたが、バージョンアップを続けると正解するようになります。基本的にパラメータ数などが増えただけですが、なぜ急に「サリーとアン課題」が正解できるようになったかは説明できません。

シンギュラリティが早まる

シンギュラリティという言葉があり、AIが人間の知能を超越する意味で使われています。2045年にシンギュラリティが到来するといわれていましたが、もっと早まるのではないかと言われています。

AI自身が自ら取り組むべき課題を自発的に設定し、それを解くために、それらの能力を動員するシンギュラリティが意外に早く訪れるのではという危惧が研究者らの間で拡がっています。AIの研究を少し止めようという提唱も行われ、欧州議会は世界初となるAIの包括的な規制法案を可決しています。

人類が制御できなくなるのを防ぐためにアシモフが唱えたロボット三原則をAI開発で憲法のような形で組み込む必要がでているようです。

  • 掲載しているブランド名やロゴは各社が所有する商標または登録商標です。
  • この情報の著作権は、執筆者にあります。
  • この情報の全部又は一部の引用・転載・転送はご遠慮ください。

ITコラムカテゴリーの人気記事