(公社)国際経済労働研究所 会長 古賀 伸明
「国際経済労働研究所について教えてください」と入力すると、“国際経済労働研究「英:InternationalLabourOrganization、略称ILO」は、国際連合(UN)の専門機関の一つです”と答え、ILO(国際労働機関)の目的や機能・役割がかなりの分量で提示される。
私も話題の「ChatGPT」を試してみた。こちらの質問に対し、あたかも人間が答えているかのように自然な言語で返事をするチャットサービスである。上記は最初の検索結果だ。弊所と国際労働機関を同一視し、間違った答えであることは明らかだ。
連日のように、対話型・生成AIのニュースが流れる。
「OpenAI」が2022年11月に「ChatGPT」を無料公開すると、利用者はわずか2ヶ月で約1億人に達した。知りたいことを質問できるだけでなく、気軽な相談相手にもなり、利用者が一気に増え、一般向けのアプリとして最も早い普及ぶりという。バージョンアップしたGPT-4は、アメリカの司法試験の模擬試験を受けさせたところ、上位10%に入る成績だったと報道された。
23年2月には、マイクロソフトのビング(Bing)が公開された。後れをとったグーグルは、全社にコード・レッド(非常事態宣言)を出して急ピッチで開発を進め、3月にバード(Bard)を発表。中国の検索エンジン大手・百度(バイドゥ)もAIチャットボットを発表している。日本もスーパーコンピューター「富岳」を使用し、日本語能力の高い生成AIの開発に乗り出した。
長い文章の要約や論点の整理、外国語の翻訳も可能であり、コンピューターのプログラミングを作ることもできる。これまで人間にしかできないと思われていた仕事の多くを短時間にこなす。2回目の試行として、「友人の父親のご逝去へのお悔やみの手紙」を依頼すると、数秒ですらすらと手紙の案が作成された。情報収集や分析などの効率化のツールとして有用で、活用は広がっていくだろう。新たな発想は対話を重ねることによっての知的刺激から生まれる。その対話の疑似的な相手になるかもしれない。
しかし、利便性ばかりが注目されがちだが課題も多い。生成AIは、事前に学習した膨大な文書データから、単語や文節の配列を認識し、確率的に高い文章の続きを推測して語句を順番につないで回答する。表面的にはもっともらしいが、事実に反する偽情報もいくらでも生成するのだ。冒頭の試行がそのことを明らかにしている。偏りや間違いがあることを常に意識し、あくまでも人間によるチェックは必須である。
言語は対話を基盤とする人間として、根幹とも言える領域の一つである。巧妙な偽情報が大量に作り出され、世論調査や情報工作に悪用される恐れもある。前のめりになるのではなく、上手く活用することが求められる。
また、かねてよりAIをめぐり、サイバー攻撃への悪用、企業秘密の漏洩や著作権侵害、プライバシー侵害など社会と人類のリスクにつながる可能性などの課題が指摘されてきた。教育や研究の現場からは、「表現力や想像力、思考力が育たなくなる」などと心配の声が上がる。働く分野によっては、職を失う危機感も募る。
憲法学者の山本龍彦氏は、「生成AIのポリシーやアルゴリズム次第で言論空間が大きく歪められ、国家の命運も左右される」と警告する。個人情報の保護や人権への配慮、透明性の確保などで課題も多く、偽情報の拡散は安全保障上の脅威にもなりうるためだ。
G7広島サミットの首脳声明では、「民主的価値に沿った信頼できるAIを達成するために国際的な議論を進める」として、担当閣僚による協議の枠組み「広島AIプロセス」を立ち上げ、年内に国際ルールを取りまとめるとの目標を定めた。しかし、各国の立場も異なり、急速に進歩する技術革新のスピードに追いつけるかどうか疑問視する専門家も多い。
活用による利点と危険性を充分に議論し、ルール作りを急ぐ必要がある。人間が生み出した科学技術は、人間の幸せと豊かさのために使われなければならない。
2023.7