日本では、4月14日に開かれた衆議院内閣委員会で、ChatGPTについて松野官房長官は「現状、規制する考えはない」と発言、高市経済安全保障担当相も「直ちに使用を禁止するなどの規制を行うつもりはない」とした。さらに農水省が行政手続きのマニュアル改訂にChatGPTを導入予定というニュースも流れ、中央省庁初のChatGPT利用として話題を呼び、先の官房長官の発言とともに、日本のChatGPTに対する前向きな姿勢が示された。
では、世界の動向を見てみよう。EU(欧州連合)加盟国のデータ保護当局等が構成する「欧州データ保護会議」では、ChatGPTを取り扱うタスクフォースを設置した。各国のデータ保護当局の協力と情報共有を目的としているが、AIの学習データ開示を企業に義務づけるなど、AIに関する包括的なポリシーの確立に向かうのでは、といわれている。
イタリアでは、データ保護当局が、利用者の年齢確認や情報提供義務、法的根拠を特定できていない点、正確性原則違反などを理由に一時的にChatGPTの利用を禁止していたが、米OpenAIが対応措置を講じたことから禁止を解除。ドイツはOpenAIに対し、EUの一般データ保護規則の順守に関して、回答を求めている。
フランスのデータ保護当局は、ChatGPTに対する複数の申し立てに基づき調査を実施中だ。イギリスでは競争・市場庁が、基盤モデルの開発と利用における競争確保と消費者保護についての調査を開始する一方、AI開発向け等の大規模計算資源の整備に9億ポンドを投資。今後10年間、AIに関する優れた研究に対し、賞金を授与することを決定した。
アメリカでは、高度なAIの開発の一時停止を求める署名活動が広がっている。行政管理予算局は、国民の権利等の保護のため、政府機関におけるAI利用についてガイダンスを公開し、意見募集を行うと発表。ホワイトハウスは、新たに7つの国立AI研究機関を立ち上げるための資金提供を発表し、気候や、農業、エネルギー、公衆衛生、教育、サイバーセキュリティ等の重要分野における取り組みを促進するという。
カナダでは、プライバシー・個人情報保護法の下、政府がプライバシーに関する懸念点を調査中だ。中国においては、サイバー空間管理機関が、生成AIに関して、公衆向けサービスの提供前に当局に対して安全性評価を提出すること、生成AIの出力は共産主義の基本的な価値観に沿うものとすべきこと等を求める規制案を公表している。
韓国の個人情報保護委員会は、韓国の利用者に関するデータがChatGPTの開発にどのように利用されているか確認中。国内のAI産業等の強化に約4億2400万ドルを投資する計画を発表。2023年からは、生成AIを活用した革新的なサービス型ソフトウエアの開発と商業化を支援する新しいプロジェクトが開始される予定。
インドは政府主導プログラムの下で、インド独自の生成AI「BharatGPT」を開発中だ。23の公用語と6000の方言があると言われるインドにおいて、重要な異なる言語間の翻訳・コミュニケーションを主眼に、独自のデータセットを用いてLLMを開発している。
日本は前向き姿勢で大丈夫か? 考えられるリスクやメリット
日本は先述のごとく、基本的に、ChatGPTをはじめとする生成AIに対して、他国のように規制や制限を設ける方向を示していない。4月10日、ChatGPTの開発元の米OpenAIのサム・アルトマンCEOが来日して岸田首相と面会、自民党の「デジタル社会推進本部」にも出席した。塩崎議員のツイートによれば、CEOは、日本での活発なChatGPTの利用などを引き合いに「日本がAIの利活用を通じて世界で大きな存在感とリーダーシップを発揮してほしい」と発言、日本関連の学習データのウエート引き上げなど7つの提案を行ったという。
日本のAI戦略については内閣府の「AI戦略」を参考にしてほしい。2019年3月29日の「人間中心のAI社会原則」には、AI時代の社会の基本理念として「人間の尊厳が尊重される社会」「多様な背景を持つ人々が多様な幸せを追求できる社会」「持続性ある社会」の3つを掲げる。これは、デジタル庁の掲げる「デジタル社会の実現に向けた重点計画」の「誰一人取り残されない、人に優しいデジタル化」にもつながる。AIに対しての直近の状況は、5月11日に行われた「AI戦略会議」の資料「AIを巡る主な論点」を参照するとよいだろう。
こうした新しい技術で利便性や効率が上がるのは大きなメリットともいえるが、悪意ある者に生成AIを悪用される可能性も危惧されている。他にも冒頭で挙げたような多くのリスクがほぼ手付かずで存在する。この事実は放ってはおけない。とにもかくにも、早めの整備が必要だろう。
今後の動向はどうなっていくのか~「広島AIプロセス」への希望
各国の様子を見ると、国民の権利等のため、調査や意見募集を行う、開発元に回答を求める、など具体策を講じている国が多い。他にも自国内でのAI開発支援、独自AIの開発などを進める国もある。それに比してわが国は、理念ばかりで具体性に欠ける気がする。AIに対して前向きな姿勢を取るなら、「何があっても解決策は手の内」でなくてはバランスを欠く。
サミットでは、生成AI活用をめぐる国際ルール作りに「広島AIプロセス」と名付けているが、「ヒロシマ」を掲げるうえには、誰かが悲しむことをこの先1つも起こしてはならないと思う。そうでないと「誰一人取り残されない」「持続性可能な」未来は作れないはずだ。例えば、自作品が無断でAIに学習され、似た作品を生成AIに量産される制作者をどう救うか、AIにより職を失う可能性をどうサポートするか、社内利用のAIを攻撃され機密情報を盗まれる可能性をどう防ぐかなど多様なリスクや可能性がある。これらを想定したのち、地道に解決して、誰一人取り残されないよう、導いていくのが筋ではないか。
前回紹介したAIに携わる学者たちの危惧、特に「AIのゴッドファーザー」ジェフリー・ヒントン氏の警告には、並々ならぬものを感じる。彼は今の状況を、映画「ドント・ルック・アップ」に重ねる。この映画は、彗星(すいせい)が地球に衝突する可能性を訴える2人の天文学者の警告に、情報が氾濫する世界では誰も耳を貸そうとせず、地球が滅びてしまう、というあらすじだ。
目の前の景気やお金、DX化などの技術の遅れをどうにかすることはもちろん大事だ。しかし、今こそ日本が、「ヒロシマ」を胸に、誰一人取り残されない未来を、全世界を先導して作っていくべきではないか。今後の動向に期待したい。
※掲載している情報は、記事執筆時点のものです