~~
群馬県高崎市で開かれた先進7カ国(G7)デジタル・技術相会合が4月30日、「人間中心で信頼できる人工知能(AI)」の開発推進などを盛り込んだ共同声明を採択して閉幕した。
各国は国際的な技術基準策定を目指すことなどで一致した。AIを含む新興技術に対応する5原則として、イノベーション機会の活用や法の支配、適正手続き、民主主義、人権尊重も掲げた。
対話型AI「チャットGPT」など、文章や画像を作る生成AIが急速に進歩する中で、その開発や利活用をいかに適切に行うかが世界共通の課題となっている。
先端的なAI技術を有し、民主主義などの価値観を共有するG7各国が連携して対処する意味は大きく、今回はそのための一歩と理解したい。これを起点として継続的に議論を深め、実効性のあるルールを確立すべきである。
生成AIを巡っては、それがもたらす偽情報の拡散や個人情報流出、著作権侵害などのリスクが懸念されている。中国やロシアなどの専制主義国家がAI技術を悪用する事態もあり得よう。
そうした点に関してG7が「民主主義の価値を損ない、表現の自由を抑圧し、人権の享受を脅かすような誤用・乱用に反対する」と明記したのは妥当である。
問題は、規制の在り方に関する各国間の温度差だ。欧州連合(EU)が個人情報や著作権を保護するAI規制新法の制定に動くなど欧州諸国は総じて規制強化に積極的である。これに対して日本は過剰な規制は技術革新を損ないかねないとみて、規制よりも利活用に重きを置いている。
今回のG7でこの溝は解消されず、共同声明は「G7メンバー間で異なる場合があることを認識している」と指摘した。それゆえにAIルールの具体化に踏み込めなかったことは確かだろう。
だからといって、米国や中国などと比べてAI技術の開発が遅れている日本がやみくもに規制強化に向かうことが適切なのか。むしろ、AIのリスクに対処する上での前提となるのは、AI技術を国内で確立しておくことだろう。問われているのは、規制と利活用の両立を図ることである。
AI技術は経済社会から安全保障まであらゆる環境を激変させる可能性がある。腰を据えて取り組みを強めなくてはならない。
◇
2023年5月2日付産経新聞【主張】を転載しています