Web教材一覧AI

生成AIと社会

(注)本ページは2024年中頃の記述です。技術的な説明は厳密ではありません。


生成AI、特に対話型生成AIの出現は、社会の広範囲に大きな影響を与えています。ここでは、プラスの側面、マイナスの側面およびその対策について考えます。

AIは、機能的には次のように分類できます。
   AI┰(従来型)AI
     └ 生成AI
        └ 対話型生成AI
 しかし、AIの適用や効果の観点では、その区別は不明確です。
 それでここでは、生成AIを主としたAIを対象にします。

生成AIの利点

PC利用での効果

ビジネスでの利用

この用途では、おしきせの生成AIではなく、社内情報を検索用データベースに入れること、用途に適したカスタマイズをすることなどが前提になります。

事務一般

コールセンター、ヘルプデスク

小売、サービス業

工場、物流センター

この分野は、生成AIというより広い意味でのAI技術の活用ですが、ヒューマンインタフェースの改善には生成AIが使われます。

計画・戦略分野

教育、学習

行政の情報提供


生成AIの限界

元資料の限界

生成AIは、事前に膨大な資料から作成したデータベースを利用して回答しているのですから、その知識は元資料に限定されます。
 質問に関する分野の資料が少ないと、その回答は信頼性の低いものになります。現状では、生成AIは「わかりません」とはいわず、なんとなくもっともらしい内容を断定的に回答するクセ(?)があります。
 元資料には信頼性が低いもの、誤りがあるものも混在します。AIの回答には、それがそのまま反映する可能性があります。さらには、元資料に偏りがある(独裁者に批判的な資料は使わないなど)と、一面的な回答になりやすくなります。

指示解釈の限界

人間同士でも、誤解なく相手に伝えることは困難です。生成AIは、用語間の関係を知っているだけで、用語の意味は知りません。まして質問の背景になる環境は理解していません。そのため、1回の質問で期待する回答が得られるのは稀だともいえます。
 対話型生成AIでは、質問を言い換えたり追加の質問ができるのが特徴ですので、この限界をかなり解決します。しかし、効率よく求めるには、質問の工夫が必要です。それには、言語学や認知工学、生成AIの理解などが必要になります。適切な質問(プロンプト)にするテクニックをプロンプトエンジニアリングといいます。

根拠追跡性の限界

生成AIの内部では複雑なニューロネットワークが用いているので、回答が得られた根拠を示すのが困難です(参考文献のURLを表示する生成AIもあります)。
 信頼性を確認するには、質問を変えてみるとか、この生成AIを離れて検索エンジンなどで確認する必要があります。
 いずれにせよ「AIの回答だから正しい」と考えるのは正しくありません。


生成AIの問題点

シンギュラリティ

シンギュラリティ (singularity) とは、ITの急速な進化により、社会が根本的に変化すること。特に、ディープラーニングの急速な普及により、2045年にはAIが人間知能を超え、多くの分野で人間がAIに置き換わる(失業する)という「2045年問題」が深刻な問題となりました。
 その後の対話型生成AIの出現は、その現実性をさらに高めています(当然、反論もあります)。

反社会的情報の拡散

以前からWebサイトには「爆弾の作成方法」「児童ポルノ」など多くの反社会的情報が存在し社会問題になっていました。生成AIの普及は、ITの素人でも容易にこれらの情報を入手できるようになり、問題が深刻化しています。
 大きな話題になったのがフェイク動画です。例えば、大統領の姿や声を盗用して、事実と異なる発言をする動画が生成され、SNSで急速に拡散されるようになりました。しかも、素人には真偽が判別できない出来栄え(?)のものもあり、それが真実だと信じる人も出てきました。選挙や戦争では、政治的な世論誘導に使われ、強力な武器になってきました。

著作権問題

現在広く利用されている大規模な生成AIでは、元資料の大部分はWeb情報です。これらには作成者の著作権があります。検索エンジンでの対象になるのはさほど問題になりませんが、生成AIにより、勝手に利用されるのは著作権の侵害になる可能性があります。
 まして、歪曲した加工をされた場合は、原作者は大きな被害を被る危険性があります。
 生成AIによる生成物の著作や発明の権利は作成者に属すると断定してよいかについてもグレーゾーンがあります。

個人情報保護

「○〇氏の学生時代の交友関係」のような検索にマッチするWebページが存在する確率は小さいでしょうが、生成AIでは、膨大な資料を参照するので、いもづる的に探して回答することがでます。
 これ自体でも、個人情報保護に抵触しそうです。しかも、信頼性のない内容になる確率が大きいでしょう、まして、同一姓名の他人がいたら、事実とは全く異なる結果になりかねません。

教育での問題

教育現場では、宿題やレポートを、生成AIの結果をそのままコピーして提出する学生がいることが問題になっています。
 従来は、読書感想文や単純な課題レポートなどが主でしたが、現在の生成AIでは、数学の文章問題を問題の分析や解に至る過程まで回答するとか、プログラム作成問題にアルゴリズムとソースコードを生成するなどができるようになってきました。

「AIに関する暫定的な論点整理」2023年

総務省 AI戦略会議「AIに関する暫定的な論点整理」2023年では、次のリスクを掲げています。

著名な生成AIでは、このような指摘に関して、自主的に悪用禁止機能(ガードレール)などを装備して、リスクに対応しつつあります。
 しかし、あえて対応しない悪質なものが流布しており、ITの初心者でも簡単にフェイク動画やウイルスなどの作成などができる環境です。この環境を変えるためにも法的規制が求められています。


AI(生成AI)法的規制の動向

広島AIプロセス(2023年)

2023年に広島で開催されたG7サミットにおいて、生成AIに関する国際的なルールの検討を行うための「広島AIプロセス」の立ち上げが決定し、「包括的政策枠組み」と「前進させるための作業計画」が承認されました。

[全てのAI関係者向けの広島プロセス国際指針の12項目]

  1. 高度なAIシステムの市場投入前及び、高度なAIシステムの開発を通じて、AIライフサイクルにわたるリスクを特定、評価、低減するための適切な対策を実施する。
  2. 市場投入後に脆弱性、インシデント、悪用パターンを特定し、低減する。
  3. 十分な透明性の確保や説明責任の向上のため、高度なAIシステムの能力、限界、適切・不適切な利用領域を公表する。
  4. 産業界、政府、市民社会、学術界を含む関係組織間で、責任ある情報共有とインシデント報告に努める。
  5. リスクベースのアプローチに基づいたAIのガバナンスとリスク管理ポリシーを開発、実践、開示する。特に高度AIシステムの開発者向けの、プライバシーポリシーやリスクの低減手法を含む。
  6. AIのライフサイクル全体にわたり、物理的セキュリティ、サイバーセキュリティ及び内部脅威対策を含む強固なセキュリティ管理措置に投資し、実施する。
  7. AIが生成したコンテンツを利用者が識別できるように、電子透かしやその他の技術等、信頼性の高いコンテンツ認証および証明メカニズムを開発する。またその導入が奨励される。
  8. 社会、安全、セキュリティ上のリスクの低減のための研究を優先し、効果的な低減手法に優先的に投資する。
  9. 気候危機、健康・教育などの、世界最大の課題に対処するため、高度なAIシステムの開発を優先する。
  10. 国際的な技術標準の開発と採用を推進する
  11. 適切なデータ入力措置と個人情報及び知的財産の保護を実施する。
  12. 偽情報の拡散等のAI固有リスクに関するデジタルリテラシーの向上や脆弱性の検知への協力と情報共有等、高度なAIシステムの信頼でき責任ある利用を促進し、貢献する。

米国の大統領令EO(2023年)

バイデン政権は2023年に「The Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence」1(人工知能の安全・安心・信頼できる開発と利用に関する大統領令)を発令しました。略してEOといわれています。

このうち「AI技術の安全・安心の確保」では、次のような事項が求められています。

EUのAI法(2024年成立、2016年本格的適用)

EUでは以前から、人権や環境への関心や巨大IT企業の競争回避行動への批判が強かったのですが、AIについても以前から議論が行われてきました。このAI法はAI規制に関する世界最初の法律です。
 法律の適用は広範囲で域外企業の現地事業所やAIモデルなどの対象になります。違反や不遵守に対する制裁金が高いのも特徴です。例えば「許容できないリスク」では4千万ユーロまたは全世界売上高の7%の高い方とされいています。そのため、日本企業にとって、AI法への関心が高まっています。

対象をリスクベースでの4分類(許容できないリスク、ハイリスク、限定リスク、最小リスク)、ファンダメンタルモデル、イノベーション支援にわけています。

日本でのAI政策

日本でも以前からAIの活用推進、リスクへの規制などが大きな政策の一つとして取り上げられてきました。広島AIプロセスの策定でも日本は議長国としてリーダーシップをとってきました。総務省や経済産業省では民間の力も入れて、いくつかの利活用の原則やガイドラインを策定してきました。しかし、法制整備の面では後れをとっており、今後の努力が期待されている状況です。

ここでは、総務省と経済産業省が2024年に策定した 「AI事業者ガイドライン(第1.0版)」を取り上げます。
 AIがもたらす社会的リスクの低減を図るとともに、AIのイノベーション及び 活用を促進していくために、関係者による自主的な取組を促すことが目的ですが、細かな規制を設けたのでは、かえってイノベーションを阻害する懸念もあるので、非拘束的なガイドラインとしたものです。

ガイドラインの構成

「事業者」ガイドラインですが、ここではその対象者を「AIの事業活動を担う主体」として、次の3つに大別しています。機能による区分であり、同一事業者が複数の立場になることもあります。

A:基本理念
 ・人間の尊厳が尊重される社会(創造性の発揮や人間の尊厳の尊重など)
 ・多様な背景を持つ人々が多様な幸せを追求できる社会
 ・持続可能な社会(Sustainability)(格差解消、環境保全など)
C:共通の指針
 ・下表の右項目の説明。特に生成AIでは回答がブラックボックスになりやすい
  透明性とアカウンタビリティ(トレーサビリティ)の確保が重要になる。
E:AIガバナンスの構築
 ・AI利用はプラスの面でもマイナスの面でも影響が大きいのでガバナンスが重要
 ・変化が激しいのでPDCAサイクルによるマネジメントが重要

共通の指針と3主体に求められる事項の関係


人工知能(AI)へ