docomo business Watch

DXの課題を解決するヒントをお届け

docomo business Watchはドコモビジネスが運営しています。

AIの「禁止事項」とは何か?
AI事業者ガイドラインを読む

AIの「禁止事項」とは何か?AI事業者ガイドラインを読む

2024年4月、経産省と総務省は、生成AIの利用規範を明示した「AI事業者ガイドライン」を発表しました。AIはどんなことが禁止事項なのでしょうか?同ガイドラインから読み解きます。

目次

生成AIが詐欺に利用されている

簡単な命令を入力するだけで、その命令に沿った文章や画像などを自動で生成する「生成AI」(Generative AI)を、日々の業務に使用しているビジネスパーソンも多いでしょう。文章や画像だけでなく、簡単なプログラムコードも生成できるため、その活用範囲は非常に幅広いものがあります。

このように生成AIを活用するシーンが増えるということは、一方でAIが犯罪などに悪用される機会も増えることにつながります。

たとえば2023年には、サイバー犯罪向けの生成AIツール「WormGPT」が誕生しました。WormGPTは、マルウェア関連のデータを学習した生成AIで、たとえばビジネスメール詐欺に使用される、ユーザーを騙すような偽情報のメール本文を自動で生成します。

WormGPTはすでに2024年1月に終了していますが、今後も似たような生成AIが生まれ、犯罪に悪用される可能性は十分に考えられます。生成AIが社会にもたらすリスクは、どうすれば抑えられるのでしょうか?

そのヒントとなるのが、経済産業省と総務省が2024年4月19日に公開した「AI事業者ガイドライン(第1.0版)」という資料です。この資料では、AIに関わる事業者が守るべき事項が記されており、AIを活用する際のリスクや、そのリスクに対してどのように対処すべきか、その行動規範が示されています。

生成AIが詐欺に利用されている

AIがやってはいけないこと
「偽情報を作る」

このAI事業者ガイドラインの中では、AIを扱う企業が「やってはいけないこと」「留意すべきこと」が明記されています。

たとえばWormGPTのように、AIによって「偽情報」を作り出すことも、やってはいけないことのひとつです。生成AIによって、誰でも真実・公平であるかのように装った情報が生成できるようになったため、それら偽情報や誤情報が社会を不安定化・混乱させるリスクは常に潜んでいます。

ガイドラインの別紙では、生成AIによって生み出された偽情報が、実際の社会にて悪影響を及ぼした例が紹介されています。たとえばアメリカでは、弁護士が審理中の民事訴訟にて、資料の作成にChatGPTを利用した結果、実際には存在しない判例を引用してしまったことがあったといいます。

ディープフェイク(AIによって生成された偽画像・偽動画)も、偽情報のひとつです。アメリカでは2023年5月に「国防総省付近で爆発が起きた」とされる偽画像がSNSで拡散される事例があり、その結果、ニューヨーク株式市場のダウ平均株価が一時100ドル以上下落したといいます。

AIが人間の意思決定や感情を
不当に操作してはいけない

ガイドラインではさらに、「AIによる意思決定・感情の操作」についても、留意して行うべきとしています。

具体的には、人間の意思決定や認知、感情を不当に操作することを目的としたAIシステム・サービスの開発・提供・利用は行わないこと、自動化バイアス(※1)やフィルターバブル(※2)など、情報や価値観の傾斜を助長し、人間が本来得られるべき選択肢が不本意に制限されるようなAIの活用法には注意を払うことを呼びかけています。特に、選挙やコミュニティにおける意思決定など、社会に重大な影響を与える手続きに関しては、AIを慎重に取り扱うべきとしています。

※1 自動化バイアス…人間の判断や意思決定において、自動化されたシステムや技術への過度の信頼や依存が生じる現象
※2 フィルターバブル…ユーザーの検索履歴やクリック履歴をAIが分析・学習し、はじめからユーザーの観点に合わない情報を隔離する情報環境のこと

このほか、ステークホルダーの生命・身体・財産に危害を及ぼすことがないような「安全性」、偏見および差別をなくすよう努める「公平性」、不正操作が行われないような「セキュリティの確保」、可能な範囲内で情報を公開する「透明性」なども、AIを扱う事業者には求められるとしています。

「AIはリスクがあるから使わない」もまた
リスクである

このようにAIにはさまざまなリスクが存在しますが、AI事業者ガイドラインはその一方で、リスクを恐れるあまり、リスクがゼロになるまでAIを活用しないような、過剰な守りの姿勢もまたリスクの一種であるともしています。

こうした姿勢は、AI活用によって得られる便益が阻害されるうえ、リスク対策に多くのコストを割くことで、金銭的な負担が大きくなる恐れがあるといいます。

AIのリスク対策としては、本ガイドラインで記されているようなリスクの大きさをあらかじめ把握したうえで、リスクの大きさに合わせて対策を講じる「リスクベースアプローチ」が重要である、としています。この「リスクベースアプローチ」の考え方は、AI先進国でも広く共有されているといいます。

AIに関わらず、新しいテクノロジーには、相応のリスクが潜んでいます。しかし、そのリスクを事前に把握し、対応策をあらかじめ準備しておけば解決は可能です。「AIは便利かもしれないが、不安」と使用を控えている企業は、まずはこのAI事業者ガイドラインを一読し、そのリスクを理解することから始めてみてはいかがでしょうか。

ドコモビジネスがお届けする
メールマガジン(無料)のご案内

  • コラム

    最新のサービス情報や
    ソリューションのご紹介

  • サービス導入事例

    他社の課題解決事例や
    ベストプラクティス

  • セミナー・イベント

    旬なテーマが詳しくわかる
    企画をご案内

\ご登録は1分で完了/

ドコモビジネスでは、法人向けインターネットやスマホをはじめ、
中堅・中小企業のお客さまに役立つサービスを多数ご用意しています

検索