AIリスクに企業が講じるべき対策とは|生成系AIの利用・開発上のリスクを解説

生成系AIは業務効率化に大きな可能性をもたらす一方、さまざまな懸念点も存在します。生成系AIを企業に導入する場合は、事前のリスク対策が重要です。 今回は、生成系AIの導入・開発における具体的なリスクと、その対策について解説します。


この記事は約9分で読み終わります。

AIがもたらす7大リスク

AIがもたらすリスクを理解するには、米国国立標準技術研究所(NIST)が作成した「AIリスクマネジメントフレームワーク(AI RMF 1.0)」が参考になります。これは、AIシステムの設計や開発、利用におけるリスクがまとめられた資料です。

「AIリスクマネジメントフレームワーク」によると、AIがもたらす代表的な7つのリスクと信頼できるAIシステムの特徴は下記の通りです。

妥当性と信頼性 AIシステムが目的に対して適切かつ正確であること。システムの出力やパフォーマンスが継続して信頼できるものであること。
安全 AIシステムが動作する際に、人や環境に対して潜在的な危険がないこと。特に自律的に判断するAIでは、安全な動作が確保されていることが必要。
セキュリティとレジリエンス AIシステムがサイバー攻撃やデータの不正アクセスから保護されていること。また、攻撃や障害の発生時に回復力(レジリエンス)が備わっていること。
アカウンタビリティと透明性 AIの開発・運用において責任の所在が明確であり、システムの意思決定や操作が第三者に対して透明であること。
説明可能性と解釈可能性 AIシステムの出力や意思決定プロセスについて、利用者や第三者が理解できる(納得できる)ようにすること。
プライバシー強化 AIが扱うデータにおいて個人のプライバシーが保護されること。データの収集、利用、共有の過程で、個人情報が適切に管理され、プライバシーの侵害が防げる状態になっていること。
公平性 不公平なバイアスを排除し、すべての利用者に対して公平な対応がなされること。AIの意思決定や出力が、特定の人やグループに偏ることなく、公正で平等に扱われること。

参考:AISI「Artificial Intelligence Risk Management Framework(AI RMF 1.0)(日本語訳版)

企業が生成系AIを利用・開発するリスク

ビジネスの現場では、AIの中でもChatGPTに代表される「生成系AI」がよく活用されています。次に、生成系AIの特徴を踏まえつつ、それにともなう具体的なリスクを整理して解説します。

関連記事:「生成系AIのデメリットや問題点を解説!ビジネスで活用するには?

【利用リスク】著作権侵害

生成系AIは膨大なデータを学習元としており、その中には著作物も含まれています。そのため、画像(企業ロゴなど)や動画(PR動画など)を生成した場合に著作権を侵害するリスクがあります。

生成系AIは生成過程が不透明であるため、著作物を意図的に除外することは困難です。しかし、対策を怠ると企業が法的トラブルに巻き込まれる可能性があるため、商用利用する場合は十分な注意が必要です。

生成系AIを含むAIの著作権侵害については、下記の記事で詳しく解説しています。
AIが著作権を侵害するケースとは?ビジネス利用で知っておきたい注意点

【利用リスク】情報漏洩

生成系AIのユーザーがプロンプトに機密情報を書き込んだ場合、その情報はAIの学習に利用され、ツールの提供元に保存される仕組みです。そのため、生成系AIを利用する第三者に情報が漏洩したり、ツールの提供元に悪用されたりするリスクが想定されます。

代表的な生成系AIであるChatGPTの情報漏洩リスクについては、下記の記事で詳しく解説しています。
ChatGPTには情報漏洩のリスクがある?事例や対策を解説

【利用リスク】ハルシネーション

ハルシネーションとは、生成系AIが誤った情報を生成してしまう現象を指します。AIは与えられた質問や指示に基づき、最も関連性が高いと思われる答えを提供しますが、そのプロセスで事実確認をせず、存在しないデータや根拠のない情報を生成することがあります。例えば、架空の人名や本来存在しない引用、間違った数値やデータを生成してしまうケースです。

この問題は、AIが学習したデータセットの偏りや限界、あるいはアルゴリズムの特性に起因します。

【利用リスク】社会構造や個人への影響

生成系AIが多くの業務を自動化できるようになると、これまで人が行ってきた仕事がAIに置き換えられる可能性があります。すでに、AIチャットボットによってカスタマーサポートを自動化したり、SNS投稿をAIに任せたりしている企業も存在します。

特定のスキルや職種に依存している人々が職を失った場合、雇用機会の格差が拡大しかねません。業務の自動化は大きなメリットですが、社会構造や個人のキャリアに影響を与える可能性も考慮する必要があります。

【利用・開発リスク】サイバー犯罪

AIを狙ったサイバー攻撃には、学習データを改ざんしてAIの判断を誤らせる「ポイズニング攻撃」、AIを誤作動させるように細工したデータを入力する「回避攻撃」などがあります。このようなサイバー攻撃は、AIの誤判断によるトラブルや、情報漏洩、システムの信頼性低下などあらゆるリスクの原因となります。

関連記事:「AIのセキュリティリスクとは?AIによるサイバー攻撃についても解説

【開発リスク】製造物責任

生成系AIを使った製品やサービスが増える中で、「製造物責任」が注目されています。製造物責任とは、製品の欠陥によってケガや損害が発生したときに、製造者や販売者が責任を負うルールです。生成系AIの利用で事故が起きた場合、AI自体に問題があったときでも、その製品の責任が問われることがあります。

例えば、生成系AIの設計に問題があって正しく動かない場合や、使い方が難しいのに十分な説明や警告がない場合、製造物責任の対象になる可能性があります。また、AIはまれに予測できない動きをすることがあり、これが原因で事故が起きても責任を追及されることがあります。

【開発リスク】大衆扇動

生成系AIはテキストや画像、音楽など多様な形式で、まるで人間が作ったかのようなコンテンツを生成できます。精巧なフェイクニュースや誤解を招く情報が生成されると、多くの人々がその情報を信じて扇動される可能性があり、社会が混乱に陥りかねません。企業がそうしたコンテンツを発信すれば、信用を失うことになります。

企業ができるAIリスクへの対策

ここでは、生成系AIを利用する側、または開発・提供する側で取り組むべき具体的な対策について紹介します。

生成系AIの利用者側ができる対策

生成系AIの利用に際して、リスクを低減するために利用者が取るべき対策をいくつか紹介します。

全般的なリスク対策

生成系AIの利用における全般的なリスク対策として、従業員向けの利用マニュアルの作成と従業員教育が有効です。

社内でAIをどのような目的で利用するか、どのような業務に使用可能かを明確にすることで、誤用や目的外での使用を防げます。また、入力するデータの種類や取り扱い方(著作権のあるデータを避けるなど)を定め、法的リスクを低減することが重要です。

利用マニュアルの内容に応じて、社内に浸透させるための従業員教育も実施しましょう。企業全体での認識統一にもつながります。

著作権侵害の対策

生成系AIに他人の著作物を入力(アップロードなど)するとデータとして学習するため、権利侵害のリスクが発生します。利用者は著作物の入力を避け、権利侵害のリスクを低減しましょう。

そのほか、生成されたコンテンツを確認し、人間が著作物を模倣していないかをチェックすることも有効です。商用利用したい場合には、「商用利用可」「再利用可」と利用規約に記載されているツールを選びましょう。

情報漏洩の対策

情報漏洩のリスクを抑えるため、生成系AIの利用者はオプトアウト機能を活用することが推奨されます。オプトアウト機能とは、ユーザーが自分のデータがAIの学習に使用されないようにする設定で、機密情報の漏洩を防ぐ手段となります。

ハルシネーションの対策

存在しない情報をまるで事実のように出力する「ハルシネーション」の対策として、 生成AIの出力内容を人間が検証することが不可欠です。信頼性のある出典などを探し、事実に基づいた内容であるかを確認する仕組みを構築しましょう。

また、AIが指示内容を適切に理解できるよう、プロンプトを見直すことも重要です。生成系AIを代表するChatGPTのプロンプトを作るコツについては、下記の記事をご覧ください。
ChatGPTのプロンプトとは?作成のコツについて紹介!

生成系AIの開発者側ができる対策

生成系AIを開発・提供する企業は、利用者が安心して使えるよう、さまざまな対策を講じる必要があります。

全般的なリスク対策

生成系AIの開発・利用に関する法規制の最新動向を常に収集し続けることが大切です。コンプライアンスを維持し、リスクを回避するためには、時勢に合わせた適切な知識を身に付ける必要があります。

大衆扇動のリスク対策

生成系AIの出力内容が誤情報や差別、権利侵害に関わるものでないよう、学習に用いるデータを精査することが必要です。また、生成系AIの利用上の注意事項を明記することで、利用者に適切な使用を促します。

情報漏洩の対策

情報漏洩は、ツールの開発者側でも対策可能です。具体的には、学習対象から個人情報・機密情報を除外し、ユーザーが入力したプロンプトや回答をチェック・修正する仕組みを導入すると良いでしょう。

なお、法人向け生成系AIの総合プラットフォーム「エアトリスマートAI(エアスマAI)」ではマスキング設定機能を搭載しています。機密情報や個人情報を保護しながらAIを活用できる仕組みで、利用者が安全に利用できるよう対策を講じております。

>>エアスマAIのサービス詳細はこちら

【補足】政府のガイドラインを定期的に確認する

総務省と経済産業省が2024年4月に発行した「AI事業者ガイドライン(第1.0版)」には、生成系AIの利用者、開発者、提供者それぞれにとって重要な事項が整理されています。企業の担当者はこのガイドラインを参考に、適切なリスク管理に注力しましょう。

総務省・経済産業省「AI事業者ガイドライン(第1.0版)

まとめ

生成系AIの導入・開発にはさまざまなリスクがともないますが、適切な対策とリスク管理により、企業はその利便性を最大限に活用できます。また、その一環として、信頼できるAIツールを選ぶことも重要です。

生成系AIをこれから活用したいと考えている企業様は、法人向け生成系AIの総合プラットフォーム「エアトリスマートAI(エアスマAI)」をご検討ください。

企業内部で利用する際にも、社内情報が外部に流出するリスクを抑え、安心して業務効率化に役立てられます。

>>エアスマAIのサービス詳細はこちら

※この記事は、2024年11月時点の情報に基づいて作成しています。