ご相談・お問い合わせ
6 分で読むことができます

【AI活用】AI活用の安全性を考える「AI事業者ガイドライン」とは?

執筆者 Sophy 更新日時 2025年12月23日

Topics: 生成AI

ごきげんよう、Sophyです。

今年も残りあとわずか、瞬きする間に一年が過ぎていきますね。やり残したことしかないのですが、この短期間で取り返せないでしょうか、、、。無理ですね笑 来年の自分が頑張ることに期待します!

さて、今回のブログでは総務省と経済産業省が発行した「AI事業者ガイドライン」を見ていきたいと思います。AIを活用する企業の一員として、安心安全な利用を心掛けたいですね!

なぜ、AI事業者ガイドラインが必要なのか?


このガイドラインは、AIの安全かつ安心な活用を促進するための統一的な指針を提示しています。2024年4月に「AI事業者ガイドライン(第1.0版)」が発行され、次いで同年11月に「第1.01版」、2025年3月に「第1.1版が発行されました。

生成AIの進化により、ビジネスの場面だけに留まらず日常生活においてもAIの活用が拡大しています。生成AIの活用により、ビジネスモデルの変革や生産性向上といったイノベーションの加速が期待される一方で、生成AIによる誤情報の生成・知的財産権の侵害・多様化するサイバー攻撃等の新たな社会的リスクが増加していることも明らかです。

このような社会の変化を背景に、本ガイドラインでは、AIの統一的な指針を示すことで、AIを活用する者がリスクを正しく認識するとともに、必要な対策を自ら実行できるよう後押しし、イノベーションの促進とリスクの緩和を両立させることを目指しています。

このガイドラインの対象者は、以下の3つと定義されています。

  • AI開発者:AIモデルそのものを開発する事業者
  • AI提供者:開発されたAIをアプリやサービスに組み込んで提供する事業者
  • AI利用者:ビジネスにおいてAIを活用する事業者および個人 

※いずれかに該当するという考え方ではありません。企業によっては、全て該当する場合もあります。

ガイドラインに記載されている10の指針


前提として、我が国においては、AIがSociety5.0の実現に貢献することが期待されています。Society5.0の実現に向けて、AIが社会に浸透し適正に利用されるため、2019年3月に「人間中心のAI社会原則」が策定されました。その中で、基本理念として以下3つを掲げています。

  • 人間の尊厳が尊重される社会(Dignity)
  • 多様な背景を持つ人々が多様な幸せを追求できる社会(Diversity and Inclusion)
  • 持続可能な社会(Sustainability)

この基本理念を踏まえ、本ガイドラインでは、AIシステム・サービスの開発・提供・利用において取り組むべき10の共通指針を提示していますので、ご紹介します。

(1) 人間中心

① 人間の尊厳および個人の自律
② AIによる意思決定・感情の操作等への留意
③ 偽情報等への対策
④ 多様性・包摂性の確保
⑤ 利用者支援
⑥ 持続可能性の確保

(2) 安全性

① 人間の生命・身体・財産、精神及び環境への配慮
② 適正利用
③ 適正学習

(3) 公平性

① AIモデルの各構成技術に含まれるバイアスへの配慮
② 人間の判断の介在

(4) プライバシー保護

① AIシステム・サービス全般におけるプライバシーの保護

(5) セキュリティ保護

① AIシステム・サービスに影響するセキュリティ対策
② 最新動向への留意

(6) 透明性

① 検証可能性の確保
② 関連するステークホルダーへの情報提供
③ 合理的かつ誠実な対応
④ 関連するステークホルダーへの説明可能性・解釈可能性の向上

(7) アカウンタビリティ

① トレーサビリティの向上
② 「共通の指針」の対応状況の説明
③ 責任者の明示
④ 関係者間の責任の分配
⑤ ステークホルダーへの具体的な対応
⑥ 文書化

(8) 教育・リテラシー

① AIリテラシーの確保
② 教育・リスキリング
③ ステークホルダーへのフォローアップ

(9) 公正競争確保

(10)イノベーション

① オープンイノベーション等の推進
② 相互接続性・相互運用性への留意
③ 適切な情報提供

参考:AI事業者ガイドライン(第1.1版)

この共通の指針に加えて、「AI開発者」「AI提供者」「AI利用者」のそれぞれに重要となる事項、「高度なAIシステムに関係する事業者」に共通する指針も提示しています。詳細を知りたい方は、AI事業者ガイドライン(第1.1版)をご参照ください。

アジャイル・ガバナンスの実践が鍵


AI事業者には、AIを活用することで生じるリスクの認識と管理体制の構築が求められています。

本ガイドラインでは、AIの安全かつ安心な活用およびそこから得る利益の最大化を目的として【AIガバナンス】の策定と定着が重要とされています。また、環境変化の速い現代においては、ルールや手続きが固定化されたガバナンスではなく、常に変化に対応できる【アジャイル・ガバナンス】の実践が求められています。

アジャイル・ガバナンスの流れ

  1. 環境・リスク分析
    AIがもたらす利益やリスク、社会的受容性、外部変化などを分析
  2. ゴール設定
    経営上のゴールと整合したガバナンス・ポリシーを策定
  3. システムデザイン
    ゴールを達成するためのマネジメントシステムを設計
  4. 運用
    設計されたシステムを運用しステークホルダーへの透明性・アカウンタビリティを果たす
  5. 評価
    運用状況を継続的にモニタリングし、有効性を評価・改善策の策定

変化に応じてサイクルを継続的に回し、ガバナンスを改善し続けることが重要となります。
参考:AI事業者ガイドライン(第1.1版)


最後に

業務での利用が浸透しつつあるAI、安全な活用のためにはリスクの認識と管理がとても重要であると改めて感じました。

ガバナンスを改善し続けるには、時間やお金がかかります。ですが、それを”単なるコスト”と捉えず企業の中長期的な成長と発展を志向した”先行投資”と捉えることができるといいですね。

INSIGHT LABではデジタル化やAI活用のご支援をしています。導入を検討されている企業様は、お気軽にご相談ください。

Sophy

執筆者 Sophy

経理事務職・営業職を経て、2022年7月1日からINSIGHT LABに入社。現在は、DX推進グループに所属し、デジタルの力で新潟の活性化を目指します!

 

こちらの記事もおすすめです

2 分で読むことができます。

プロ野球を支えるAIとは?WBCで活用された技術についてもご紹介

2 分で読むことができます。

Octoparse実用編【スクレイピングツール】