国・地域、セクター、先端技術

AIについて組織が遵守すべき行動規範

2023年10月30日、広島AIプロセス(Hiroshima AI process)の下で、人工知能(AI)に関する国際指導原則と、AI開発者の自主的な行動規範に、G7首脳陣が合意しました。

概要・背景

■ 採択された11の指導原則は、基盤モデルやジェネレーティブAIなどの高度なAIシステムを開発、展開、使用する組織に対して、技術の安全性と信頼性を促進するための指針を提供するもの。

■ リスクや悪用の軽減、脆弱性の特定、責任ある情報共有の奨励、インシデントの報告、サイバーセキュリティへの投資、ユーザーがAIが生成したコンテンツを識別できるようにするためのラベリングシステムなどが含まれている。

■ 指導原則は、AIを開発する組織に対して詳細かつ実務的な指針を提供する行動規範を作成するための基礎となっている。

■ 自主的な行動規範は、AIの責任あるガバナンスを世界的に促進するものでもある。

■ G7首脳は、先進的なAIシステムを開発する組織に対し、国際行動規範の適用を約束するよう呼びかけた。

注目すべき内容

指導原則項目一覧

文書では、それぞれの項目について、関連する説明が続いています。

1. AIのライフサイクル全般にわたるリスクを特定し、評価し、軽減するために、高度なAIシステムの開発全体を通じて、その導入前および市場投入前も含め、適切な措置を講じること。

2. 市場投入を含む展開後の悪用のパターン。

3. 十分な透明性の確保を支援し、アカウンタビリティの向上に資するため、先進的AIシステムの能力、限界、および適切な使用と不適切な使用の領域を一般に報告すること。

4. 産業界、政府、市民社会、学界を含む、先進的AIシステムを開発する組織間での責任ある情報共有とインシデントの報告に向けた取り組み。

5. 特に先進的なAIシステムを開発する組織に対して、リスクベースのアプローチに基づく、プライバシーポリシーや緩和策を含む、AIのガバナンスとリスク管理ポリシーを策定、実施、開示すること。

6. AIのライフサイクル全体にわたって、物理的セキュリティ、サイバーセキュリティ、内部脅威のセーフガードを含む強固なセキュリティ管理に投資し、実施すること。

7. 技術的に可能な場合、ユーザーがAIが生成したコンテンツを識別できるようにするための電子透かしやその他の技術など、信頼性の高いコンテンツ認証と出所のメカニズムを開発し、導入すること。

8. 社会的、安全、セキュリティリスクを軽減するための研究を優先し、効果的な軽減策への投資を優先すること。

9. 気候危機、グローバルヘルス、教育など、世界最大の課題に対処するための先進的AIシステムの開発を優先すること。

10. 国際的な技術標準の策定と、適切な場合にはその採用を推進すること。

11. 適切なデータインプット対策と、個人データおよび知的財産の保護を実施すること。

行動規範

■ 行動規範では、指導原則項目のそれぞれについて、組織が遵守すべき行動規範を説明しています。

参考情報

■ 指導原則
■ 行動規範

※特別無料記事

注目情報一覧

新着商品情報一覧

Page Top
「目次」 「目次」