この記事のポイント
- この記事では、AI技術が責任を持って発展するためにAnthropicが導入した「責任あるスケーリングポリシー(RSP)」について説明しています。
- RSPは、AI技術の発展に伴うリスクを管理し、セキュリティを確保することを目的としています。
監修者プロフィール
坂本 将磨
Microsoft AIパートナー、LinkX Japan代表。東京工業大学大学院で技術経営修士取得、研究領域:自然言語処理、金融工学。NHK放送技術研究所でAI、ブロックチェーン研究に従事。学会発表、国際ジャーナル投稿、経営情報学会全国研究発表大会にて優秀賞受賞。シンガポールでのIT、Web3事業の創業と経営を経て、LinkX Japan株式会社を創業。
AI技術のスケーリングが進む中、その潜在的リスクの管理とセキュリティの確保が注目されています。
この重要な課題に取り組むため、Anthropicは「責任あるスケーリングポリシー(RSP)」を導入しました。
本記事では、このポリシーの概要と、Anthropicによるレッドライン能力への対応、他分野からの知見の融合、脅威のモデリング、ガバナンス体制の強化について解説します。
業界内外からの協力を得ながら、より安全で責任を持ったAI技術の発展を目指しているAnthropicの取り組みをご紹介します。
RSPの概要と目的
責任あるスケーリングポリシー(RSP)は、AI技術の発展に伴う潜在的なリスクを管理するために導入された一連の方針と実践です。
このポリシーは、技術の進歩が社会に与える影響を慎重に考慮し、安全性とセキュリティを確保することを目的としています。
RSPは、壊滅的な安全上の失敗とフロンティアモデルの誤用に対処するために、昨年の夏に初めて発表されました。
レッドライン能力への対応
RSPの中核となるのは、「レッドライン能力」という概念です。これは、現在の安全基準(ASL-2)では管理が不十分であり、悪用された場合に大きな被害をもたらす可能性のある技術的な能力を指します。
Anthropicは、このようなレッドライン能力を特定し、その存在を実証的に確認するための評価方法を開発しています。
また、レッドライン能力に対応するため、ASL-3標準の開発と実装に取り組んでいます。
他分野からの知見の取り込みと脅威のモデル化・評価
Anthropicは、核セキュリティ、バイオセキュリティ、システム安全、自律走行車、航空宇宙、サイバーセキュリティなどの分野から実践を取り入れる方法を模索しています。
これらの分野から得られる知見を活用し、AIの安全性を高めることを目指しています。
また、フロンティア・レッド・チームとアライメント・サイエンス・チームは、脅威のモデリングとドメインの専門家との連携に重点を置いています。
ガバナンス、調整、保証構造の強化
Anthropicは、ガバナンス、調整、保証構造の可能性を探るために専門のチームを設置しています。
これには、独立したチェックの導入、リスクマネージャーの雇用、従業員への定期的な報告などが含まれます。
RSPの導入と実践には、組織全体の多大な関与と投資が必要とされるため、Anthropicは業界内での議論を深め、ベストプラクティスの共有と政府との協力を目指しています。
出典:Anthropic