連邦政府機関は、「アソシエイト」という言葉の意味の根本的な変化に直面しています。 2026 年には、AI システム自体が同盟者となり、マシンの速度で機密性の高いタスクを実行します。この進展により、政府機関はインサイダーリスクについて再考する必要に迫られています。 1月初め、サイバー・インフラストラクチャ・セキュリティ庁は内部関係者の脅威に関する新たなガイダンスを発行し、重要なインフラに対策を講じるよう促した。政府機関自体にとって、脅威は現在、悪意のある人間の行為を超えて、誤って設定された AI、合成 ID、およびデータ抽出を黙って可能にする悪意のない動作にまで広がっています。ホワイトハウスが最近発表したサイバー戦略でも、重要なインフラストラクチャのセキュリティの中心的な必要性が強調されており、全体的なサイバーヘルスを保護するために必要な本質的な変化がさらに明確にされています。 「内なるもの」は人間を超えて広がる AI システムは現在、かつては権限のある担当者のみに割り当てられていた機密性の高いミッションクリティカルなタスクを実行していますが、従来の人間中心の制御をはるかに超える速度で動作する、不安定な形のリスクをもたらします。米国立標準技術研究所や管理予算局などの組織は、AI が誤って配置されたり起動されたりすると、ミリ秒単位で運用上の損害を引き起こす可能性があり、行動監視や AI ガバナンスを含む AI リスク管理が当面の優先事項になっていると特に警告しています。 これらの自律システムは、大幅な委任された権限で動作しますが、歴史的に人々に適用されてきたガバナンスがないため、巨大な規制空白が生じます。この変更は、悪意のある AI または侵害された AI が連邦政府の ID 用に設計された標準の ID ガバナンスとセキュリティ制御を回避できるリスクが増大していることを示しています。これらのフレームワークを大幅に更新しないと、デジタル担当者が人間の監督者が異常を検出する前に複雑な無許可のアクションを実行するため、政府機関は運用管理が完全に崩壊する危険があります。 連邦政府機関の信頼とアイデンティティが大規模に崩壊している […]