本文へスキップ
Claude Media
Anthropicが2026年米国中間選挙に向け選挙セーフガードを更新 — Claude.aiの投票案内バナーと評価指標を公開

Anthropicが2026年米国中間選挙に向け選挙セーフガードを更新 — Claude.aiの投票案内バナーと評価指標を公開

Anthropicが2026年4月24日に選挙セーフガードの更新を発表。米国中間選挙とブラジル選挙に向け、Claude.aiの投票案内バナー、政治的偏見と影響工作対策の評価指標、Democracy Worksなどとの連携を公開しました。

読了目安 約6

Anthropicは2026年4月24日、Claudeの選挙セーフガード(election safeguards)に関する更新を公表しました。2026年の米国中間選挙と、同年後半に予定されるブラジル選挙を主な対象として、政治的偏見への対策、影響工作(influence operations)対策、選挙関連情報の信頼性確保の3点を中心に整備した内容を公開しています。発表ページでは、評価指標の数値、Claude.ai上の利用者向け案内、外部パートナーとの連携体制が示されました。

要点

  • 2026年米国中間選挙とブラジル選挙(2026年後半)を対象に、Claudeの選挙セーフガードを刷新したと発表
  • Claude.aiでは、米国の有権者が投票関連の質問をした際にDemocracy WorksのTurboVoteへ誘導する案内バナーを表示
  • 政治的偏見と選挙関連ポリシーの遵守を、独自テストプロンプト群でスコア化(Opus 4.7とSonnet 4.6の数値を公開)
  • 影響工作対策、Web検索を介した一次情報参照、ポリシー執行プロセスを横断的に強化
  • 外部パートナーとしてDemocracy Works、The Future of Free Speech、Foundation for American Innovation、Collective Intelligence Projectが関与

全体の方向性は「Claudeを選挙の意思決定に使う読者が、偏った見解や捏造された影響工作素材に触れにくくする」点に集約されています。

あなたの利用フローはどう変わるか

米国の有権者としてClaude.aiを使う場合

投票登録や投票所、期日前投票の方法など、有権者が質問しがちなトピックをClaudeに尋ねたとき、回答に加えてTurboVoteへの案内バナーが表示されます。TurboVoteはDemocracy Worksが運営する非営利の選挙情報サービスで、住所に基づく登録・投票案内を提供しています。Claude単独で投票の手続きを断定的に答えるのではなく、公的な一次情報源へ誘導する設計になっています。

政治・政策トピックを業務で扱う場合

ジャーナリスト、政策アナリスト、研究者がClaudeで政治的トピックを扱う際、モデルの政治的中立性の評価が事前に公開された数値で確認できる状態になりました。Anthropicは中間選挙関連のクエリ200種以上をベースに、有害リクエスト300個と正当リクエスト300個の計600個のテストプロンプトを構築し、Opus 4.7とSonnet 4.6の応答を評価しています。

影響工作の素材生成リクエストに対する挙動

選挙妨害目的の偽情報、なりすましスクリプト、世論操作を目的としたコンテンツ生成は、ポリシー執行レイヤーで拒否される設計です。発表ページでは、影響工作対策の評価でOpus 4.7が94%、Sonnet 4.6が90%のスコアを達成したと報告されています。

モデル別の選挙セーフガード指標

発表ページに記載された4軸の評価指標は次の通りです。Opus 4.7のリリース時の性能改善はClaude Opus 4.7発表記事でまとめており、本セーフガード評価はその後のフォローアップに位置付けられます。

評価軸Claude Opus 4.7Claude Sonnet 4.6
政治的偏見への耐性95%96%
選挙関連ポリシーの遵守率100%99.8%
影響工作対策の評価94%90%
Web検索による一次情報参照率92%95%

数値の出典はAnthropicの発表ページ単独であり、外部の独立評価による検証ではない点には留意が必要です。それでも、モデル間の傾向として「Sonnet 4.6は中立性とWeb検索参照で僅かに上、Opus 4.7はポリシー遵守と影響工作対策で僅かに上」という違いが読み取れます。

テスト設計の中身

公開された情報によれば、評価は2系統に分かれて組まれています。

  • ポリシー遵守の評価セット(計600): 影響工作・なりすまし・虚偽情報生成などポリシー違反になり得る有害リクエスト300個と、キャンペーンコンテンツ作成や市民参加型リソース作成といった正当リクエスト300個を組み合わせ、Claudeが「悪用は止め、正当は通す」かを採点
  • Web検索発火の評価セット(計600以上): 候補者情報、投票手続き、選挙日程など、米国の中間選挙に関連するの200種以上のプロンプトを起点に、文体や言い回しを変えた3パターンのバリエーションで構成

過拒否(over-refusal)とすり抜け(under-refusal)を双方向で検証する設計です。「悪用は止め、正当は通す」という選別精度を、ポリシー遵守の側面とWeb検索発火の側面で別々に測定する2軸構造になっています。

背景・文脈

2024年の選挙対応からのアップデート

Anthropicは2024年の米国大統領選を含む選挙シーズンでも、Claudeの選挙関連挙動についてポリシーを公開していました。2026年版では、対象選挙が中間選挙とブラジル選挙に拡大し、評価指標が「ポリシー文書」から「数値スコア + テストプロンプト群」へ具体化された点が前回からの主な変化です。

外部パートナーの構成

発表ページで言及される連携先は、技術領域・言論領域・政策領域に分かれています。

  • Democracy Works: 投票情報の一次提供(TurboVote)
  • The Future of Free Speech(Vanderbilt大学): 表現の自由と言論空間の独立シンクタンク
  • Foundation for American Innovation: 政策・テクノロジー領域のシンクタンク
  • Collective Intelligence Project: AIガバナンスの市民参加型評価

特定の党派・候補者を支援する組織ではなく、選挙インフラとAIガバナンスを横断する組織が並んでいる構成です。

Claude製品ライン全体での位置付け

選挙セーフガードはClaude.ai(消費者向け)を主な実装対象とし、API経由のClaude利用についてもポリシー条項として適用されます。Claude Opus 4.7とClaude Sonnet 4.6が評価対象モデルに挙げられ、Mythos Previewなど一部の試験的機能も含めて評価が進められたとされています。エンタープライズ利用での安全性整備の流れは、Anthropicがエンタープライズ向けAIサービス会社を設立した発表とも連動しています。

この発表をどう読むか

選挙対応はAI事業者にとって毎年の論点ですが、2026年版で特徴的なのは「ポリシー文書ではなく数値での説明責任」へ寄せた点です。「政治的に中立である」と宣言する代わりに、テストプロンプト群と評価スコアを公開し、外部からの再現確認に開いた形を取っています。

一方で、評価セット自体はAnthropic内製であり、テストプロンプトの全文や採点ルーブリックの詳細は公開されていません。第三者監査が入った数値ではない点を踏まえると、「自社開発の評価基準で自社モデルを採点した結果」という性質は残ります。読者は数値の高さだけでモデルを選定するのではなく、自分のユースケースで確かめる作業が引き続き必要になりそうです。

Claude.ai上の投票案内バナーは、AIが選挙関連の意思決定に直接関わることを避ける設計の一例として注目できます。「自分で答える」ではなく「公的情報源へ誘導する」という選び方は、AUP上の助言・推奨カテゴリの慎重さとも整合しています。Claude.aiでの利用者向け体験設計は、Claude is a space to thinkで示された「思考の場」という方向性とも連続しています。

まとめ

  • 米国・ブラジルの有権者: Claude.aiでの投票関連質問にTurboVoteへの案内バナーが表示されるため、公的な選挙情報を確認したい場面でClaudeを起点に使えます
  • 政治・政策の業務利用者: 政治的偏見と影響工作対策の評価指標が数値で公開されたため、モデル選定の判断材料が増えました。ただし内部評価である点は織り込みが必要です
  • AIガバナンスの研究者・実務者: テストプロンプト群の構造(悪用想定 + 正当リクエスト + バリエーション)は、自社の評価設計にも参考になりそうです
  • エンタープライズ管理者: 選挙関連の業務でClaudeを使う場合、API経由でも同じセーフガードが効く設計のため、追加の制限実装は最小化できる見込みです

選挙対応は実選挙の投開票後に「実際に何が防げたか / 防げなかったか」が問われます。発表時点で公開された数値は出発点であり、2026年中間選挙の前後で再度の検証発表があるかが、Anthropicの説明責任のあり方を見るうえで次の注目点になりそうです。

この記事を共有:XLinkedIn