AI Weekly 2025-06-12
Anthropic、防衛・情報機関向け AI モデル「Claude Gov」を発表
日付:2025 年 6 月 6 日
Anthropic が米国国家安全保障顧客向けに特化した AI モデル「Claude Gov」を発表。最高レベルの国家安全保障機関で既に導入済み、機密環境で運用する組織のみがアクセス可能。
Claude Gov モデルは政府顧客からの直接的なフィードバックに基づいて構築され、実際の運用ニーズに対応。機密資料の処理能力向上、情報・防衛分野での文書理解強化、国家安全保障業務に重要な言語・方言への対応強化、サイバーセキュリティデータの解析・解釈能力向上を実現。
戦略計画、運用支援、情報分析、脅威評価など幅広い用途での活用を想定。Anthropic の安全性と責任ある AI 開発への取り組みを維持しながら、機密環境の特殊要件に対応した専用モデルとして提供。
EchoLeak:Microsoft 365 Copilot のゼロクリック攻撃脆弱性が発見
日付:2025 年 6 月 11 日
Aim Labs が Microsoft 365 Copilot に対する重大なゼロクリック攻撃脆弱性「EchoLeak」を発見し、Microsoft の MSRC チームに報告。ユーザーの操作なしに機密情報を自動的に窃取可能な、主要な AI アプリケーションで発見された初のゼロクリック脆弱性として注目。
この攻撃は「LLM Scope Violation」と呼ばれる新しい攻撃技術を使用し、RAG ベースのチャットボットや AI エージェントに共通する設計上の欠陥を悪用。攻撃者は制限なく単純にメールを送信するだけで、M365 Copilot のコンテキストから Microsoft Graph 経由でアクセス可能な全ての機密情報を自動的に抽出できる。
Container Use:コーディングエージェント向けコンテナ環境ツール
日付:2025 年 6 月 9 日
Docker 創業者で Dagger 社創業者兼 CTO の Solomon Hykes 氏が、コーディングエージェント向けのオープンソースツール「Container Use」を公開。すべてのコーディングエージェントに対して独立した開発用コンテナ環境を提供し、分離された安全な作業環境を実現。
Container Use は MCP サーバとして実装され、MCP に対応したすべてのコーディングエージェントから利用可能。ブランチごとに新しいコンテナ環境が用意されるため、マルチエージェント環境でも相互に影響せずに処理を実行できる。
主要機能として、開発者環境との完全分離、リアルタイムなコマンドヒストリとログの可視化、人間による直接介入機能、git checkout によるコーディング参照機能を提供。Claude Code、Cursor、VS Code/GitHub Copilot、Kilo Code、goose などでの設定例がドキュメント化されている。
出展:すべてのコーディングエージェントに独立した開発用コンテナ環境を与えられる「Container Use」、Docker 創業者がオープンソースで公開
Remote GitHub MCP Server がパブリックプレビューで利用可能
日付:2025 年 6 月 12 日
GitHub が Remote GitHub MCP Server をパブリックプレビューとして公開。GitHub Copilot、Claude Desktop、その他の AI ツールが Model Context Protocol(MCP)を通じて GitHub のライブコンテキストとツールにシームレスにアクセス可能に。
Remote GitHub MCP Server は摩擦のないセットアップを提供し、ローカルインストールやランタイムが不要。VS Code でワンクリックインストールまたはリモートサーバー URL を MCP 対応ホストに貼り付けるだけで利用開始できる。OAuth 2.0 による安全な認証をサポートし、Personal Access Token(PAT)もフォールバックとして利用可能。
{ "servers": { "github-remote": { "type": "http", "url": "https://api.githubcopilot.com/mcp/" } }}
Issues、Pull Request、コードファイルなどの GitHub データにリアルタイムでアクセスし、よりスマートで動的なエージェントワークフローを実現。自動更新機能により、ローカル OSS 版と同じコードベースで最新の改善を自動的に取得。現在 VS Code と Visual Studio で利用可能で、JetBrains、Xcode、Eclipse でのリモートサーバーサポートも近日提供予定。
OpenAI、推論モデル o3-pro をリリース
日付:2025 年 6 月 10 日
OpenAI が最も高性能な推論モデル「o3-pro」をリリース。従来の o1-pro に代わって ChatGPT Pro と Team ユーザー向けに提供開始、Enterprise・Edu ユーザーは翌週から利用可能。開発者 API 経由でも同日午後から利用開始。
o3-pro は既存の o3 モデルの強化版で、物理学、数学、コーディング分野で段階的な問題解決を行う推論モデル。また Web 検索、ファイル解析、視覚入力推論、Python 実行、メモリ活用によるパーソナライゼーションなど豊富なツールアクセスが可能。
ただし制限として、o1-pro より応答時間が長く、一時的に ChatGPT での一時チャット機能が無効、画像生成と Canvas 機能は未対応。API 価格は入力トークン 100 万あたり 20 ドル、出力トークン 100 万あたり 80 ドル。
Visual Studio Code 1.101 の AI 機能強化
日付:2025 年 6 月 12 日
Visual Studio Code 1.101 で AI 関連機能が大幅に強化。Model Context Protocol(MCP)サポートの拡張により、プロンプト、リソース、サンプリング機能を追加し、エージェントコーディングフローを拡張。
チャットツールセット機能でエージェントモードを効率化
関連ツールをグループ化して管理できるツールセット機能を導入。UI または API でツールセットを定義し、#toolsetname
でメンション参照が可能。エージェントモードでのツール有効化/無効化も簡単に実行でき、GitHub 通知管理などの特定タスクに最適化されたツール群を効率的に利用。
{ "gh-news": { "tools": [ "list_notifications", "dismiss_notification", "get_notification_details" ], "description": "Manage GH notification", "icon": "github-project" }}
MCP プロンプトサポートで再利用可能なタスクを実現
MCP サーバーが定義した再利用可能なスニペットやタスクを/mcp.servername.promptname
形式でチャットから利用可能。プレーンテキストやコマンド出力をプロンプト変数に含めることができ、サーバーが提供する場合は補完機能もサポート。
MCP リソース機能でコンテキスト管理を強化
MCP ツール呼び出しから返されるリソースをモデルが利用でき、チャットでの保存や Explorer ビューへのドラッグ&ドロップが可能。「Add Context…」ボタンから MCP リソースをコンテキストとして添付でき、「MCP: Browse Resources」コマンドでサーバー間のリソース閲覧も実現。
実験的サンプリング機能で MCP サーバーとモデルの双方向通信
MCP サーバーがモデルにリクエストを送信可能な実験的機能を追加。初回確認後、「MCP: List Servers」でアクセス可能なモデル設定とリクエストログを管理でき、将来的な拡張と改善を予定。
MCP 認証機能で安全なサーバーアクセスを実現
MCP 認証仕様に対応し、GitHub や Entra を活用した MCP サーバーのアカウント管理を提供。動的クライアント登録、コード認証フローとデバイスコードフローをサポートし、「Authentication: Remove Dynamic Authentication Providers」コマンドで認証プロバイダーの管理も可能。
MCP 開発モードでサーバーデバッグを効率化
MCP サーバーの開発モードを追加し、ファイル変更監視による自動再起動とデバッグ機能を提供。現在 Node.js と Python サーバーのデバッグに対応し、dev
キーで watch パターンと debug 設定を指定可能。
.vscode/mcp.json
{ "servers": { "gistpad": { "command": "node", "args": ["build/index.js"], "dev": { "watch": "build/**/*.js", "debug": { "type": "node" } } } }}