AI Weekly 2025-07-10
Gemini API Batch Mode、50%割引で大量処理に対応
日付:2025 年 7 月 7 日
Google が Gemini API に Batch Mode を導入した。高スループット、レイテンシーが重要でないワークロード向けの新しい非同期エンドポイントで、同期 API と比較して 50%割引で提供される。
24 時間以内に結果を取得可能で、より高いレート制限を提供。複雑なクライアントサイドキューイングや再試行ロジックが不要。全リクエストを単一ファイルにパッケージ化し、ジョブを送信、完了後に結果を取得する簡単なワークフロー。
対応モデルは Gemini 2.5 Flash と Gemini 2.5 Pro。Google GenAI Python SDK で利用可能。
uploaded_batch_requests = client.files.upload(file="batch_requests.json")batch_job = client.batches.create( model="gemini-2.5-flash", src=uploaded_batch_requests.name, config={'display_name': "batch_job-1"})
GitHub Copilot Chat の新機能が一般提供開始
日付:2025 年 7 月 9 日
GitHub Copilot Chat のパブリックプレビュー中だった機能が github.com 上の全ユーザーに一般提供開始された。インスタントプレビュー、柔軟な編集、issue 管理、改善された添付機能、モデル選択などを含む。
- Rich file interactions:サイドパネルでの生成ファイル表示・編集が可能。HTML、Markdown、Mermaid ダイアグラムの「Preview」タブでのプレビュー機能と issue 表示機能を提供。
- Message threading:メッセージの編集による改良、異なるモデルを使用したレスポンスの再読み込み、1 つの場所でのすべてのスレッド追跡が可能。
- Enhanced attachments:大きなテキストブロックをワンクリックで添付ファイルに変換。
出展:New Copilot Chat features now generally available on GitHub
GitHub MCP server から Copilot coding agent へのタスク委譲が可能に
日付:2025 年 7 月 9 日
GitHub MCP server に Copilot coding agent にタスクを委譲する新しいツールが追加された。バックグラウンドでの作業実行により、開発者のワークフローを中断することなくタスクを処理可能。
任意の MCP host アプリケーションから Copilot でタスクを開始でき、github.com、GitHub Mobile、GitHub CLI、GitHub Copilot Chat と並んで利用可能。リモート MCP server サポートがある IDE または agentic coding tool にリモート GitHub MCP server をインストールして使用。
チャットで Copilot に pull request 作成を依頼し、開発者は他の作業を継続。Copilot がバックグラウンドで作業し、pull request がレビュー準備完了時に通知。ルーチンタスクを Copilot に委譲し、より重要な作業に集中できる開発体験を提供。
出展:Delegate tasks to Copilot coding agent from the GitHub MCP server
GitHub Mobile で Copilot code review が一般提供開始
日付:2025 年 7 月 8 日
GitHub Mobile アプリで Copilot code review が一般提供開始された。バグの識別、潜在的なパフォーマンス問題の検出、修正提案の提供により、基本的なレビューを AI エージェントに委譲可能。
GitHub Mobile アプリで任意のオープンな pull request にアクセスし、Copilot レビューをリクエスト。Copilot が生成したコメントを確認し、変更、問題修正、または pull request のマージを決定。全てモバイルデバイスから実行可能。
有料 Copilot 購読者全員が利用可能。組織が github.com で Copilot code review を有効にしている場合、GitHub Mobile で自動的に利用可能。デスクでも外出先でもプロジェクトを継続でき、時間のかかるコードレビュープロセスを効率化。
出展:Copilot code review now generally available on GitHub Mobile
T5Gemma、encoder-decoder アーキテクチャの新しい Gemma モデルコレクション
日付:2025 年 7 月 9 日
Google が T5Gemma を発表した。decoder-only モデルから encoder-decoder アーキテクチャへの変換技術「model adaptation」を使用した新しい Gemma モデルコレクション。Gemma 2 フレームワークをベースに、適応済み Gemma 2 2B・9B モデルと新しく訓練された T5 サイズモデル(Small、Base、Large、XL)を提供。
Hugging FaceとKaggleでモデル重みをダウンロード可能。Colab ノートブックでの探索・ファインチューニング、Vertex AI での推論実行に対応。
出展:T5Gemma: A new collection of encoder-decoder Gemma models
補足:decoder-only/encoder-decoder とは、Transformer アーキテクチャの種類であり、分類や分析に適した Encoder-Only(BERT など)、生成に適した Decoder-Only(GPT など)、その両方に適しているが計算コストの高い Encoder-Decoder(T5 など)がある。
MedGemma、医療 AI 開発向けマルチモーダルモデル
日付:2025 年 7 月 9 日
Google が MedGemma コレクションに 2 つの新しいモデルを追加した。MedGemma 27B Multimodal は複雑なマルチモーダルと縦断的電子健康記録の解釈をサポート。MedSigLIP は分類、検索、関連タスク用の軽量画像・テキストエンコーダー(400M パラメーター)。
MedGemma 4B Multimodal は MedQA で 64.4%のスコアを記録し、8B 未満のオープンモデル中で最高クラス。胸部 X 線レポートの 81%が米国認定放射線科医により十分な精度と判定。MedGemma 27B は MedQA で 87.7%のスコアを記録し、DeepSeek R1 との差は 3 ポイント以内で推論コストは約 10 分の 1。
オープンモデルの利点として、専用ハードウェアでの実行、ファインチューニングによる最適化、スナップショット配布による安定性を提供。DeepHealth が胸部 X 線トリアージ、Chang Gung Memorial Hospital が繁体字中国語医学文献、Tap Health が進捗ノート要約で活用。
Hugging Face と GitHub で利用可能。Vertex AI で専用エンドポイントとして展開可能。
出展:MedGemma: Our most capable open models for health AI development
Fastly と TollBit が AI bot traffic 制御・収益化ソリューションを提供
日付:2025 年 7 月 1 日
Fastly と TollBit が AI bot traffic の制御と収益化を可能にする統合ソリューションを発表した。AI bot が全トラフィックの 3 分の 1 以上を占める中、パブリッシャーやコンテンツプロバイダーが同意と補償なしにコンテンツを取得されることを防ぐ。
Fastly AI Bot Management の高度な bot 検出機能と TollBit の検証・分析プラットフォームを組み合わせ。AI bot を検出・分類し、TollBit Bot Paywall(無料で設定可能なサブドメイン)にリダイレクト。有効なトークンを持つ bot にはコンテンツアクセスを許可し、その他の AI bot には支払いを要求。
実装は既存の Fastly インフラストラクチャを活用し、追加のレイテンシなしで人間の訪問者には透明。カスタマイズ可能な bot 検出、柔軟な実施レベル、包括的な分析ダッシュボードを提供。パブリッシャーは無料で TollBit にサインアップし、数分で AI bot traffic の収益化を開始可能。
出展:How to Control and Monetize AI Bot Traffic Using Fastly and TollBit
LM Studio、商用利用が無料化
日付:2025 年 7 月 8 日
LM Studio が商用利用を無料化した。LM Studio はローカル環境で Large Language Model を実行するためのデスクトップアプリケーションで、外部サーバーに依存せず完全にプライベートな環境で AI モデルを利用可能。
これまで個人利用のみ無料だったが、企業や組織での利用に商用ライセンスが必要だった制限を撤廃。チームでの利用時に別途連絡や手続きが不要になり、導入の摩擦を大幅に削減。
2023 年 5 月のローンチから 2 年間で数百万ダウンロード、数十の企業導入を達成。職場での AI 実験や初期探索を可能にし、ローカル AI をより身近で有用なものにするという使命に沿った変更。
今週中にチーム向けパブリック Hub 組織機能を無料提供開始。SSO、モデル・MCP ゲーティング、プライベートコラボレーションが必要な企業向けには Enterprise plan を提供。Fortune 500 企業、大学、グローバル組織で導入済み。今月中にはチーム内でのプライベート共有を可能にする Teams plan を自己サービスで提供予定。