2011 文字
10 分

AI Weekly 2025-04-17

GitHub issue から Copilot agent mode で Codespace を開く機能が利用可能に#

日付:2025 年 4 月 11 日

GitHub Codespaces で、VSCode の Copilot エージェントモードが利用可能に。GitHub の issue から直接、エージェントモードを実行する Codespace を開くことが可能。Issue の右側に表示される「Code with Copilot Agent Mode」ボタンをクリックすることで、新しい Codespace が初期化され、Issue 本文をコンテキストとして使用し、コードベースを分析して適切なファイル変更を提案。Copilot と協力してコードを微調整し、必要に応じて修正を行うことが可能。

出展:VSCode Copilot agent mode in Codespaces

参考画像:Issue から Copilot Agent Mode で Codespace を開く。

参考画像:Copilot Agent Mode で開かれた Codespace、Issue 本文をコンテキストとして使用している。

Copilot Chat で GitHub の URL による参照が利用可能に#

日付:2025 年 4 月 9 日

GitHub Copilot Chat で、GitHub の URL を貼り付けて明示的に参照する機能がサポートされるように。イシュー、ディスカッション、プルリクエストなど、GitHub での開発において重要なコンテキストを簡単に参照可能。リンクをチャットに貼り付けるだけで、Copilot が残りを処理。複数のリポジトリをまたいでプルリクエストとディスカッションを比較したり、直感的なナビゲーションで作業をスムーズに進めることが可能。

出展:Copilot Chat now supports pasting GitHub URLs as explicit references

GitHub Copilot で Organization Custom Instructions が利用可能に#

日付:2025 年 4 月 17 日

GitHub は、Copilot Chat において組織のカスタム指示を設定できる機能をリリース。これにより、Copilot Enterprise の顧客は、組織内のすべてのユーザーに対して一貫した指示を設定することが可能。組織の設定から Copilot タブを選択し、カスタム指示を追加することで、すべてのチャットに適用される。

出展:Organization custom instructions now available

GitHub Models が GitHub Actions のトークンを利用できるように#

日付:2025 年 4 月 14 日

GitHub Models で、GitHub Actions のGITHUB_TOKENを使用してリクエストを認証する機能が一般利用可能に。これにより、AI 機能をアクションに直接統合し、個人用アクセストークン(PATs)の生成と管理が不要に。AI を活用した GitHub Actions の作成と共有がこれまで以上に簡単に。ワークフローに AI を組み込むことで、課題コメントの生成やプルリクエストのレビューなどを効率化。

出展:GitHub Actions token integration now generally available in GitHub Models

Microsoft Copilot Studio に PC を自動操作する機能が追加#

日付:2025 年 4 月 15 日

Microsoft は、Copilot Studio で PC を自動操作する computer use 機能を発表。この機能により、Copilot Studio のエージェントがウェブサイトやデスクトップアプリケーションと直接対話可能。ボタンをクリックしたり、メニューを選択したり、画面上のフィールドに入力することで API が利用できないシステムでもタスクを処理可能。

出展:Announcing new computer use in Microsoft Copilot Studio for UI automation

OpenAI GPT-4.1、GPT-4.1 mini、GPT-4.1 nano リリース#

日付:2025 年 4 月 15 日

OpenAI は、最新の言語モデル GPT-4.1 とそのバリエーションである GPT-4.1 mini および GPT-4.1 nano をリリース。これらのモデルは、前バージョンに比べて大幅に性能が向上し、特に長いコンテキストの理解能力が強化されている。

  • GPT-4.1:最大 100 万トークンのコンテキストをサポートし、より自然な対話と高度なタスク処理が可能。開発者向けに設計されており、コーディングや指示のフォロー、関数呼び出しにおいて優れた性能を発揮。

  • GPT-4.1 mini:より軽量で効率的なモデルとして設計されており、迅速な応答が求められるシナリオに適している。特に、リソースが限られた環境での使用に最適。

  • GPT-4.1 nano:さらに小型化されたモデルで、低遅延が求められるアプリケーションに最適。小規模なデバイスやリアルタイム処理が必要な場面での使用に適している。このモデルは現在、入力が$0.10/million tokens、出力が$0.40/million tokensの最も安価な OpenAI モデル。

これらのモデルは、開発者がさまざまなユースケースに応じて選択できるように設計されている。

出展:OpenAI GPT-4.1

OpenAI o3 と o4-mini リリース#

日付:2025 年 4 月 16 日

OpenAI は、新しい言語モデル o3 と o4-mini をリリース。これらのモデルは、コーディング、数学、科学、ビジョンにおいて優れた性能を発揮し、特に o3 は最も強力な推論モデルとして位置付けられている。

  • o3:コーディング、数学、科学、ビジョンでの性能が高く、推論タスクにおいて最先端のパフォーマンスを実現。API での利用が可能で、特にエージェント的なコーディングタスクにおいて優れた結果を示す。

  • o4-mini:より高速でコスト効率の高い推論モデルとして設計されており、数学、コーディング、ビジョンでの強力なパフォーマンスを提供。特に、迅速な応答が求められるシナリオに適している。

これらのモデルは、開発者がさまざまなユースケースに応じて選択できるように設計されており、API を通じて利用可能。価格設定は、o3 が入力$10.00/million tokens、出力$40.00/million tokens、o4-mini が入力$1.10/million tokens、出力$4.40/million tokensとなっている。

出展:Introducing OpenAI o3 and o4-mini

Gemini 2.5 Pro と Gemini 2.5 Flash リリース#

日付:2025 年 4 月 9 日

Google は、最新の AI モデルである Gemini 2.5 Pro と Gemini 2.5 Flash を発表。これらのモデルは、企業向けの高度な推論能力を備え、特に複雑なタスクにおいて優れた性能を発揮する。

  • Gemini 2.5 Pro:最大 100 万トークンのコンテキストウィンドウを持ち、深いデータ分析や複雑なコーディングタスクを処理する能力を持つ。企業が直面する複雑な情報環境や多段階の分析を必要とする課題に対応するために設計されており、法的契約や医療記録のような密な文書から重要な洞察を抽出することが可能。

  • Gemini 2.5 Flash:低遅延とコスト効率を重視したモデルで、リアルタイム情報処理やカスタマーサービスのような高ボリュームのシナリオに最適。クエリの複雑さに応じて処理時間を自動調整する動的な推論能力を備え、迅速な応答が求められる場面での使用に適している。

これらのモデルは、Google Cloud の Vertex AI プラットフォーム上で利用可能で、企業が AI アプリケーションを効率的に構築・管理するのを支援する。

出展:Gemini 2.5 brings enhanced reasoning to enterprise use cases

Gemini の動画生成モデル Veo 2 とリアルタイムインタラクションを実現する Live API リリース#

日付:2025 年 4 月 9 日

Google は、Veo 2 と Live API のリリースを発表。これらのツールは、開発者がよりインタラクティブでリアルタイムなアプリケーションを構築するのを支援する。

  • Veo 2:テキストや画像から高品質なビデオを生成する能力を持ち、リアルな動きとカメラ制御を実現。テキストからビデオを生成する Text-to-Video(t2v)や、画像からビデオを生成する Image-to-Video (i2v)機能を提供。720p の解像度で最大 8 秒のビデオクリップを生成可能で、価格は 1 秒あたり$0.35。

  • Live API:Gemini モデルのためのリアルタイムインタラクションを可能にする API で、ストリーミングオーディオ、ビデオ、テキストを低遅延で処理。30 以上の新しい言語をサポートし、音声活動検出(VAD)の設定が可能。無限に近いセッションをサポートし、強力なツール統合を提供。

これらの機能は、Google AI Studio と Vertex AI で利用可能で、開発者がより高度な AI アプリケーションを構築するのを支援する。

出展:Gemini 2.5 Flash and Pro, Live API, and Veo 2 in the Gemini API

OpenAI がコーディングエージェント Codex CLI をリリース#

日付:2025 年 4 月 17 日

OpenAI は、Codex CLI を発表。これは、自然言語を用いてコードを生成し、実行するためのコマンドラインインターフェースで、開発者が効率的にプログラムを作成するのを支援する。このツールはオープンソースとして公開されている。

リポジトリ:openai/codex

出展:OpenAI Codex CLI Getting Started

AI Weekly 2025-04-17
https://blog.ohirunewani.com/series/ai-weekly/2025-04-17/
作者
hrdtbs
公開日
2025-04-17
ライセンス
CC BY-NC-SA 4.0