GitHub Copilot停止で見えた真実 AIエージェント時代はコスト設計が鍵
この記事でわかること
- AIの「使い放題」時代が終わった
- MCPがトークンを「激乗せ」する
- これからのAIワークフローに必要な3つの設計
- 1. ループにリミッターをかける
- 2. MCPの呼び出しを絞る
- 3. 大量処理の前にコストを見積もる
AIの「使い放題」時代が終わった
2026年4月20日、GitHubが「Copilot Pro/Pro+」の新規受付を突如停止しました。
原因はシンプルです。自律型AIエージェントが一晩中コードを書き続けるような使い方が急速に普及した結果、ユーザーの計算リソース消費がGitHub側の想定を遥かに超え、サーバーコストが爆発したためです。
これはGitHubだけの話ではありません。
| サービス | 変更内容 | 時期 |
|---|---|---|
| GitHub Copilot | 新規停止・週次トークン上限・重量課金(0.04ドル/リクエスト) | 2026年4月 |
| Anthropic | エンタープライズ契約の一部を重量課金へ移行 | 2026年2月 |
| OpenAI Codex | フラット料金→トークン課金 | 2026年4月 |
| Windsurf | チャージ型→日次クォータ制 | 2026年3月 |
「月額20ドルだからいくら使ってもOK」という時代が、業界全体で同時に終わりを迎えました。
MCPがトークンを「激乗せ」する
AIエージェントに外部ツールを接続するMCP(Model Context Protocol)は非常に強力ですが、使い方を誤るとトークン消費が爆発します。
エージェントがMCPを通じてファイルやリポジトリを何往復も巡回すると、その分だけコンテキスト(=コスト)が膨れ上がります。
今まではこのコストが定額料金に隠れていました。これからは毎回のMCP呼び出しが直接コストに跳ね返ってきます。
これからのAIワークフローに必要な3つの設計
1. ループにリミッターをかける
AIが試行錯誤を繰り返して際限なくトークンを消費しないよう、最大ループ回数やリトライ上限をあらかじめ設定しておく必要があります。
同じエラーが3回出たら止める、試行5回で解決しなければ人間に報告する、といったルールをシステム設計の段階で組み込みます。
2. MCPの呼び出しを絞る
何でもかんでもMCPで外部ツールに繋ぐのではなく、「本当にそのファイル読み込みが必要か?」を自問する習慣が重要です。
フォルダ全体をスキャンするのではなく、必要なファイルだけを指定して読む。これだけでトークン消費を大幅に削減できます。
3. 大量処理の前にコストを見積もる
大量のファイルを一括処理するタスクは、サンプル1件で消費トークン量を計測してから全件の推定コストを出す。この1ステップが「やってみたら高額になっていた」を防ぎます。
「コスト設計」が新しいエンジニアリングスキルになる
これからのAI活用で差がつくのは、どれだけ高度なプロンプトを書けるかより、いかに少ないトークンで目的を達成できるかという設計力です。
「人件費(自分の時間)」と「AIの重量課金」を天秤にかけ、AIにやらせるべきタスクと自分で書いた方が安いタスクを仕分ける判断力。これが2026年以降のAI活用の核心になります。
使い放題の時代に甘えていたワークフローを今見直すことが、コスト増加の波を先回りする最善手です。
