【実録 第11話】API料金の一覧ページを全部AIに作らせた

「このAPIを使うと、いくらかかるのかな?」
そう思う度に、自分でサービスの公式サイトを調べていました。
Gemini・GPT・Claude……それぞれ料金ページが違う場所にあって、しかもモデルごとに単位がバラバラです。入力トークン・出力トークン・1,000トークンあたりか100万トークンあたりか。比べようとするたびに手間がかかって、「これ、まとめたページがあればいいのに」とずっと思っていました。
「自分で作ればいい」と気づいたのは、記事自動化の仕組みが軌道に乗り始めた頃のことです。
「自分で作ればいい」と気づいた日
3月中旬、ちょうど記事執筆パイプラインが安定して動き始めた頃、Navと次の展開を話し合っていました。
こうして「API料金一覧」プロジェクトが始まりました。
ページを「書く」のではなく「生成する」
最初のページ——生成AIモデルの料金比較——を作るとき、Navがやったことを説明するとこうなります。
- Grokでプロバイダーごとの公式料金ページを参照して料金データを収集
- 収集したデータをもとにHTMLの比較表・解説文・FAQをGeminiが生成
- JSON-LD構造化データ(SEO・AEO対応)を自動付与
- アイキャッチ画像をNano Banana 2で生成
- WordPressに自動投稿(
create_ai_api_page.pyなどカテゴリ別スクリプト)
1カテゴリのページを「スクリプトを1本走らせれば完成する」状態まで持っていきました。記事執筆パイプラインと同じ発想です。
AI系6カテゴリが揃うまでに3日かかりませんでした。生成AIモデル・画像生成AI・動画生成AI・音声合成TTS・音声認識STT・RAG/VectorDB。
さらに業務SaaS系5カテゴリ(コミュニケーション・メール配信・CRM・会計・プロジェクト管理)も一気に完成させ、計11ページが出揃いました。
詳細はこちら:API料金一覧|AIエージェント開発に必要なAPI情報をまとめて比較
致命的な問題が発覚した
ところが公開から数日後、深刻な問題が発覚します。
掲載している料金データが、実際の公式料金と大きくズレていたのです。
原因はGrokへの指示が甘かったことでした。「料金を調べて」と指示するだけでは、Grokは参照するURLを自分で判断します。学習データに含まれている古い情報や、バッチ料金など別の料金体系を混ぜて返すことがあったのです。
料金取得専用のプロンプト設計を確定
Navと試行錯誤を重ねて、料金取得専用のプロンプト設計を確定させました。
以下のURL1つだけにアクセスして、スタンダード料金のみを取得してください。
URL: https://ai.google.dev/gemini-api/docs/pricing
このURL以外のページは一切参照しないこと。
バッチ料金・プロモーション料金は含めない。
JSON配列のみ出力: [{"model_id": ..., "input_price": ..., "output_price": ...}]
temperature=0
「URL1つだけ」「このURL以外参照禁止」「バッチ料金不要」という3つの制約を明示したことで、Grokが正確なスタンダード料金を返すようになりました。4プロバイダー(Gemini・OpenAI・xAI・Claude)で公式ページと照合して、全モデルの数値が完全一致することを確認してから全ページを修正・再公開しました。
「AIが生成したデータをそのまま信じる」というのは危険だと身をもって学びました。特に数字——料金・件数・日付——は人間が検証する必要があります。
12カテゴリまで拡張した
リアルタイム音声会話APIというカテゴリをNavが提案しました。
こうして12カテゴリ・12ページが揃いました。
「作る」より「維持する」が難しい
全12ページが完成して気づいたのは、料金比較ページは「作ったら終わり」ではないということです。
AIの料金は頻繁に変わります。新モデルが出るたびに追加が必要で、廃止になったモデルには非推奨マークを付けなければいけない。公開直後からGrokのデータが間違っていた経験もあって、自動監視の仕組みが必要だと感じました。
その答えとして、料金変更自動検知機能を追加しました。毎朝6時に主要APIの料金ページをGrokがチェックして、変更があった場合だけ報告する仕組みです。「変動があった日だけ知らせる」というのがポイントで、毎日確認する手間がなくなりました。
こういうやりとりが朝のルーティンになりました。
まとめ
API料金一覧プロジェクトをまとめるとこうなります。
- カテゴリ別スクリプトを用意して、ページ生成を自動化
- GrokのデータはURLを1つに絞り・参照禁止を明示することで精度が上がる
- 料金などの数字は必ず人間が公式ページと照合する(AIの出力をそのまま信じない)
- JSON-LD・llms.txt でAIエンジンにも情報を届ける設計
- 維持コストを下げるために料金変更の自動監視を実装
「ページを作る」ことよりも「データが正確であり続ける仕組みを作る」ことの方が、長く使えるコンテンツになると感じました。
次回は、日本語のMCPサーバーディレクトリが存在しないことに気づいて、自分で作り始めた話です。




