SEO分析もAIに任せることにした——内部リンクと検索データの自動化

SEO分析もAIに任せることにした

記事の自動生成が軌道に乗ってきたのは、2月の終わりごろでした。毎朝5時にパイプラインが動き、起きたら5本の下書きができている状態になっていました。

ただ、記事を作るだけでSEOがうまくいくほど、甘くはありませんでした。

AIエージェントナビでは最初から、「どの記事がどの記事と関連しているか」を自分でキーワードマップとして整理していました。トピッククラスターと呼ばれる設計で、ピラーページを中心に関連記事を放射状につなぐイメージです。その設計図をもとに、記事に内部リンクを手動で挿入していました。

記事が増えるにつれて、この手作業がだんだん追いつかなくなってきた。設計図のメンテナンスも、リンクの挿入も、どちらも人力では限界がある。Navに相談したのはそのころでした。

記事が増えるにつれて、別の作業も増えていた

内部リンクの管理は手動でやっていた

当時の運用はこうでした。新しいキーワードで記事を書くとき、「この記事はどのピラーページの傘下に入るか」「どの既存記事と関連しているか」を自分でキーワードマップに追加する。記事を公開したら、そのマップを見ながら本文に内部リンクを手動で挿入する。

これ自体は、SEO設計として正しいアプローチです。ただ毎日5本ペースになると、設計図の更新とリンク挿入の両方が、どんどん積み残しになっていきました。

自動化できないか、Navに相談した

Nav 設計図の更新と内部リンク挿入、どちらも自動化できます。記事投稿後にエージェントが設計図を更新し、そのまま内部リンクを挿入する流れにしましょうか。
やってみて。ただし既存の公開記事には触らないこと。新しく投稿した記事だけが対象。

「既存記事は触らないこと」——この一言を念押ししたのには理由があります。以前、テスト段階のスクリプトが公開済みの記事を書き換えてしまうミスがあったからです。その経験から、自動化する前にスコープを明確にする習慣をつけるようになりました。

まず内部リンクから自動化した

最初の設計は単純すぎた

Navが最初に提案した仕組みはシンプルでした。記事のURLに含まれるキーワードを照合して関連記事を特定し、本文に挿入する——というものです。実装してみると、照合できるケースが思ったより少なかった。URLだけでは「この記事とあの記事が関連している」と判断しきれないのです。照合できない場合はAIにフォールバックする設計にしましたが、今度は別の問題が出てきました。「どこに入れるか」の判断です。

AIに「どのセクションに入れるか」を判断させた

内部リンクをただ本文に入れればいいわけではありません。読者の文脈に合ったセクションに挿入しないと、ユーザー体験が下がる。「この段落を読んでいる人が、次に知りたいことは何か」という観点で配置する必要があります。

そこで記事のH2・H3見出しとその内容をAIに渡して、「候補の記事をどのセクションの前に挿入すべきか、それとも挿入しないか」を1件ずつ判断させる設計にしました。

Nav ピラーページへの内部リンクは必ず1件入れる設計にします。SEOの権威性をピラーページに集めるためです。残りは読者の意図をベースに選定します。
ピラーへのリンクを必ず入れるのはいい設計だね。SEO的にも理にかなってる。

それでもうまくいかないことがあった

実装後に気づいたことがあります。生成AIカテゴリの記事に対して、内部リンクがほとんど挿入されないのです。

原因を調べたら、単純な話でした。設計図の中に、生成AIカテゴリの記事が登録されていなかった。候補がなければ、いくらAIが判断しようとしてもリンクを入れようがありません。

自動化のロジックを作ることに集中するあまり、「材料」の整備が追いついていなかった。こういう見落としが、実装後になって発覚するのがAI自動化あるあるだと感じます。対応は現在も積み残し中です。

SEO分析も自動化した

検索データを自動分類する仕組みを作った

内部リンクの自動化と並行して、SEO分析の自動化も進めました。Google Search ConsoleのAPIを使って、過去28日分の検索データを取得し、記事をTierに自動分類する仕組みです。

分類の基準はNavと一緒に決めました。

  • Tier A:検索順位11〜20位・インプレッション100以上。もう少しで1ページ目に入れる記事。リライトの優先候補。
  • Tier B:検索順位4〜10位・インプレッション100以上・CTR2%未満。上位にいるのにクリックされていない。タイトルや見出しの改善余地がある。
  • Tier C:それ以外。現状維持または様子見。

「どこから手をつければ効果が出やすいか」を数値で判断できるようになりました。

毎週月曜に週次レポートが届くようになった

このSEO分析エージェントはlaunchdに登録して毎週月曜の朝6時に自動実行されます。結果はログファイルに保存され、毎朝確認する/morningスキルで月曜日だけ自動表示されます。起きたら「今週リライトすべき候補」がまとまっている状態になりました。

GA4まで手を伸ばした

CVR分析・ミスマッチ検出を実装した

Search Consoleだけでは「検索からどれだけ来たか」しか分かりません。「来たあとにどう動いたか」を知るにはGoogle Analytics 4(GA4)が必要です。Navの提案でGA4の分析エージェントも作ることにしました。

実装したのは3つの分析です。

  1. CVR分析:ランディングページごとのコンバージョン率を集計する
  2. ミスマッチ検出:検索インプレッションは多いのにGA4のエンゲージメントが低い記事を特定する(検索意図と記事内容がずれているサイン)
  3. マイクロCV分析:メルマガ登録ボタンのクリックなどの小さなコンバージョンを記事別に集計する
Nav 検索とGA4を組み合わせることで、「流入は多いが離脱が速い記事」を自動で検出できます。これがリライト優先度の判断材料になります。
数字を見るだけじゃなくて、「どの記事を直すか」まで判断できるようになるってことね。

データがあっても使わないと意味がない

正直に言うと、GA4の分析レポートをまだ十分に活用できていません。

データはあります。週次レポートにも含まれています。でも「ミスマッチが検出された記事をリライトする」という次のアクションまで、なかなか手が回らないのが現状です。

自動化の落とし穴はここにある気がします。「分析して終わり」になってしまう。分析はあくまで手段であって、それをもとに何かを変えないと意味がない。それが今の積み残し課題です。

第4話のまとめ

  • 記事生成の自動化が進むと、設計図の管理・内部リンク挿入・SEO分析が次のボトルネックになった
  • 内部リンクを自動化したが、設計図への登録漏れで一部カテゴリは機能しなかった
  • 検索データを自動分類し、毎週月曜に週次レポートが届くようになった
  • GA4分析まで実装したが、分析結果を改善行動につなげることが次の課題

「自動化した」と言えるのは仕組みを作った段階まで。データを活用して改善サイクルを回すところが、本当の意味での自動化なのかもしれないと思っています。

次回は、古い記事をAIにリライトさせてみた話をします。