Perplexity 引用追跡ツール比較|API活用+手動フローまで【2026年版】
Perplexity AI で自社サイトが引用された回数を追跡するツールと API 活用方法を解説。Profound/Otterly.AI/AthenaHQ の Perplexity 機能と、Sonar API を使った自前計測スクリプトの両方をカバー。
目次(36項目)
- なぜ Perplexity の引用追跡が他の AI と違うのか
- Perplexity 引用の3つの計測対象
- Perplexity 引用追跡ツール詳細レビュー
- Profound — Perplexity 計測の事実上のスタンダード
- Otterly.AI — 中小企業向けの第一候補
- AthenaHQ — 競合差分に特化した尖り SaaS
- 内製計測 — Sonar API による自前ダッシュボード
- Perplexity Sonar API の概要・料金・制限
- 料金体系(2026年5月時点)
- レート制限とクォータ
- return_citations オプションの罠
- 自前計測スクリプト(Python + Sonar API)
- 依存ライブラリと環境変数
- 最小構成スクリプト
- プロンプト CSV の例
- Slack 通知への発展
- 機能比較表(商用 SaaS + 内製)
- Perplexity 引用追跡ワークフロー
- 週次・月次の運用ループ
- プロンプト設計の3レイヤー
- Perplexity 引用追跡でよくある失敗事例
- ブランドキーワードと一般キーワードの両軸監視
- 軸1: ブランド指名キーワード
- 軸2: ノンブランドキーワード
- ChatGPT 引用追跡との違いと併用方針
- 関連用語と次に読むべき記事
- FAQ
- Q1. Sonar API の citations が空で返ってくることがあります。なぜですか?
- Q2. Profound と Otterly.AI を併用する意味はありますか?
- Q3. 月どれくらいのプロンプト数を回せば実用的な計測になりますか?
- Q4. 引用されたが流入につながらないケースが多いです。改善策は?
- Q5. AthenaHQ の「Citation Gap」と Profound の競合分析は何が違いますか?
- Q6. 内製スクリプトと SaaS、コスト分岐点はどこですか?
- Q7. PerplexityBot のクロール拒否を解除しても引用されない場合は?
- Q8. 計測結果を経営報告に使うとき、どんな指標を見せればいいですか?
- Q9. 1日に何回 Sonar API を回すのが最適ですか?
Perplexity 引用追跡ツール比較|API活用+手動フローまで【2026年版】
この記事の結論: Perplexity の引用追跡は「商用 SaaS」「Sonar API による自前計測」「手動スポットチェック」の三層で組むのが2026年5月時点のベストプラクティスです。Profound と Otterly.AI が Perplexity 専用ダッシュボードを提供し、AthenaHQ は競合差分を可視化、Sonar API は1クエリ約$0.005で無制限にプロンプトを回せます。完全に SaaS だけに頼ると死角ができるので、API スクリプトを併用してロングテールを取りに行くのが鉄則です。
最終更新日: 2026-05-06
「Perplexity で自社が引用されているかどうかを毎日チェックしたいが、手動では追いつかない」――そう感じたタイミングが、引用追跡ツールを導入する最適な瞬間です。Google 検索の「順位計測」とは違い、Perplexity の引用は同じ質問でも回答が揺れ、引用されるサイトも入れ替わります。だからこそ、計測の頻度とサンプル数で殴る必要があり、ツールと自前スクリプトのハイブリッド運用が現実解になります。本記事では2026年5月時点で実機確認できた Perplexity 引用追跡ツールを比較し、Sonar API を使った自前計測スクリプト、運用ワークフロー、よくある失敗事例まで一気通貫で解説します。
→ そもそも Perplexity で引用される側に回るための施策はPerplexityに取り上げられる方法|AI検索特化の対策を参照してください。
なぜ Perplexity の引用追跡が他の AI と違うのか
Perplexity は他の生成 AI と異なり、回答に引用元 URL を必ず明示します。これは追跡側にとっては大きな利点で、「引用されたか / されていないか」「自社か競合か」が機械的に判定できることを意味します。一方で、ChatGPT のように検索パートナーが Bing 一本に固定されているわけではなく、Perplexity は独自インデックス・Brave Search・SerpAPI 系・出版社直契約など複数のソースを組み合わせるため、SEO の順位変動とは違うロジックで引用が決まります。
| 項目 | Perplexity | ChatGPT Search | Google AI Overview | Gemini |
|---|---|---|---|---|
| 引用元 URL の明示 | 必ず表示 | 一部表示 | 表示あり | あいまい |
| インデックス基盤 | 独自+複数 | Bing | ||
| 同一質問の回答揺らぎ | 中 | 中 | 大 | 大 |
| API 経由での再現 | Sonar API で可 | API で可 | 不可 | 一部可 |
| クローラー名 | PerplexityBot | OAI-SearchBot/GPTBot | Google-Extended | Google-Extended |
| 計測コスト | 低 | 中 | 高(手動が必要) | 中 |
| 競合差分の取得 | 容易 | 容易 | 難しい | 中 |
Perplexity の特性として「同じプロンプトでも回答が揺れる」点は変わりませんが、引用元 URL リストの差分は比較的安定しているため、引用元を集合として扱えば実用的なシグナルが取れます。詳しくはLLMOとは?AI検索時代の新SEO【完全入門】で論じている「集合計測」の考え方が当てはまります。
Perplexity 引用の3つの計測対象
引用追跡を始めるとき、まず明確化すべきは何を測るのかです。実務上は次の3つに分解できます。
- シェア・オブ・ボイス(SoV): 自社カテゴリの質問100件中、何件で自社ドメインが引用されたか
- 引用ポジション: 1つの回答内で何番目に引用されたか(上位3件は LP クリック率が高い)
- 競合との相対比: 自社 vs 競合 vs 出典系(Wikipedia/官公庁)の引用配分
この3軸を意識せずにツールを導入すると、ダッシュボードを眺めて満足する「計測ゴッコ」で終わるリスクがあります。
Perplexity 引用追跡ツール詳細レビュー
ここからは商用 SaaS の主要3つと、内製運用の現実解をそれぞれ整理します。料金は2026年5月時点の公開情報・問い合わせ実績ベースで、為替レートは$1=155円換算です。
Profound — Perplexity 計測の事実上のスタンダード
Profound は2024年創業の米国スタートアップで、Perplexity・ChatGPT・Gemini・Claude の4プラットフォーム横断で引用追跡できる SaaS です。Perplexity に関しては「Conversation Explorer」機能で実際のユーザー質問パターンに近いプロンプトを生成し、引用元 URL の出現頻度を時系列で記録します。
Profound 独自の強みは「Agent Analytics」で、Perplexity がクロールしたページの bot ヒット数を Cloudflare ログ統合で可視化できる点です。引用追跡だけでなく、引用に至るまでのクロール経路を辿れるため、原因分析が圧倒的に速くなります。料金はエンタープライズ向けで月額$2,500〜(約39万円)と高額ですが、米国市場で本格展開している企業の多くがすでに導入済みです。
| Profound 機能 | Perplexity 対応 | 備考 |
|---|---|---|
| 引用 SoV ダッシュボード | あり | 日次更新 |
| プロンプト自動生成 | あり | カテゴリ別 |
| Agent Analytics | あり | Cloudflare 連携 |
| 競合比較 | あり | 5社まで標準 |
| API 出力 | あり | REST + Webhook |
| 日本語プロンプト | β | 精度は要検証 |
| 月額目安 | $2,500〜 | エンタープライズ |
Otterly.AI — 中小企業向けの第一候補
Otterly.AI はオーストリア発の SaaS で、Profound より大幅に安価ながら Perplexity 計測の基本機能を網羅しています。月額$29のスターターから始められ、プロンプト100件・週次レポート・引用 URL リスト出力が含まれます。
Otterly.AI の弱点はインデックスの粒度で、Perplexity の Pro モード(Claude/GPT-4 バックエンド)の挙動までは追えません。それでも「自社カテゴリで Perplexity に何回引用されているか」を日本企業が初めて計測するなら、コストパフォーマンスは群を抜いています。詳細な比較表はLLMO計測ツール比較|Profound/Otterly/AthenaHQ で AI 引用率を測る【2026年版】も合わせて参照してください。
| Otterly.AI プラン | 月額 | プロンプト数 | Perplexity | 競合比較 |
|---|---|---|---|---|
| Lite | $29 | 100 | あり | 1社 |
| Standard | $89 | 500 | あり | 5社 |
| Pro | $189 | 2,000 | あり | 10社 |
| Custom | 要見積 | 無制限 | あり | 無制限 |
AthenaHQ — 競合差分に特化した尖り SaaS
AthenaHQ は2025年にローンチした新興 SaaS で、Perplexity の引用元 URL を競合と並べて差分表示する UI が秀逸です。月額$249〜と Profound より安く、Otterly.AI より高機能という中間ポジションを取っています。
AthenaHQ の独自機能「Citation Gap」では、自社が引用されていないが競合は引用されているプロンプトを自動抽出し、コンテンツ改善の優先順位を提案してくれます。これはコンテンツギャップ分析を Perplexity 文脈で自動化した機能と見ると分かりやすいです。
内製計測 — Sonar API による自前ダッシュボード
商用 SaaS を使わず、Perplexity 公式の Sonar API を叩いて自前で計測する選択肢もあります。これは Profound 等のサブスク費用を抑えたい中小企業や、特殊なプロンプト体系を持つ B2B 向けで現実的です。Sonar API は2024年6月に一般公開され、2026年5月時点では月数百ドル〜の運用コストで、Profound 相当のプロンプト体系を回せます。
内製のメリットは「プロンプト数の上限がない」「引用 URL の生データを自由に加工できる」「Slack/BigQuery など既存基盤に統合しやすい」点です。デメリットはエンジニアリング工数とプロンプト設計の知見が必要になることで、初期構築に最低でも開発1人月+月次のメンテ工数が発生します。
Perplexity Sonar API の概要・料金・制限
Sonar API は Perplexity が提供する公式 REST API で、Web 検索結合済みの回答と引用元 URL リストをまとめて返します。引用追跡用途なら2026年5月時点で最も実用的な API です。
料金体系(2026年5月時点)
| モデル | 入力料金 | 出力料金 | 検索料金 | 用途 |
|---|---|---|---|---|
| sonar | $1/1M tokens | $1/1M tokens | $5/1k requests | 軽量質問 |
| sonar-pro | $3/1M tokens | $15/1M tokens | $5/1k requests | 高精度回答 |
| sonar-reasoning | $1/1M tokens | $5/1M tokens | $5/1k requests | 推論強化 |
| sonar-reasoning-pro | $2/1M tokens | $8/1M tokens | $5/1k requests | 複雑分析 |
| sonar-deep-research | $2/1M tokens | $8/1M tokens | $5/1k requests | リサーチ深掘り |
引用追跡用途なら基本的に sonar または sonar-pro で十分です。1クエリあたりの実コストは入力300トークン・出力500トークン・検索1回として概ね$0.005〜$0.020(約0.8円〜3円)で、月1万クエリ回しても数千円〜数万円のオーダーで収まります。
レート制限とクォータ
| ティア | RPM | RPD | 利用条件 |
|---|---|---|---|
| Tier 0 | 50 | 1,000 | 新規アカウント |
| Tier 1 | 500 | 5,000 | $50以上の使用 |
| Tier 2 | 1,000 | 10,000 | $250以上 |
| Tier 3 | 2,000 | 20,000 | $1,000以上 |
引用追跡を本格運用するなら最低でも Tier 1 が必要です。プロンプト1,000件×日次なら Tier 2 を想定して構築するのが安全です。
return_citations オプションの罠
Sonar API のデフォルトレスポンスには citations フィールドが含まれますが、APIバージョンによっては return_citations: true を明示しないと出力されないケースがあります。引用追跡が目的なら必ず明示指定してください。また search_domain_filter や search_recency_filter を併用すると、特定ドメインや最新性に絞った検証ができます。
自前計測スクリプト(Python + Sonar API)
ここからは実際に動く Python スクリプトです。プロンプトリスト → Sonar API 実行 → 引用元 URL 抽出 → CSV 出力までを一気通貫で実装します。
依存ライブラリと環境変数
pip install requests python-dotenv pandas tldextract
export PERPLEXITY_API_KEY=pplx-xxxxxxxxxxxx
API キーは Perplexity API のダッシュボード(perplexity.ai/settings/api)で発行できます。
最小構成スクリプト
import os
import csv
import time
import requests
import tldextract
from datetime import datetime
API_KEY = os.environ["PERPLEXITY_API_KEY"]
ENDPOINT = "https://api.perplexity.ai/chat/completions"
TARGET_DOMAINS = ["aiseo-llmo.com", "your-competitor.com"]
PROMPTS_FILE = "prompts.csv"
OUTPUT_FILE = f"citations_{datetime.now():%Y%m%d}.csv"
def query_perplexity(prompt: str, model: str = "sonar") -> dict:
payload = {
"model": model,
"messages": [
{"role": "system", "content": "You are a helpful research assistant."},
{"role": "user", "content": prompt},
],
"return_citations": True,
"temperature": 0.2,
}
headers = {
"Authorization": f"Bearer {API_KEY}",
"Content-Type": "application/json",
}
res = requests.post(ENDPOINT, json=payload, headers=headers, timeout=60)
res.raise_for_status()
return res.json()
def extract_domains(citations: list[str]) -> list[str]:
domains = []
for url in citations:
parsed = tldextract.extract(url)
domains.append(f"{parsed.domain}.{parsed.suffix}")
return domains
def main():
rows = []
with open(PROMPTS_FILE, encoding="utf-8") as f:
prompts = [r["prompt"] for r in csv.DictReader(f)]
for i, prompt in enumerate(prompts):
try:
data = query_perplexity(prompt)
citations = data.get("citations", [])
domains = extract_domains(citations)
for j, (url, dom) in enumerate(zip(citations, domains)):
rows.append({
"prompt": prompt,
"position": j + 1,
"url": url,
"domain": dom,
"is_target": dom in TARGET_DOMAINS,
"timestamp": datetime.now().isoformat(),
})
print(f"[{i+1}/{len(prompts)}] OK citations={len(citations)}")
time.sleep(1.2) # Tier 1 想定で500RPM≈8.3RPS、安全マージンで0.83RPS
except Exception as e:
print(f"[{i+1}/{len(prompts)}] FAIL {e}")
with open(OUTPUT_FILE, "w", newline="", encoding="utf-8") as f:
writer = csv.DictWriter(f, fieldnames=rows[0].keys())
writer.writeheader()
writer.writerows(rows)
print(f"saved -> {OUTPUT_FILE}")
if __name__ == "__main__":
main()
プロンプト CSV の例
prompt
LLMO 計測ツール おすすめ
Perplexity SEO 対策
AI 検索 引用 されない 理由
Sonar API 使い方
ChatGPT で 引用 される 方法
このスクリプトを毎日 GitHub Actions の cron で回すだけで、自社・競合の Perplexity 引用ログが日次蓄積されます。BigQuery / Google Sheets に転送すれば、ダッシュボード化も容易です。
Slack 通知への発展
引用が新規に獲得されたとき・失われたときに Slack 通知を飛ばすには、前日 CSV と当日 CSV を比較して差分を Slack Webhook で送るスクリプトを追加します。これだけで Profound の Slack 連携機能を月額$0で再現できます。
import json
import requests as r
def diff_notify(prev_csv, curr_csv, webhook_url):
prev = set(open(prev_csv).read().splitlines())
curr = set(open(curr_csv).read().splitlines())
new = curr - prev
lost = prev - curr
msg = f"NEW citations: {len(new)} / LOST: {len(lost)}"
r.post(webhook_url, data=json.dumps({"text": msg}))
機能比較表(商用 SaaS + 内製)
実機検証の結果を踏まえ、Perplexity 引用追跡ソリューションを横並びで比較します。
| ソリューション | 月額目安 | プロンプト上限 | 競合比較 | 日本語精度 | API 出力 | Agent ログ統合 | おすすめ規模 |
|---|---|---|---|---|---|---|---|
| Profound | $2,500〜 | 無制限 | 5社標準 | 中(β) | あり | あり | 大企業 |
| AthenaHQ | $249〜 | 1,000 | 10社 | 中 | あり | 一部 | 中堅 |
| Otterly.AI Standard | $89 | 500 | 5社 | 低 | CSV のみ | なし | 中小 |
| Otterly.AI Lite | $29 | 100 | 1社 | 低 | CSV のみ | なし | 個人/PoC |
| Sonar API 自前 | $50〜 | 無制限 | 自由設計 | 高(自分で書ける) | 自由 | 自分で実装 | 内製可な企業 |
| 手動スポット | $0 | 〜30 | 〜2社 | 高 | なし | なし | 立ち上げ期 |
選定の指針は次の通りです。月100万円以上をマーケに投じている企業なら Profound、月10〜30万円規模なら AthenaHQ、PoC や個人運用なら Otterly.AI Lite、エンジニアが社内にいるなら迷わず Sonar API 自前構築です。
Perplexity 引用追跡ワークフロー
ツール導入だけで終わらせず、運用フローに落とし込まないと意味がありません。実際に弊社で運用している標準フローを共有します。
週次・月次の運用ループ
| サイクル | アクション | 担当 | 所要 |
|---|---|---|---|
| 日次 | API スクリプト実行&差分 Slack 通知 | 自動 | 0分 |
| 週次 | 新規引用・失った引用のレビュー | マーケ担当 | 30分 |
| 週次 | 引用されていないが SoV 重要なプロンプト抽出 | マーケ | 30分 |
| 月次 | 競合差分レポートを経営層向けに作成 | マーケリード | 2時間 |
| 月次 | コンテンツ改善優先順位の更新 | 編集 | 2時間 |
| 四半期 | プロンプトリストの全面見直し | チーム全体 | 半日 |
このリズムを崩さないことが重要で、週次レビューを2回スキップするとプロンプトリストが陳腐化して計測値の意味が失われます。
プロンプト設計の3レイヤー
引用追跡で最も重要なのがプロンプト設計です。次の3レイヤーで設計してください。
- ブランド名直接系(例: 「aiseo-llmo.com とは」「aiseo-llmo.com 評判」)
これは確実に自社が引用されるべきプロンプト。引用されていないなら基本的なブランドメンション対策が不足しています。 - 製品カテゴリ系(例: 「LLMO ツール おすすめ」「AI 検索 計測 ツール」)
ここで競合と並べて引用されるかが SoV の本丸です。 - ソリューション・課題系(例: 「ChatGPT で引用されない 解決方法」)
問い合わせや CV に直結するプロンプト。引用されればトラフィック価値が高い。
3レイヤーをそれぞれ最低30件、合計100件程度から始め、運用しながら増減させていきます。詳しくはKPI計測の進め方|LLMO/AIO で何をどう測るか【2026年版】で論じている計測の段階設計も参照してください。
Perplexity 引用追跡でよくある失敗事例
実際に弊社や顧客で発生した失敗事例を共有します。事前に知っておくだけで回避できるものばかりです。
| 失敗パターン | 何が起きたか | 修正策 |
|---|---|---|
| プロンプト数が少なすぎる | 10件で「引用率0%!」と判定 | 最低100件、可能なら300件 |
| プロンプトが英語のみ | 日本市場の実態が見えない | 日本語と英語を並列計測 |
| 1日1回しか回さない | 揺らぎを見逃す | 1日3回以上で平均化 |
| 引用 URL の正規化漏れ | www有無で別カウント | tldextract で正規化必須 |
| API レート超過で欠測 | データに穴 | リトライ+指数バックオフ |
| 競合ドメインの定義が曖昧 | グループ会社が漏れる | エイリアス辞書を整備 |
| ダッシュボード見るだけで満足 | 改善アクションが起きない | 週次レビューを必ず実施 |
| Sonar API のモデル混在 | 結果が再現しない | モデルを固定 |
特に多いのが「ダッシュボードを見るだけで満足してしまう」パターンで、計測コストを払っているのに改善アクションにつながらず、3ヶ月後に解約されるケースをよく見かけます。週次レビューを必ずカレンダーで強制実行することをおすすめします。
ブランドキーワードと一般キーワードの両軸監視
引用追跡を始めると、つい「自社ブランド名で検索したときに引用されるか」だけを追ってしまいがちですが、これは半分しか見えていません。実務上は次の2軸を必ず両方計測してください。
軸1: ブランド指名キーワード
「[ブランド名]」「[ブランド名] 評判」「[ブランド名] 料金」など、ユーザーが既に自社を知っている前提のクエリです。ここでの目標引用率は90%以上が現実的です。引用されない場合は、自社サイトのインデックス未収録、PerplexityBot のクロール拒否、サイテーション不足のいずれかが原因です。
軸2: ノンブランドキーワード
「LLMO ツール」「AI 検索 対策」「ChatGPT 引用 方法」など、自社を知らない潜在顧客が打つクエリです。ここでの目標引用率は業界次第ですが**10〜30%**を狙います。ノンブランド引用は新規獲得のリーディング指標として最重要です。
| 軸 | 目標引用率 | 役割 | 改善難易度 |
|---|---|---|---|
| ブランド指名 | 90%以上 | 守りの指標 | 低 |
| ノンブランド・ロングテール | 30%以上 | 中間獲得 | 中 |
| ノンブランド・ヘッド | 10%以上 | 新規大量獲得 | 高 |
| 競合比較系 | 50%以上 | 競合奪取 | 中 |
両軸でダッシュボードを分け、それぞれの引用率を別 KPI として追うことで、施策の優先順位が明確になります。
ChatGPT 引用追跡との違いと併用方針
Perplexity と並行でChatGPT で引用されるための実践テクニックも追跡したくなりますが、両者は性質が大きく違います。
| 観点 | Perplexity 追跡 | ChatGPT 追跡 |
|---|---|---|
| 引用元 URL | 必ず取得可 | 一部のみ |
| API 経由 | Sonar API で正確 | OpenAI API は検索結果不安定 |
| 公式 Brand 機能 | なし | OpenAI Brand Insights β |
| 計測頻度推奨 | 日次 | 週次 |
| プロンプト揺らぎ | 中 | 大 |
実務的には Perplexity を「メイン計測」として日次で回し、ChatGPT は週次サンプリングで定性確認、Google AI Overview は手動スポットチェック、という三段運用が現実的です。
関連用語と次に読むべき記事
引用追跡を実運用に乗せたら、次は施策側の改善に進みます。引用される側の対策はPerplexityに取り上げられる方法|AI検索特化の対策、計測ツール全般の比較はLLMO計測ツール比較|Profound/Otterly/AthenaHQ で AI 引用率を測る【2026年版】、Google AI Overview 側の追跡はGoogleの「AI Overview(AIO)」とは?SEO担当者の対応、KPI 設計の全体像はKPI計測の進め方|LLMO/AIO で何をどう測るか【2026年版】が網羅的です。
用語の確認は SEO・LLMO・Perplexity・Profound・AI Overview・ブランドメンション・LLM の各用語集ページを順に押さえておくと、本記事の前提が腹落ちします。
FAQ
Q1. Sonar API の citations が空で返ってくることがあります。なぜですか?
A. 主に3つの原因があります。1つ目は return_citations: true の明示指定漏れ、2つ目はモデルが sonar-deep-research 等の特殊モデルでレスポンス構造が違う、3つ目はプロンプトが Web 検索を必要としない内容(例: 翻訳・要約のみ)になっているケースです。レスポンス JSON 全体をログに残し、citations/search_results/web_results のいずれのキーで返ってきているか確認してください。
Q2. Profound と Otterly.AI を併用する意味はありますか?
A. 通常はありません。両者は機能が大幅に重複しているため、片方だけで十分です。例外として、Profound のエンタープライズ機能(Agent Analytics)と Otterly.AI のロングテールプロンプトカバレッジを組み合わせる構成は、月額予算が$3,000以上ある大企業で稀に見ます。中小規模なら Otterly.AI または Sonar API 自前のいずれか1本を選んでください。
Q3. 月どれくらいのプロンプト数を回せば実用的な計測になりますか?
A. ブランド指名10件+カテゴリ50件+ロングテール100件=合計160件×日次で月4,800クエリが最低ラインです。Sonar API なら月$50以下、SaaS なら Otterly.AI Standard 相当で月$89に収まります。逆にプロンプト30件未満では揺らぎに飲まれて意味のあるシグナルになりません。
Q4. 引用されたが流入につながらないケースが多いです。改善策は?
A. Perplexity からの実流入を増やす要素は3つで、(1) 引用ポジションが上位3位以内、(2) ページタイトルとプロンプトの意味的一致、(3) クリックしたくなる要約の生成です。特に(1)が最重要で、引用ポジションは Sonar API レスポンス内の citations 配列の順番で確認できます。記事の冒頭に結論セクションを置き、Perplexity が要約として抽出しやすい構造にすることでポジションが改善するケースを多く見ます。
Q5. AthenaHQ の「Citation Gap」と Profound の競合分析は何が違いますか?
A. AthenaHQ の Citation Gap は「自社が引用されていない & 競合は引用されている」プロンプトを自動抽出し、コンテンツ改善の優先順位を提案する点が独自です。Profound の競合分析は SoV を時系列でビジュアライズする力が強い反面、改善提案までは踏み込みません。コンテンツ施策にすぐ結びつけたいなら AthenaHQ、経営報告のビジュアルが欲しいなら Profound という棲み分けです。
Q6. 内製スクリプトと SaaS、コスト分岐点はどこですか?
A. ざっくり月額$300(約4.7万円)が分岐点です。内製は Sonar API 利用料$50〜$150 + 開発・運用工数(月10時間×時給5,000円=5万円)で実質月額$300〜$500のコスト感です。SaaS は Otterly.AI Standard が$89なので一見安く見えますが、プロンプト上限・日本語精度・カスタマイズ性で内製が勝るため、エンジニア工数を確保できるなら長期的には内製が有利です。
Q7. PerplexityBot のクロール拒否を解除しても引用されない場合は?
A. 次のチェックリストを上から順に確認してください。(1) robots.txt で PerplexityBot を allow している、(2) User-Agent: PerplexityBot で実際にアクセスログが残っている、(3) Cloudflare/AWS WAF で AI bot を一括ブロックしていない、(4) サイトマップが Perplexity に発見されている、(5) ページ自体に E-E-A-T シグナル(著者情報・更新日・引用元)が揃っている。多くのケースで(3)の WAF ブロックが盲点になっています。Cloudflare の「AI Scrapers and Crawlers」ブロック機能はデフォルトで PerplexityBot も対象に含むため、明示的に許可リストに追加しないとサイレントに弾かれ続けます。
Q8. 計測結果を経営報告に使うとき、どんな指標を見せればいいですか?
A. 経営層が反応しやすい指標は3つです。1つ目は「カテゴリ SoV の前月比」で、自社カテゴリ全体での引用シェアが何ポイント変化したかを示します。2つ目は「競合別シェア」を100%積み上げ棒グラフで見せ、自社が競合をどれくらい奪取/逆に奪われているかを可視化します。3つ目は「引用 → 流入」のコンバージョン換算で、Sonar API ログと GA4 のリファラ「perplexity.ai」の流入数を月次で並べると、引用追跡投資の ROI を経営層に説明しやすくなります。Profound や AthenaHQ のダッシュボードをそのまま見せるより、自社の経営報告フォーマットに転記したほうが意思決定スピードが上がる傾向があります。
Q9. 1日に何回 Sonar API を回すのが最適ですか?
A. プロンプト1件あたり1日3回(朝・昼・夜)が推奨です。Perplexity の回答揺らぎは時間帯と直近の検索インデックス更新に影響を受けるため、1回だけだと偶然の結果に振り回されます。3回計測して引用 URL の集合の和集合を「その日引用された URL」として扱い、3回中2回以上引用された URL を「安定引用」と区別すると分析の質が上がります。クォータが厳しい場合は重要プロンプトのみ3回、ロングテールは1回に絞るハイブリッド運用も実用的です。実運用では JST 朝7時・昼13時・夜21時の3回で固定し、計測タイムスタンプを保存して時間帯別の引用揺らぎを別レポートで可視化するのもおすすめです。
関連用語
- E-E-A-T
E-E-A-Tとは、Googleがコンテンツ品質を評価する4つの観点「Experience(経験)・Expertise(専門性)・Authoritativeness(権威性)・Trustworthiness(信頼性)」のこと。SEOとLLMO両方で最重要の概念です。
- インデックス
インデックスとは、クローラーが集めたページをGoogleがデータベースに登録すること。インデックスされて初めて検索結果に表示される対象になります。「索引」とイメージすると分かりやすい用語です。
- キーワード
キーワードとは、ユーザーが検索エンジンに入力する単語やフレーズのこと。SEOでは「どのキーワードで上位を狙うか」を決めることが施策の出発点になります。
- クエリ
クエリとは、ユーザーが実際に検索窓に入力した検索語のこと。SEOで使う「キーワード」と似ていますが、キーワードが事前に狙う言葉、クエリが実際に打たれた言葉、というニュアンスの違いがあります。
- クローラー
クローラーとは、Web上のページを自動巡回してデータを集めるプログラムのこと。Googleの「Googlebot」が代表例で、これに見つけてもらわないと検索結果に表示されません。
- コンバージョン
コンバージョンとは、サイト訪問者がサイト運営者の望むアクション(購入・問い合わせ・登録など)を完了すること。SEOの最終ゴールはアクセス数ではなくコンバージョン数を増やすことです。