
AI対応ウェブサイトチェックリスト:AI エージェント向け最適化の 21 ステップ
ChatGPT、Claude、Perplexity、その他すべての AI エージェントが読める・見つけられる・操作できるウェブサイトを作るための実践的チェックリスト。
AI対応ウェブサイトチェックリスト
AI エージェントは、ウェブサイトトラフィックの中で占める割合が増え続けています。ChatGPT、Claude、Perplexity、ショッピングアシスタント、リサーチボットが毎日何百万ものページを訪問していますが、ほとんどのウェブサイトはそれらに対応するように作られていません。
このチェックリストは、今日から実行できる 21 の具体的なステップを、4つの重要な側面に沿って整理しています:発見可能性、可読性、信頼性、操作性。
発見可能性:AI エージェントはあなたを見つけられますか?
エージェントがコンテンツを発見できなければ、他のすべては意味をなしません。
1. robots.txt で AI クローラーを許可する
robots.txt が AI クローラーをブロックしていないか確認してください。多くのサイトが意図せず GPTBot、ClaudeBot、PerplexityBot などの user agent をブロックしています。
User-agent: *
Allow: /
2. sitemap.xml を追加する
サイトマップは、エージェントがリンクを一つずつたどることなく、すべてのページを発見できるよう支援します。robots.txt で参照されており、すべての重要なページが含まれていることを確認してください。
3. llms.txt ファイルを追加する
llms.txt 標準は、あなたのサイトが何を提供し、どのようにアクセスするかを AI エージェントに伝えます。LLM 版の robots.txt——サイトレベルの案内ファイルと考えてください。効果的なllms.txtの作成ガイドをご覧ください。
4. 構造化データを追加する (JSON-LD)
JSON-LD 形式の Schema.org マークアップは、エージェントが HTML を解析することなくページの内容を理解するのに役立ちます。少なくとも @type、name、description、およびコンテンツタイプに関連するプロパティを含めてください。
5. Open Graph タグを追加する
Open Graph タグ(og:title、og:description、og:type、og:image)は、ソーシャルプラットフォームだけでなく、AI エージェントによるコンテンツのプレビューや分類にも使われます。
6. フォームに WebMCP 属性を追加する
WebMCP は、フォームを AI エージェントのツールとして宣言できる W3C 標準です。<form> 要素に toolname と tooldescription 属性を追加することで、エージェントがスクリーンスクレイピングなしで直接フォームを発見・利用できるようになります。WebMCP ガイドをご覧ください。
可読性:AI エージェントはあなたを理解できますか?
ほとんどのウェブページは 90% 以上が定型コードです。エージェントにはクリーンで構造化されたコンテンツが必要です。
7. セマンティック HTML を使用する
<main>、<article>、<section>、<aside> などのタグは、実際のコンテンツがどこにあるかをエージェントに伝えます。これらがないと、エージェントには <div> 要素の無秩序な集まりにしか見えません。
8. 単一の説明的な H1 を追加する
H1 は、エージェントがページのテーマを理解するための最も重要なシグナルです。正確に一つだけ使用し、説明的なものにしてください——「ようこそ」や「トップページ」は避けましょう。
9. 意味のある見出しを使用する
見出し(<h2>、<h3>)はセクションの内容を要約するべきです。エージェントはこれらを使ってスマートにスキャンします——すべてを読まずに構造を把握します。「その他の情報」のような汎用的な見出しは避けましょう。
10. 画像に alt テキストを追加する
alt テキストがないと、画像は AI エージェントにとって見えません。alt テキストがあれば、エージェントはビジュアルコンテンツを理解し、回答で参照できます。
11. 説明的なリンクテキストを使用する
汎用的なリンクテキスト(「ここをクリック」「続きを読む」「詳しくはこちら」)を説明的なラベルに置き換えましょう。エージェントはリンクテキストを使って、そのリンクをたどる価値があるか判断します。
12. コンテンツに JavaScript を依存しない
AI エージェントやクローラーは JavaScript を実行できません。コンテンツがクライアントサイドレンダリングに依存している場合(SSR なしの React、Vue、Angular SPA)、すべての AI エージェントにとって不可視です。SSR または静的生成を使用してください。
13. HTML の肥大化を減らす
不要なインラインスタイル、空要素、非セマンティックなマークアップを削除しましょう。HTML のノイズが少ないほど、エージェントが体験する信号対ノイズ比が向上します。
信頼性:AI エージェントはあなたを信頼できますか?
信頼シグナルは、エージェントが正確性を検証し、あなたのページを引用すべきか判断するのに役立ちます。
14. meta description を追加する
Meta description は、エージェントがページ全体を読まないときに使用する簡潔な要約です。160 文字以内で、具体的かつ正確に記述しましょう。
15. canonical URL を設定する
<link rel="canonical"> は、エージェントがコンテンツの重複バージョンをインデックスするのを防ぎます。URL パラメータ、ページネーション、印刷版がある場合は必須です。
16. 言語を宣言する
<html> の lang 属性は、コンテンツの言語をエージェントに伝えます。シンプルですが見落とされがちで、理解精度に直接影響します。
<html lang="ja">
17. コンテンツを最新に保つ
エージェントは日付に注目します。構造化データに datePublished と dateModified を含めてください。古いコンテンツは信頼を失います。
18. ETag または Last-Modified ヘッダーを使用する
これらのヘッダーにより、エージェントはすべてを再ダウンロードすることなくコンテンツの変更を確認できます。効率的なキャッシュは、きちんと管理されたサイトであることの証です。
操作性:AI エージェントはあなたとインタラクションできますか?
エージェントウェブの未来はトランザクショナルです。エージェントがあなたのアクションを見つけられなければ、コンバージョンを逃してしまいます。
19. コンテンツ内に明確な CTA を定義する
「今すぐ購入」「登録」「デモを予約」などのボタンは、視覚的なスタイルだけでなく、HTML コンテンツ内で明確に記述する必要があります。エージェントはテキストと HTML 構造からアクションを識別します。CSS からではありません。
20. コンテキスト付きのセマンティックリンクを使用する
リンクには、行き先を説明する記述的なテキストを付けましょう。「料金はこちらをクリック」ではなく「料金プランを見る」としましょう。これにより、エージェントは目的を持ってサイトをナビゲートできます。
21. メインコンテンツを最初に配置する
エージェントは最初の数百文字をスキャンして、ページが関連性があるか判断します。実際のコンテンツの前にナビゲーションや定型コードしか見つからない場合、ページを完全にスキップするかもしれません。H1 とメインコンテンツを HTML のできるだけ上部に配置しましょう。
チェックリストのその先へ:MAKO レベル
上記のすべては、既存の HTML フォーマットで AI エージェント向けにサイトを改善するものです。しかし限界があります——完璧に最適化された HTML でも、必要な量の 15〜20 倍の tokens を送信してしまいます。
次のレベルは、content negotiation を通じて HTML と並行して構造化された AI ネイティブコンテンツを配信することです。それを実現するのが MAKO プロトコルです。同じ URL、同じサーバーですが、AI エージェントがアクセスすると、生の HTML の代わりにメタデータ付きの最適化された markdown を受け取ります。
結果:約 94% の tokens 削減、エージェントが実行できる宣言的アクション、そして目的を持ってたどれるセマンティックリンク。
現在のレベルを測定する
このチェックリストの各項目は、MAKO Score の具体的なチェックに対応しています。MAKO Score は、サイトを 4 つの側面(発見可能性、可読性、信頼性、操作性)で評価し、 0 から 100 のスコアを付与する無料の監査ツールです。
最適化されていないほとんどのサイトは 30〜40 点です。このチェックリストで 60 以上、MAKO を導入すれば 90 以上を達成できます。