robots.txt生成ツール
検索エンジンがページをクロールする方法を制御するために、ウェブサイト用のrobots.txtファイルを作成します。
Presets:
Rules
User-agent: *
Disallow: /admin/
Disallow: /private/robots.txt - 技術的な詳細
The robots.txt file tells web crawlers which URLs they can access on your site. It's placed at the root of your domain (e.g., example.com/robots.txt). While crawlers should respect these rules, they are not enforceable—use authentication for truly private content.
コマンドラインでの代替方法
# Test your robots.txt\ncurl https://example.com/robots.txt\n\n# Check if a URL is blocked\n# Use Google Search Console's robots.txt Tester