WebSeoHK - 網路知識庫 - 2025-09-07

Disallow 與 Allow 指令的精細運用技巧

Disallow 與 Allow 指令在 robots.txt 中用於精細控制搜尋引擎爬蟲對網站內容的訪問權限。Disallow 指令用來明確禁止爬蟲抓取特定目錄或頁面,而 Allow 指令則用於例外允許某些被 Disallow 阻擋範圍內的特定路徑或檔案被爬取。

精細運用技巧包括:

  • 結合使用 Disallow 與 Allow 以達到例外控制
    例如,禁止整個目錄,但允許該目錄下的某些檔案或子目錄被抓取:

    Disallow: /private/
    Allow: /private/public-info.html
    

    這樣可以阻止爬蟲抓取 /private/ 目錄下大部分內容,但允許抓取 public-info.html。

  • 針對不同爬蟲設定不同規則
    透過多個 User-agent 區塊,分別為特定爬蟲設置不同的 Disallow 和 Allow,實現更精細的控制:

    User-agent: Googlebot
    Disallow: /no-google/
    
    User-agent: *
    Disallow: /private/
    Allow: /private/allowed.html
    

    這樣可針對 Googlebot 與其他爬蟲分別限制訪問範圍。

  • 使用通配符與特殊符號

    • * 表示任意字元,$ 表示結尾,能精確匹配 URL 模式。
    • 例如,阻擋所有帶有參數的網址(含 ?):
      Disallow: /*?
      
    • 但允許以 ? 結尾的網址:
      Allow: /*?$
      

    這種用法可避免重複內容被抓取,提升 SEO 效果。

  • 允許特定功能性檔案訪問
    例如 WordPress 中常見的 ajax 請求檔案,雖然整個管理目錄被禁止,但允許 admin-ajax.php 被抓取:

    Disallow: /wp-admin/
    Allow: /wp-admin/admin-ajax.php
    

    這樣確保網站功能正常同時限制爬蟲訪問敏感區域。

  • 結合 Sitemap 指令提升爬取效率
    在 robots.txt 中加入 Sitemap 路徑,幫助爬蟲更有效率地發現網站頁面,配合 Disallow/Allow 指令達到最佳 SEO 效果。


所以,Disallow 與 Allow 指令的精細運用關鍵在於結合多條規則、針對不同爬蟲分別設置、利用通配符精確匹配 URL 模式,以及例外允許特定重要資源訪問,從而達到最佳的爬取控制與網站優化效果。

網路圖片

WebSeoHK 為香港、澳門和內地提供業界最優質的網站流量服務。我們為客戶提供多種流量服務,包括網站流量、桌面流量、行動流量、Google流量、搜索流量,電商流量、YouTube流量、TikTok流量。我們的網站擁有 100% 的客戶滿意度,因此您可以放心地在線購買大量 SEO 流量。每月僅需 90 港幣即可立即增加網站流量、提高 SEO 效能並增加銷售額!

您在選擇流量套餐時遇到困難嗎?聯繫我們,我們的工作人員將協助您。

免費諮詢

免費諮詢 客服支援

挑選方案需要幫助嗎?請填寫右側表單,我們將回覆您!

Fill the
form