當遇到網站有大量的utm鏈接時如utm廣告鏈接,而且這些utm鏈接還有了谷歌排名,我們會疑惑,這些utm鏈接是否會影響規范頁面的排名,是否會對谷歌造成誤解? 那么我們該怎么辦呢?
正確的做法:
如果您的網站有來自外部鏈接的隨機參數 URL,這些 URL 無論如何都會隨著時間的推移被 rel-canonical規范標簽清理,不使用 robots.txt 阻止它們,規范標簽應該有助于處理帶有 UTM 參數的外部鏈接。
如果您自己生成隨機參數 URL,比如在內部鏈接中,或者從 feed 提交中,需要在源頭清理它們,從原頁面刪除utm參數,而不是使用 robots.txt 阻止它們。
-
網站應該盡量保持其內部 URL 的干凈和一致。
錯誤的做法:
使用 robots.txt 文件中的“Disallow”指令阻止 utm參數是錯誤的做法,這樣會導致的后果有:
導致Google Adsbot 也無法抓取頁面的utm。Adsbot 無法抓取目標網址,這意味著網站的廣告會被拒登。
被robots.txt屏蔽的帶utm參數的網址,谷歌將不知道頁面上的內容,也不會發現頁面上的rel canonical標簽,因此谷歌是很有可能選擇索引帶utm參數的網址,并有可能給予排名。
總結:
是否使用robots阻止谷歌抓取utm參數鏈接,需要根據實際情況而定,另外,禁止使用包含utm參數的URL不會幫助提高 Google 搜索的抓取或評級。
文章為作者獨立觀點,不代表DLZ123立場。如有侵權,請聯系我們。( 版權為作者所有,如需轉載,請聯系作者 )

網站運營至今,離不開小伙伴們的支持。 為了給小伙伴們提供一個互相交流的平臺和資源的對接,特地開通了獨立站交流群。
群里有不少運營大神,不時會分享一些運營技巧,更有一些資源收藏愛好者不時分享一些優質的學習資料。
現在可以掃碼進群,備注【加群】。 ( 群完全免費,不廣告不賣課!)