资讯中心

为什么我的网站已经加了robots.txt,还能在百度搜
  资讯来源:海力源码    发布时间:2022-8-28 17:54:31
  因为搜索引擎索引的更新需要时间。虽然Baiduspider已经停止访问您网站上的网页,但百度搜索引擎中已经建立的网页索引信息,可能需要数月时间才会清除。另外也请检查您的robots配置是否正确。

  如果您的拒绝被收录需求非常急迫,也可以通过反馈中心反馈请求处理。
上一条:访客访问你的网站时为什么会秒关你的网站
下一条:如果发现移动站流量波动,该怎么办?


Copyright www.hailiym.com © 2022