事实证明,我忘了为该网站设置
robots.txt
文件,但以某种方式Google对该网站建立了索引。 我的问题是:现在我该怎么办?
据我了解,Google不喜欢重复的内容,所以当我上传新网站时,我的朋友可能会遇到问题到他的服务器。
现在,他当前的网站(只有一个正在开发的页面)在搜索相关关键字时首先出现在Google上,我真的不想破坏它。
还有什么我需要关注的吗?
#1 楼
将robots.txt文件添加到您的服务器,然后使用Google网站站长工具请求从Google索引中删除这些页面。然后,您应该将301重定向设置为在新站点上线时生效。评论
您是否知道使用Google网站站长工具进行删除请求需要多长时间?我在几个小时前下达要求,但仍在等待。那是正常的吗?
– AndrejaKo
2011年3月8日14:17
当我以前在被黑的网站上使用它时,花了几天的时间才能删除所有链接。反正要几个小时。
– Ewan Heming
2011-3-9在2:23
#2 楼
1)使用robots.txt立即阻止您现在使用的站点。2)在开发站点上,使用规范的URL指向新站点,以便该站点获得内容的信誉。他们确实跨域工作。此元标记也可能有帮助。
3)启动后,使用301从开发站点重定向到新站点,以便Google知道这些页面已移至新URL
评论
很高兴知道规范标记跨域工作,因为我认为它只是在同一个域内-这是过去的变化吗?
– Ewan Heming
2011-3-9在2:22
#3 楼
将来,您应该在Apache或IIS中为测试页设置基本身份验证。这不仅会阻止索引编制(即使是来自不遵守robots.txt
的蜘蛛的索引编制),还将阻止随机用户进入您的网站并看到您不希望公开的内容。评论
也许我们所有人都应该在开发站点上做更多的事情...
– Ewan Heming
2011-3-9的2:28
评论
+1无需任何努力即可将相关关键字排在网站首位! :)大声笑,我希望那会发生在我身上。 :(