我正在为我的一个朋友创建一个网站,他希望在我工作期间能够看到我的进度,因此我决定将该网站放在我计算机上的服务器上,并允许通过注册给我的域名进行访问。

事实证明,我忘了为该网站设置robots.txt文件,但以某种方式Google对该网站建立了索引。

我的问题是:现在我该怎么办?

据我了解,Google不喜欢重复的内容,所以当我上传新网站时,我的朋友可能会遇到问题到他的服务器。

现在,他当前的网站(只有一个正在开发的页面)在搜索相关关键字时首先出现在Google上,我真的不想破坏它。

还有什么我需要关注的吗?

评论

+1无需任何努力即可将相关关键字排在网站首位! :)大声笑,我希望那会发生在我身上。 :(

#1 楼

将robots.txt文件添加到您的服务器,然后使用Google网站站长工具请求从Google索引中删除这些页面。然后,您应该将301重定向设置为在新站点上线时生效。

评论


您是否知道使用Google网站站长工具进行删除请求需要多长时间?我在几个小时前下达要求,但仍在等待。那是正常的吗?

– AndrejaKo
2011年3月8日14:17

当我以前在被黑的网站上使用它时,花了几天的时间才能删除所有链接。反正要几个小时。

– Ewan Heming
2011-3-9在2:23

#2 楼

1)使用robots.txt

立即阻止您现在使用的站点。2)在开发站点上,使用规范的URL指向新站点,以便该站点获得内容的信誉。他们确实跨域工作。此元标记也可能有帮助。

3)启动后,使用301从开发站点重定向到新站点,以便Google知道这些页面已移至新URL

评论


很高兴知道规范标记跨域工作,因为我认为它只是在同一个域内-这是过去的变化吗?

– Ewan Heming
2011-3-9在2:22

#3 楼

将来,您应该在Apache或IIS中为测试页设置基本身份验证。这不仅会阻止索引编制(即使是来自不遵守robots.txt的蜘蛛的索引编制),还将阻止随机用户进入您的网站并看到您不希望公开的内容。

评论


也许我们所有人都应该在开发站点上做更多的事情...

– Ewan Heming
2011-3-9的2:28

#4 楼

从Google的搜索结果中删除页面或网站-http://www.google.com/support/webmasters/bin/answer.py?answer=164734