我可以阻止蜘蛛通过某些GET参数访问页面吗?

| 我们有一个页面,可以选择将ID作为GET参数。如果提供了无效的ID,则该页面将引发错误并发出通知,提示某人正在错误地访问该页面。让ID生效的是,ID可以有效一段时间,然后失效。 我们遇到了一个问题,即搜索引擎机器人正在使用过期的过期ID来访问该页面。这意味着,每当我们抓到蜘蛛时,就会收到一堆“误报”警报。我很想有办法告诉机器人继续抓取页面,但不要使用GET参数-只需索引无参数页面即可。使用robots.txt文件或类似文件甚至可以远程实现吗? 注意:我知道解决此问题的最佳方法是更改​​页面的行为,并且实际上是在几周内发生。在此期间,我只是在寻找解决方案。     
已邀请:
在检查_GET的if语句中,放入以下HTML:
<meta name=\"robots\" content=\"noindex, nofollow\">
<meta name=\"googlebot\" content=\"noindex, nofollow\">
    
您可以通过robots.txt中的以下内容建议蜘蛛程序忽略URL的某些部分:
User-agent: *
Disallow: *id=
编辑以澄清这一点:这将导致蜘蛛忽略GET字符串中id = blah的所有URL,这不会神奇地“剥离” id =部分。但是,这实际上是您想要的,因为没有\“?id = \”参数的普通URL返回要索引的数据。     

要回复问题请先登录注册