通常是说在
Web服务器上使用一定的手段,对搜索引擎中的巡回机器人显示出与普通阅览者不同内容的网页。
不过大多数的搜索引擎都把这个手法看作不正当的行为,对进行了Cloaking的网站惩以从目录中排除,或是大幅度地降低排名等处置。由于搜索引擎方仅仅通过巡回机器人并不知道网站是否用了Cloaking,所以一般对不自然地排列到名单前面的网站采取人为的检查等对策。Cloaking的工作机制:
这个黑帽SEO,制作了
隐形页面(Cloaked Page):隐形页面是对搜索引擎显示的网页版本(与对使用者显示的版本不同),意图蒙骗搜索引擎及影响该网页在搜索索引中的排名。 如果你是用IE,
火狐或其他
浏览器来打开这些被黑的网站,这个技术会对访问者的User Agent进行了判断,对于所有没有声称身份的访问,包括Baiduspider Googlebot等搜索引擎爬虫返回另一个结果,如果你要识别这种欺骗,你需要修改自己的浏览器设置,以搜索引擎爬虫的方式来浏览网页:
设置方法,打开
火狐,Ctrl+T新建一个浏览标签,输入:about:config,打开配置页面,右键点击页面选择“新建→字符串”,在弹出的窗口中 输入:general.useragent.override,确定之后,输入:Googlebot/2.1,继续确定,关闭窗口。
使用iis rewrite服务器伪静态工具,可以实现根据用户
浏览器类别进行跳转 ,也就是当访问此页面的类型是Googlebot/2.1或Baiduspider那么执行命令跳转相应
黑页:
如果你是短时间内征服一个搜索引擎,那么建议你使用Cloaking,如果你是长期的做好一个网站那么就认真做站不需要任何作弊手法,其实Cloaking不单单是被大家认为成了作弊,如果把Cloaking使用得当的话也不失为一个好的手段!
指对某一个网页制作了两个版本,让搜索引擎和浏览者分别看到不同的网页内容(采用识别访问者身份的技术)。搜索引擎抓取这个网页时,获得的是纯粹为了优化某些关键词而组织的内容,而网页浏览者看到的是另一个截然不同的内容。