一个页面收录两条不同的URL怎么办?往往这样的是因为我们网站建设时页面程序没处理好造成的,一个页面同时有静态页面,也有动态链接的,这样时间久了对我们的网站没有好处的,百度会认训是重复的页面,对我们的网站SEO优化是有不好的作用的,那们应该怎么办呢,我们煜阳公司简单给你说下,希望可以帮助到您。
一个页面收录两条不同的URL,我们在对网站开始进行优化之前,会忽略非常重要的一点,就是网站上的robots文件,robots文件的作用是告诉搜索引擎蜘蛛,这个网站上什么内容是可以抓取的,哪些内容是禁止抓取的。当robots文件制作完成之后,放在网站ftp的跟目录之下,就搞定了。
User-agent禁止访问抓取系列:
User-agent: *
这里的*好是通配符,意指所有的搜索引擎都可以抓取,包括百度、搜狗、360等等
Disallow:/*?*
禁止蜘蛛抓取网站上所有的动态url页面
Disallow:/123/*?*
禁止蜘蛛抓取网站上123目录下的所有动态页面,不影响抓取网站123目录中的其它内容
Allow允许抓取访问系列:
Allow的意思是允许蜘蛛访问抓取的意思,在写robots文件的时候一定要注意一件事,就是在书写的时候,一定要将allow放在disallow前面,才能不受disallow的影响,其它的写法参考disallow的书写方式,这里就不凑字数了。
一个页面收录两条不同的URL我们用robots.txt文件名称一定要小写的,不要大写。有了完整的robots文件,搜索引擎在抓取的时候才会更加的方便,利于对网站的提升。