• 数据统计:
  • 主题分类:124
  • 总收录数:15363
  • 等待审核:14491
  • 新闻资讯:1712
  • 快速审核:20元/个
  • 好站推荐:30元/月
  • 联系QQ: 584415406 点击这里给我发消息
  • 凯哥SEO博客
    凯哥SEO博客(dtseo.org)关键词SEO优化_SEO网站优化顾问推广服务。
    查看详情>>
  • 168小说网
    168小说网(ii168.cn)专注于玄幻小说搜索,新版168小说网,提供最全的小说保持最快的更新,方便大家愉快地阅读玄幻小说。
    查看详情>>
  • 零编码源码下载
    零编码发布的网站源码程序,凡是带有演示的,提供站长网站建设源码下载交流.
    查看详情>>
  • 广告位
    9119网站目录免费收录各类优秀中文网站,提供网站分类目录检索,关键字搜索,提交网站即可免费快速提升网站流量.
    查看详情>>
  • 当前位置:9119网站目录 » 站长专栏 » 搜索优化 » 文章详细 订阅RssFeed

    常见的搜索引擎优化问题以及解决方法

    来源:网站目录 浏览:26次 时间:2019-11-16

      通常,客户端(浏览器)会发送接受标头,指出它能理解的文件类型,这几乎不会修改服务器的操作。服务器端会发送内容形式标头,来识别文件是HTML,PDF或者是JPEG之类的。

      其次,告诉网站开发人员网站的动态,以便定期更新。根据你的资源来确定周期:每天一次,每周一次或者是每月一次。这些更新绘画一些时间,但是从长远来说会节省你很多时间的。

      在继续之前,我们要解决另外一种常见的相关问题:URL可能对搜索引擎不友好是因为他们不是数据库驱动的。在这个特殊情况下,我并不担心以上的问题,我更担心的是蜘蛛资源浪费和一些不需要的页面被索引了。

      用谷歌管理员工具中的一些功能可以帮助你找到软404页面,它会告诉你已经检测到的软404页面。

      在有数据库驱动的电子商务网站,这种问题很常见。也并不是说其他类型的网站没有,但是一般电子商务网站上有大量的产品属性和筛选选项,如颜色,大小等。在这种情况下,用户点击的URL在搜索引擎优化方面都比较友好,但是可以常常看到有很多链接的结尾是像我下面的例子这样的:

      XML网站地图对于搜索引擎蜘蛛爬取网站的所有链接是非常有用的,虽然有时候它不是非常必要。Sitemap可以正确引导搜索引擎。

      更大的问题是,这些信任凭证(authentication tokens)是动态生成的,并且独一无二,因此我们找不到。

      在IIS 7服务器上有一个URL重写模块,可以帮助解决这个问题。在这个工具的界面上,你可以执行小写的URL,之后这条规则就会加到网站的配置文件中,从而解决问题。

      针对这个情况,很幸运,我们可以通过添加Regex到robots.txt文件中,告诉蜘蛛不要爬行这些URL。

      把浏览器的用户代理改成Googlebot并不会影响HTTP标头,像websniffer这种工具不会发送跟Googlebot一样的标头,因此,你根本不会注意到这个问题。

      小提示:你可以查看每条URL的谷歌缓存,来看是否有问题。如果谷歌没有发现重复的URL是一样的,你可以看到这写URL不同的PR和缓存日期。

      我最近帮客户做了一个技术审核,发现谷歌管理员工具给我一个警告:“语法不理解”。我检查了一遍文件,然后测试了一下,一切都很正常。最后我的同事诊断出了问题:在文件中发现了一个隐藏字符。

      解决这个问题很简单。简单重写robots.txt文件,然后运行一遍命令,再重新检查。

      我遇到了一个问题,某个网站的主登录页没有排名。这个页面以前是有排名的,但是在某个时候掉下来了。所有的页面看起来都不错,看不出有任何的作弊嫌疑。

      现在很多人都在做搜索引擎优化,大的方向每个人都懂:内容,标题,关键字,外链等等。但是要想比别人做得更好,就需要看细节的东西了。

      要找到302重定向的URL,我建议用Screaming Frog或者是IIS SEO Toolkit这两个工具,它们可以进行深度爬行。然后检查看它们是应该用302重定向还是301.

      幸运的是,对于网站开发人员来说,返回一个404状态比200要相对简单很多。

      如果URL还没有被索引,最简单的方法是把URL结构添加到robots.txt文件中。要完成这个可能需要多尝试一下RegEx,请确保RegEx是正确的来以防万一。此外一定要使用谷歌的管理员工具Fetch, 需要注意的是,把已经被索引的URL添加到Robots.txt文件中不会让 他们从索引库中被删除。

      我很喜欢用Web Sniffer这个工具来检测,如果你是用Chrome浏览器的话,也可以用Ayima这个工具。

      请记住,谷歌是根据你网站的PR值来分配蜘蛛资源的。请确保这些蜘蛛资源有充分的利用。

      在这个例子中,某种颜色是作为筛选产品类别的依据。这种筛选方法对于用户来说是很好的,但是对搜索引擎就不好了,尤其是有时候客户并不是用颜色来搜索某个特定的产品。在这种情况下,对某些关键词来说,这个URL就不是一个好的登陆页。

      最近遇到一些例子,很多页面被爬取和索引是因为他们被锁定在robots.txt文件中。这些页面之所以会被爬取是因为robots.txt文件中的指令是错误的。单独的命令是正确的,但是结合在一起是就是错误的。

      但是,一些XML sitemaps是一次性的,很快就过时了,导致一些坏链接还在里面,但是新的链接却没有。

      尽管路径不一样,但是这两个URL返回的是相同内容,搜索引擎会认为这些页面是重复内容。

      你也可以自己手动检测,随便用一个坏链接来测试,看看你得到的返回状态是什么。

      软404页面意味着你发现不了真正的错误页面,也找不到网站上那些地方对用户体验不好。从链接建设的角度看,哪个方法都不是最佳选择。可能你有过来的链接链到了坏的URL上,但是却很难追踪这些链接,然后重定向到正确的页面。

      这个问题常见于使用术的网站,事实上是因为网站服务器在配置上就是要响应大写的URL,它不会重定向或者重写小写的版本。随着搜索引擎在识别标准版本和忽略重复版本的技术上有了很大的进步,我们也常常不关注这个问题。但是,搜索引擎并不完美,所以我们必须要自己动手。

      这种情况通常不在预料中,用户没有觉得什么不一样,但是搜索引擎蜘蛛知道不同之处。

      在电子商务网站,每个产品都有其关联的属性,这也是数据库的一部分。下面是一些常见的例子:

      把rel=canonical标签添加到你不想被索引的URL上,然后指向不想被索引的相关URL。

      谨慎使用robots命令,如果有单独的指令,要确认接下来的其他指令是什么,即使是这些指令已经被提到过。充分利用谷歌管理员工具的测试功能,它会告诉你它对你的robots.txt文件的反应。

      我发现,如果我发送*/*标头,服务器就会挂掉,因为*/*不是一个有效的内容类型,服务器会崩溃,发送错误的响应。

      本文列出了一些常见搜索引擎优化问题,以及具体的解决方案,希望对相关的人员有所帮助。

      首先要解决的是哪些页面是要蜘蛛爬取和索引的,这个取决于你的关键字研究,你需要交叉引用数据库中核心关键词的属性。

      要解决这个问题,你可以要求网站开发人员改变规则,用301重定向而不是302。

      我比较倾向于301转向,将其他重复页面指向到我们确定的那个首页,你也可以通过添加rel=canonical标签来解决这个问题。

      另一种方案是使用工具,例如Screaming Frog,来模拟蜘蛛爬行,找出指向重复页面的链接。然后你可以编辑这些重复的页面,指向正确的URL,这样就不需要通过301转向而担心链接权重的降低。

      首先,审核你当前的sitemap,找出坏链接。可以用Mike King这个工具。

      如果URL已经被索引,我们需要用rel=canonical标签来解决。如果不巧网站正在开发中,你不能进行修改的工作,你会像上面遇到的情况一样不能解决核心问题,这时候,rel=canonical标签可以帮助你延迟一点解决问题。

      经过大量的调查和挖掘,最后发现原来是由于服务器的错误配置,一个小小的错误造成的,这个服务器是HTTP标头的。

      但是,Googlebot在爬行的时候会发送Accept:*/*(表示它接受所有的东西)。

      当很多的参数结合起来的时候,可能会导致蜘蛛资源被用尽。更糟糕的是,有时候尽管参数的位置不一样,但是却返回相同的内容,例如:

      你的工作是要找出哪些属性是关键词的一部分,用户可以找到这个产品。还要确定用户需要使用哪些属性的组合。这样做后,你可能会发现一个搜索量很高的关键词是North Face + waterproof jackets(防水夹克)。这时,你需要做一个被爬行和索引的North Face + waterproof jackets登陆页。还要确保数据库属性中有一个对搜索引擎友好的URL,不是waterproof-jackets/?brand=5 而是waterproof-jackets/north-face/.还要将这些URL添加在网站的导航结构中,PR值可以传递,用户也很容易找到。

      理想的状态是,要定期更新XML sitemap,删除坏链接并添加新链接。对于一个大的网站来说,经常添加新页面是很重要的。Bing也说过,他们对于sitemap的“脏乱”也是有一个临界值的,如果超出了这个临界值,他们就不那么信任这个网站。

      另一方面,你可能会发现Northface+Black这个组合的关键词搜索量很低。你也就不会想要Northface+Black这两个属性的页面被爬行和索引。

      管理员工具会告诉你这些404的来源,我们就去页面找这个URL是怎样生成的。经过大量的挖掘,我们发现这些信任凭证(authentication tokens)都是Ruby on Rails生成的,是为了防止跨站点请求。在网页的代码中有一些,谷歌蜘蛛还试图去爬取这些信息!

      这家网站的服务器返回的是文件类型标头。如果你发送的接受标头是以text/html开头,那是服务器作为内容类型标头返回的内容。这种行为很特别,但是很难注意到,因为浏览器总是发送以text/html开头的接受标头。

      当然,现在搜索引擎也会帮你解决这个问题,但是最好的做法是第一时间自己解决。

      301重定向是永久性的,搜索引擎认为它会传递权重到新的页面。302重定向是临时的,搜索引擎认为它不会传递权重,因为搜索引擎觉得某天这个页面又会回来。

      网站开发人员很容易将这个重定向弄错,因为从用户的角度来看,两者没有区别,但是搜索引擎确实分别对待的。

      要发现这些网页可能会有点棘手,因为不同的平台有不同的URL结构,所以解决方法有点像猜谜。你可以用工具模拟蜘蛛爬行你的网站,导出excel表的爬行记录,筛选Meta标签,搜索网站首页标题,很容易就可以找到重复的首页。

      如果你已经清楚哪些属性是要被索引的,哪些不需要,下一步行动要不要开始取决于URL有没有被索引。

      这里有个额外的提示:你可以尝试创建一些sitemap,只包含最新的产品,然后以更高的频率来更新这些特定的sitemap。如果你有足够的开发资源,也可以创建一个sitemap,只包含没有索引的URL。

      
    转载请注明-原文链接:http://www.9119.net.cn/artinfo/1012.html
    好站推荐
    1
    零编码 - 网站源码程序下载_免费商业源码分享
    零编码发布的网站源码程序,凡是带有演示的,均经过站长亲测调试运行,保证前后台皆可正常访问登陆,提供站长网站建设源码下载交流
    2
    9119网站目录-分类目录_网站目录_网站提交_分类目录网站大全
    9119网站目录免费收录各类优秀中文网站,提供网站分类目录检索,关键字搜索,提交网站即可免费快速提升网站流量.
    3
    网赚平台
    魔网赚市一个集网赚,网赚平台,赚钱,网赚项目,游戏推广,网上赚钱,网络赚钱,网络推广为一体的网络赚钱推广平台!
    4
    首页 - 中国教育考试网
    中国教育考试网 中国教育部考试中心 考试
    5
    便给网
    找源码就上便给网!便给网涵盖了网站源码下载,Dedecms织梦模版,DZ模板,端游页游棋牌源码,优质资源分享网
    6
    人民网_网上的人民日报
    人民网,是世界十大报纸之一《人民日报》建设的以新闻为主的大型网上信息发布平台,也是互联网上最大的中文和多语种新闻网站之一。作为国家重点新闻网站,人民网以新闻报道的权威性、及时性、多样性和评论性为特色,在网民中树立起了“权威媒体、大众网站”的形象。
    7
    360旅游网
    360旅游频道,聚合全网知名旅游网站特价信息,包括景点、酒店、火车票、机票、门票、旅游资讯等,为您推荐优质低价的旅游产品,提供全方位旅行服务!
    8
    众安保险
    众安保险是国内首家互联网保险公司,由蚂蚁金服、中国平安、腾讯联合发起设立;众安保险业务涵括医疗保险,重疾保险,大病保险,健康医疗保险,意外保险,少儿保险,女性保险,成人保险,中老年保险,航旅保险,旅游保险,团体保险,汽车保险等综合保险;众安保险定位于服务互联网生态,做更好的保险服务,未来,和你一起,更精彩!做有温度的保险!
    9
    瓜子二手车
    北京瓜子二手车个人二手车交易提供以下保障:1、只提供最佳车况的个人二手车;2、最苛刻的检测标准保证0事故;3、无中间环节透明无差价;4、陪同交易免费代过户;5、无理由退车超长质保售后无忧。个人买卖二手车,就上瓜子二手车!
    站长新闻
    收起
    展开