Google SEO人员易犯的三个SEO错误及应对措施

三个Google SEO易犯的SEO错误及应对措施

 

虽然SEO对大部分人来说并不是新鲜事物,众人瞩目的中心似乎已经转移到了其他话题,比如内容营销,但SEO永远不会消失,因为关于如何将网址编入索引以及他们如何被搜索引擎感知是SEO被关注的问题。当你还在想你能获取多少有机能见度和流量的时候,杰欣网络营销机构提醒:你需要确保你没有在犯以下的几个愚蠢问题。
1. 让链接股本相继消亡
正如人们常说的,链接就像SEO的右腿。当然,左腿是现场SEO,但需要重点理解的是你在搜索引擎领域的信誉很大程度上依赖于你的链接简历。Jeasin.com举几个链接股权管理不善的例子。
常见的第一个错误是,让链接股权页面消亡。也许你最近在重新设计页面的时候打算巩固加强网页而不是重新定向这些页面,你现在是任由他们处于在一个404错误代码的深渊。这不允许用户和爬行搜索引擎从链接页面跳转到你的页面,而且由于这一点,链接股权也不能通过。
其次,你足够用心地来重新定向这些页面,但是是通过一个302临时重定向做到这一点的,所以你没有使链接股权最大限度地通过并跳转到新的页面。
怎样应对?
看Open Site Explorer的首页部分。这部分会向你展示你的网站链接到他们网站的外链。你可以判断这些链接的页面是否处于404或302的状态。另外,回顾你在Crawl Information 和 Robots.txt Exclusion 部分的Bing Webmaster Tools账户, 了解你扣除抓取和这些页面拥有的链接数量。
2. 除外责任管理不善
我们把想要提高排名的内容展示给搜索引擎是必要的。然而,许多网络团队经常犯的错误是不小心地把没有索引标签的Meta Robots包含到页面内。这其中的典型错误是你有网页但是你不希望搜索引擎看到它们,所以你在主页地址的Head部分采用了Meta Robots排外。当页面产生之后,标签的移除会被遗忘。很快,由于没有索引排斥这些网页将会从搜索引擎的页面中剔除。
有时由于不恰当的指令,抓取会被剔除掉。如果你的网站里有一个机器人文档,添加的文件可能告诉搜索引擎不要抓取特定页面,文件夹或页面类型。虽然这并不意味着这些网页会立刻掉出搜索引擎索引,但它的确意味着这些页面不会被抓取并最终会从索引中消失。当回顾机器人文件时,确保你没有阻止搜索关键页面,网站图像、JavaScript、CSS或任何支持需要加载网站页面的页面元素。
怎样应对?
利用如Screaming Frog这样的工具,告诉你你的网站上会找到的页面和所有那些可能会带着Meta Robots标记的页面。另外,检查你在Fetch里Googlebot部分的Google Webmaster Tools帐户。这将会告诉你由于排除抓取哪些页面元素是不可见的。此外,检查Robots.txt Tester来分析一下这里可能存在的失误。
3. 和搜索引擎没有沟通
当笔者看到网站管理员希望搜索引擎看到他们的内容,但是却不努力帮助这些搜索引擎了解什么网页是重要的、也没有提供网站元素的培训时,非常惊讶。这里有两个重要的利益区域,你需要为搜索引擎提供网站地图,还需要帮助他们了解你的网站内容和关注焦点。使用Google Webmaster 工具and Bing Webmaster 工具可以让搜索引擎更多地了解你的网站。
这些包括:
具有了解你的模式审定是否有效、是否准确无误的能力。
具有整合Data Highlighter信息、通知谷歌更多关于你的产品、活动等的机会。
更新你的网站地图,以此来了解多少页面被编入索引。
向你的目标国家暗示你的目的。
排除周边。
拥有在搜索结果降级链接的能力。
怎样应对?
确保你在Google Webmaster Tools 和 Bing Webmaster Tools为你的网站创造有效的简历。至少,开始向搜索引擎提交网站地图,并开始与他们沟通的过程以便于他们了解抓取什么以及你的网站内容有多少被编入索引。

Comments are closed.