如何让搜索引擎优化真的有用

《如何让搜索引擎优化真的有用》由珠海SEO骆辉校seo博客于2016年08月01日整理发布

SEO如何让搜索引擎优化真的有用

SEO是一个涵盖了大量的地面的术语。书籍,研讨会,网站和职业生涯已经建立,以促进和讨论的话题。在这篇文章中,我想提出从谷歌的搜索引擎优化的角度透视作为面向网站管理员。基本上建议是基于内容,技术规划和质量控制。还提供将网站的网址一些指令和一个Sitemap他们的搜索索引,使他们能够正确地索引你的网页。

内容
下面是谷歌的概要“网站管理员指南 “网页,其中讨论了如何使你的大多数内容(点击上面的更多详细信息的链接):

莱网站出一个清晰的时尚与地图提供链接到相关的部分(但任何特定的页面上没有太多的链接)。
内容应该是有密切关系的,包括您的用户可能搜索应该带他们到您的网页栏目(例如,如果你卖的野营装备,你会希望包括“露营”,“救生设备”,“登山装备”等这些你的相关短语)。
避免使用的关键细节图像; 对于百度/谷歌等搜索引擎解释和索引内容的文字是必需的。
确保你的HTML代码是船的形状和无差错。
请注意动态页面可能还不如精确索引(如果有的话)的静态版本。

“我们的目标是为高品质的相关信息的用户。”除非它为用户增加价值,不要从其他网站复制内容。除非你的网站是联盟计划。入口网站(这仅仅是通过用户到其他网站)也令人难以接受的。这将“负在我们的搜索结果中的表现产生影响,而且在某些情况下甚至可能会导致从搜索结果中删除。”

技术规划
由谷歌直接的例子包括:

“使用文本浏览器(如Lynx)检查您的网站,因为大多数搜索引擎Spider查看网站的方式与Lynx一样。如果因应用了Javascript,Cookie,会话ID,框架,DHTML或Flash等你看到所有的在文本浏览器您的网站,然后搜索引擎蜘蛛可能有麻烦抓取您的网站。“

“确保您的网络服务器支持If-Modified-Since的HTTP标头。此功能可让您的网络服务器可以告诉百度/谷歌等自从我们上次抓取您的网站内容是否发生了变化。该功能可以节省您的带宽和开销。”

“做个robots.txt文件上传Web服务器上。该文件会告诉哪些目录可以或不可以被抓取抓取。请确保它是网站的最新版本,这样你就不会意外拦截百度/Googlebot抓取工具。请访问 http://code.google.com/web/controlcrawlindex/docs/faq.html学习如何当他们访问你的网站指示机器人。您可以用正确的测试robots.txt文件,以确保你使用它robots.txt分析工具在谷歌网站管理员工具…使用robots.txt可避免的搜索结果页或其他自动生成的网页没有用户从搜索引擎带来太多价值爬行“。

显示器的性能和加载时间,并通过多个浏览器测试你的网站。对于性能监控谷歌建议“网页速度, YSlow的, WebPagetest,或 其他工具。

品质管制
质量方针是真正常识的技术,可以归结为“公平竞赛和没有垃圾邮件。”
不要在您的网站随意倾倒文字希望它会匹配搜索关键词和吸引游客。
不要隐藏文本或链接。
确保你的链接直接实事求是在那里说,而不是一个“惊喜”参观其他地方。
不要建立您的网站在墙上的另一块砖没有任何独特的或引人注目的材料。
保护您的网站并清理任何恶意软件,污损或垃圾邮件。
添加您的网站的百度/谷歌搜索索引这是相当简单的网站提交给谷歌,以确保他们增加你的站点到他们的搜索索引。

访问百度搜索引擎网页质量白皮书谷歌http://www.google.com/submityourcontent

提交通过谷歌网站管理员工具站点地图

此过程将列举您网站上的所有网页,以确保谷歌意识到他们与可以提供有关您的内容的更多信息,特别是如果它是动态的,或位于无法正常链接的网页。

一个网站地图是包含您的网站(50K限制)以及有关这些链接,比如更新的频率信息的所有网址的XML文件。

转载请注明出处:珠海seo网站优化 » 如何让搜索引擎优化真的有用

赞 (1)
分享到:更多 ()

评论 0