最近在看SEO方面的知识,很是有趣,能学些新东西的感觉总是好的,随着经历增多心境较之前也少了些浮躁,当下的年纪也正是钻研些好玩事物的大好时光,在这里给大家推荐两本SEO的基础入门书籍,《百度SEO一本通》《7天精通SEO》希望借此文和志同道合者共同进步!
虽然现在最火的SEO书籍是Zac出的那本《SEO实战密码》,豆瓣评分也不错,但实际读来逻辑比较散乱,信息量太大,有点像历史博客文章的堆积,对于刚接触SEO的人来说其实并不适合,
个人建议可以先从入门的书籍开始看,形成自己的理解体系,然后再用自己建立起来的这套体系去做加深阅读,这也是我常用的方法,实际说来我看书的量并不多,更偏向看适合自己这个阶段的,去到书中参悟。
首先,让我们先来看看这两本书的逻辑体系,带着方向去阅读:
《7天精通SEO》
这书本重点看站内篇、站外篇、策略篇部分,这三个部分主要讲做优化的实际方法论,基础篇就是了解大致常识,可以快速浏览,可以和案例篇专题篇组合来看。
《百度SEO一本通》
这本书主要看关键词、链接优化技巧,理解和了解网络技术和百度的竞价推广、网盟推广。
接下来,梳理下SEO的基本常识(不完全的部分会在后续补充)
SEO定义:
Search Engine Optimization(全称)也即搜索引擎优化,就是从搜索引擎上获得流量的技术。搜索引擎的主要工作包括:通过了解搜索引擎的工作原理掌握如何在网页流中爬取网页、如何进行索引以及如何确定某一关键词排名位置从而对网页内容进行科学的优化,使其符合用户浏览习惯的同时提高排名与网站访问量,最终获得商业化能力的技术。
搜索引擎工作原理:
主要有三段工作流程:爬行抓取、预处理、服务输出
2.1 爬行抓取
主要功能是对网页进行抓取,目前有三种爬行抓取方法
- 批量收集:对互联网上只要是存在链接的网页都收集一遍,耗时较长,在几周左右,缺点是增加了额外的带宽消耗,时效性也不高。
- 增量收集:在原有已收集的网页基础上搜索新增加的网页,变更上次收集之后有改变的页面,删除收集重复和不存在的网页。
- 站长通过工具向搜索引擎主动提交网站,这种方法的响应速度比较慢,主流上还是提倡让搜索引擎蜘蛛主动来爬取。
2.1.1 常见蜘蛛
搜索引擎蜘蛛是搜索引擎的一个自动程序,作用是访问互联网上的网页、图片、视频等内容,建立索引库,一般用法为spider URL这里的URL是搜索引擎的痕迹,可以通过查看服务器里的日志里是否有该URL,同时还能查看一些列属性。
- 百度蜘蛛:可根据服务器的负载能力调价访问密度,降低服务器的压力,但百度蜘蛛通常会抓取同样的页面,导致其他页面无法被抓取而不能被收录,一般通过robots协议来避免
Baiduspider ( http://www.baidu.com/search/spider.htm) - 谷歌蜘蛛:属于比较活跃的网站扫描工具,其间隔28天左右就会派出蜘蛛检索有更新或者有修改的网页。谷歌蜘蛛的爬取深度要大于百度。
Mozilla/5.0(compatible;Googlebot/2.1;http://www.google.com/bot.html)
–雅虎中国蜘蛛 Mozilla/5.0(compatible;Yahoo!SLurp China;http://misc.yahoo.com.cn/help.html)**
–微软必应蜘蛛
msnbot/1.1( http://search.msn.com/msnbot.htm)
–搜索蜘蛛爬行抓取速度较快,抓取的数量相对较少,且不抓取robot.text文件
Sogou web robot ( http://www.sogou.com/socs/help/webmasters.htm#07)
–搜搜蜘蛛
Sosospider ( http://help.soso.com/webspider.htm)
–有道蜘蛛
Mozilla/5.0(compatible;YodaoBot/1.0;http://www.yodao.com/help/webmaster/spider/
2.1.2 爬行策略
- 深度优先爬行:沿着一条线抓取下去,知道最后,然后返回到另一条线
- 广度优先爬行:在一个页面发现多个链接后,把所有第一层的链接抓取一遍,然后再沿着第二层、第三层……
2.1.3 预处理
也即对抓取回来的数据进行一个索引工作,其中包括多个流程,在后台提前完成。
2.1.3.1 关键词提取
将HTML、JS、CSS等标签&程序去除,提取用于排名的有效文字。
2.1.3.2去除停用词
即反复出现的无用词,如:“得、的、地、啊、阿、再”等
2.1.3.3分词技术
是中文搜索引擎特有的技术支持,中文不同于英文单词与单词之间用空格分隔,因此搜索引擎必须把整个句子切割成小单元词,分词的方法有两种
- 基于字符串匹配的分词方法按照方向的不同,可以分为正向匹配、逆向匹配和最少切词,混合使用后产生正向最大匹配,逆向最大匹配、正向最小匹配、逆向最小匹配。笔者个人理解为按照中文的习惯对整句进行组词形式的拆分。
- 基于统计分词方法
直接调用分词词典中的若干词进行匹配,同时也使用统计技术来识别一些新的词语,将所有的统计结果匹配起来发挥切词的最高效率。
2.1.3.4消除噪声
消除网页上各种广告文字、图片、登录框、版权信息等对搜索引擎无用的东西。
2.1.3.5分析网页建立倒排文件
正向索引:把页面转换为一个关键词组合,同时记录每一个关键词在页面上的出现频率、出现次数、格式、位置,使每一个页面都可以记录为一串关键词组合,其中每个关键词的词频、格式、位置等权重信息也都记录在案。
倒排索引:正向索引不可以直接用于排名,倒排索引以关键词为索引
2.1.3.6 链接关系计算
计算出页面上有哪些链接指向哪些其他页面,每个页面有哪些导入链接,链接使用了什么锚文本等,Google推出的PR是代表之一。
2.1.3.7 特殊文件处理
对flash、视频、PPT、XLS、图片等非文字内容不能执行脚本和程序。图片一般使用<alt>标签
2.3 服务输出
输出结果的展现方式,如:与搜索关键词匹配的部分用红色字体标出
网站分类目录
是人为编辑的搜索结果,将互联网上优秀的网站收集整理在一起,按照不同的分类或者主题放在相应的目录中,多靠人为提交,如:hao123网址导航
关键词
一般指用户在搜索框中自定义输入的信息,按照概念可以分为:目标关键词、长尾关键词、相关关键词;按页面上分,可以为首页、栏目页、内容页关键词;按目的来分可以分为直接性、营销性关键词
权重和PR值(PageRank)
PR值是谷歌搜索引擎用来衡量网页重要性的一种方法,也是其判断一个网站好坏的重要标准之一,最大的影响因素为是否拥有大量的高质量外链。
网站权重是指网站与网站在搜索引擎眼中的分级制“待遇”表现,是搜索引擎中的一个综合表现指标,决定因素有:外部链接的导入、稳定的高质量内容和结构清晰的网站结构等。
要注意区分这是两个不同的概念
6. 白帽SEO和黑帽SEO
7. 锚文本、外链、内链、单向链接、双向链接、导出链接、导入链接
8. 有机列表
是SERP中的免费列表,即搜索结果页面的免费列表,可以通过制定SEO策略进行优化。
9. robots.txt文件
Robots Exclusion Protocol,网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。多用来避免出现大量404页面、死链接
如何查看?格式:在浏览器中输入URL/robots.txt即可,下面是www.taobao.com/robots.txt文件
User-agent: Baiduspider
Disallow: /
User-agent: baiduspider
Disallow: /
User agent
robots文件常通过组合的方式来运用,主要有如下四种情况
- User-agent: *Disallow:/ 禁止抓取所有页面
- User-agent: *Disallow:/ 允许抓所有页面
- User-agent: BadBot Disallow:/ 禁止某个搜索引擎的访问
- User-agent: Baiduspider.Disallow:User-agent:Disallow 允许百度抓取,而不允许其他抓取
10. nofollow
决定是否对网站进行投票,传递权重,可以用来防止垃圾链接
- 可以出现在网页级元标记中,用于指示搜索引擎不要抓取网页上的任何<meta name=”robots” content=”nofollow” />
- 可以出现在链接前,指示蜘蛛不要抓取某特定链接 <a href=”signin.php” rel=”nofollow”>signin</a>
黑链
只存在于源代码中的超链接
动态网址和静态网址
搜索跳出率
用户查到一个网站并点击进入,且只浏览了一个页面就离开所占的比例
网页快照
搜索引擎在收录网页时,对网页进行备份,存在自己的服务器缓存里,当用户在搜索引擎中点击“网页快照”链接时,搜索引擎将Spider系统当时所抓取并保存的网页内容展现出来,称为“网页快照”。
了解网站常见HTTP状态码
SEO常见指令
- “site: URL” 用于查询特定网站的收录情况
- “Link: URL” 查外链
- “related: URL” 查询相关网页指令,找到与你的网站内容相关的网站
- “info: URL” 查询某个特定网站的收录信息、最近的快照情况、相似网页、站点链接、内部链接及包含域名的链接,是一个综合指令,只支持Google。
- “allintext/intext:”有效的查询某个特定关键词在特定网页文档上出现情况,发现最相关的网页和潜在链接对象,只支持Google。
- “allinurl/inurl:”查找特定网页url中包含特定url关键词,可以和其他指令组合使用,只支持Google。
- “allintitle/intitle:”查找特定网页标题中和所输入的信息相同的文字,查找竞争对手,intitle可以用来查询特定论文或者文章标题中出现特定的关键词,只支持Google。
- “allinanchor/inanchor:” 查找特定关键词的锚文本链接,只支持Google。
- “define:” 查找特定的关键词
- “filetyle:” 搜索特定后缀的文件,如pdf、doc等
- “domain:”查询网站的百度相关域,即百度外链,只用于百度搜索引擎,在谷歌中相当于一个关键词
网站地图
又称站点地图,它就是一个页面,上面放置了网站上需要搜索引擎抓取的所有页面的链接(注:不是所有页面),大多数人在网站上找不到自己所需要的信息时,可能会将网站地图作为一种补救措施。
网站目录结构
网站目录结构
网站的目录是指你建立网站时所创建的目录,目录结构则主要是指物理结构和逻辑结构这两种。当网站涉及到多个尤其是成千上万页面时,往往就需要有个清晰的网站结构,来确保搜索引擎和用户的访问,网站的目录结构就起到这样的作用,它在SEO中意义非凡。网站的目录层级一般建议不要超过3层。
301重定向
页面永久性移走(301重定向)是一种非常重要的“自动转向”技术。网址重定向最为可行的一种办法。当用户或搜索引擎向网站服务器发出浏览请求时,服务器返回的HTTP数据流中头信息(header)中的状态码的一种,表示本网页永久性转移到另一个地址。在更换网站域名时使用,常用于传递权重。
长尾关键词
“长尾”具有两个特点:细和长。细,说明长尾是份额很少的市场,在以前这是不被重视的市场;长,说明这些市场虽小,但数量众多。众多的微小市场累积起来就会占据市场中可观的份额——这就是长尾的思想。
全站链接
所有链接都指向首页;首页链接-只有网站首页有指向你的网站链接,在链接互换、购买时会做首页链接
反向链接
反向链接其实就是在目标文档内部进行声明。换言之,常规链接在文档A中标明“指向文档B”,而反向链接则在文档B中要求“使文档A指向我”。
伪静态
微格式
微格式(microformats):是结构化数据的开放标准。是包含数据的结构化的XHTML代码块的定义格式,由于是XHTML代码块,所以很适合人类阅读,由于是结构化的,又很容易被机器处理,很容易和外部进行数据通信。
百度框计算
用户只要在“框”中输入服务需求,系统就能明确识别这种需求,并将该需求分配给最优的内容资源或应用提供商处理,最终精准高效地返回给用户相匹配的结果。
在了解了基本常识后,开始了解SEO最重要的四个策略
如何选关键词?、如何做好外链建设?、如何进行页面优化?、如何进行数据分析?
两本书都讲了一些比较容易理解的入门级方法,个人觉得可以照着这个方向去深入研究。
如何选关键词?
- 列出备选关键词
- 判断其百度指数、竞争度、定向度高低
- 分析表格中的指数,选择3个目标关键词,匹配组合为竞争度高 中等 低,采用“田忌赛马”的方式与竞争对手对抗。
- 查看选出关键词的搜索趋势、搜索引擎目前排名、主要竞争对手极其相关属性
- 对选出的关键词进行头脑风暴,选出长尾关键词
如何做外链?
外链的优化主要在于平衡质量和数量的指标,如果拿到一个权重高的外链,其带来的效果要远远大于10 个外链,这里介绍几种常见的做外链方式:
- 博客留言:到一些权重高的博客上去留言附带自己网站的链接,使用这个方法要特别注意源代码中的nofollow标签
- 软文外链:在软文中嵌入自己网站的链接,如A5站长网就有很多这种带有外链的软文,通过转发来扩散网站。
- 博客外链:自己去权重高的网站注册5-10个博客,把流量集中到主网站。
- 自己做网站模板,嵌入分享外链:个人不太提倡这种做法,耗时太长
- 购买外链:如A5站长交易论坛、阿里微微链接买卖交易平台,主要看关键词竞争度,一般购买外链需要至少坚持2-3个月以上才能有效果。
- 通过上传视频做外链:去一些权重高的视频网站,如优酷、腾讯视频、爱奇艺等上传自己的视频,加入网站URL
- 上传小软件:如多特软件站、天空下载、太平洋下载,注册后发布软件,留下自己网站的URL
- 通过自己网站做外链,建立“站群”或者“链轮”这个方法要用的精力相对较多,要建立大量的站点,要制定严密的SEO策略,有计划紧密的链接指向要优化的目标网站,提升网站在SEO中的排名,主要目的是把网站的关键词排名做好。
- 提供新闻和聚合类RSS订阅
- 目录、社会化书签:把网站提交给DMOZ开放目录;把网站或者网页加入到百度收藏、雅虎收藏、Google书签、QQ书签等
- 友情链接:给内容管理系统CMS/Blog等开源网站提供免费精美模板,在模板中留下信息
- 在免费链接中留下网站信息:百度知道、雅虎知识、天涯问答、富营销论坛、社会化wiki平台(百度百科、维基百科)
淘宝上有关于中外可交换外链的网站资源总结,笔者认为可以通过这种方式提高SEO的执行效率,没必要自己一个个去总结
如何进行页面优化?
主要是指针对网站内部的一些可操纵性优化内容;具体按照如下几个方面来思考:
- 元标签设计优化
- 导航优化:代码层面 逻辑层次,层级不要太深,一般3-4层就可以了
- 设计风格:包含页面色彩、亮度、动画效果等,需要具有引导性,符合明确的目标客户群体的需求
- 网站LOGO
- 页面打开速度:5s内打开,一般超过这个时间会让用户失去耐心,而关闭网页
- 页面布局:突出与目标关键词相关的页面,主次分明
- 广告位:不要放置到干扰用户操作的位置
- 交互体验优化:会员申请/注册、表单填写(下拉选择、需填写部分著名填写内容)、核对字段(手机位数、邮编等避免无效信息)、按钮设置、点击提示、错误提示、页面刷新(AJAX程序的正确性)、显示路径、资料安全提示
- 浏览体验优化:栏目命名、栏目层级、分类、内容的丰富性和原创性、信息更新频率、信息编写方式等
如何进行数据分析?
网站的分析经常用到GA等一些站长工具,这里主要解释下数据分析时SEOer该注意的关键指标:
- 流量统计:百度统计、CNZZ站长统计、51站长统计工具
- 趋势分析:主要看流量变化情况,曲线平缓的说明网站流量稳定;注意看最新访客、地域、上站时间、来源、入口、页面、最后停留时间,分析网站中需要进行优化的页面。
- 来源分析:了解各种来源类型给网站带来的流量变化,指标有-搜索引擎名称、外链、搜索引擎对关键词的流量贡献等
- 关键词排名
- 域名年龄:域名时间越长,权重越高
- 快照
- PR值
- 反向链接
- 友情链接:可以与其进行链接当做自己网站的外链资源
- 访客属性分析:分析访客基本属性、分布范围、所使用的浏览器类型、屏幕分辨率、操作系统、网络提供商
具体来说,数据分析的维度与站长的网站优化目标相关,找到适合自己的分析维度而不是面面俱到对于SEO的执行来说效率更高。
最后,稍稍总结下SEOer常用到的工具:
不全的将后续补充,也欢迎大家来添加 :)
- 建站:织梦建站教程、望族人脉论坛
- 程序:织梦、ZBLOG、dede
–外链相关:A5站长网、阿里微微链接买卖交平台、搜外SEO工具大全
–上传软件的地方:天空下载站、2345软件下载(原多特)、太平洋软件下载、ZOL下载、华军软件园
–优秀博客:马海祥博客-专注于分享SEO知识、SEO每日一帖-Zac、[月光博客] - 查权重:站长工具、爱站网、站长帮手网
- 统计:Google Analytics、CNZZ数据专家
- 关键词相关:追词网-SEO关键词分析优化工具、飞达鲁长尾词关键词查询工具、百度关键词工具-可以根据百度相关搜索的词库,分析和查询出与输入的关键词相关的大量关键词。Keywordtool、百度搜索风云榜
- 综合:
站长之家、SEO综合查询、51啦站长统计、SEO优化建议、百度收录查询工具、速查网、[百度收录查询工具]-站长工具、统计锚文本外链的工具-先通过查询雅虎锚文本外链,然后可以对数据进行很好的分类与统计、百度指数、伯乐站长工具、百度数据研究中心、百度开放平台、
富营销社区 - 浏览器插件:SEOQuake-FireFox插件-能详细的时时的展示各种SEO数据、Search Status-FireFox插件-把日常SEOer常用的工具聚合到一个菜单中,供SEOer随时查看相关数据