上周日开始说关键词,并且选择了如何做好问答型关键词作为起点。其实从逻辑上说,这个次序并不对,只是由于我现在对问答词有一种强烈的期待,所以忍不住先说了。

 

合理的逻辑顺序大概应该是这样,先说关键词在SEO整个体系中的作用,之后说获取关键词的一些方法,再之后说关键词关键词管理的一些经验,分词,过滤,分组,关联等,在分组的环节中讨论关键词常见的一些分类,包括品牌词,问答词,长尾词等等,再之后考虑网站根据业务结构进行关键词布局,内链锚文本的布局,最后考虑利用数据对之前的工作持续的改进与完善 (这里说的数据包括,重点词搜索排名,在百度site语法中本站页面排序,竞品流量词的监控等) 。

 

这里再废话一下,数据驱动的SEO才是科学的SEO,拍脑袋的行为就是耍流氓。工作中,搜集和整理数据,并利用数据优化工作流程,改善工作效果,这样很自然的借助于数据反馈推动工作进入正循环。

网站数据结构

在SEO的系统化策略,以及上一篇中,已经说过很多遍,关键词研究的重要性,关键词=用户需求,需求是工作的起点,满足需求是实现商业目的的方式。那么,现在开始说说怎么获取关键词。

 

之前说过关键词的获取渠道,站内,搜索引擎(下拉框,相关搜索,百度指数需求图谱,凤巢扩词等),竞品,第三方工具(爱站,5118,词库,站神,追词,金花等),这里不去说这些工具的使用细节。只说说递归方法,在关键词研究中的使用。

 

熟悉我的朋友知道我手里有个小破站,这个破网站搜集整理了大约7万个站点的爱站词量,预估流量数据,并且对其中20%的站点,做了归类。那么,这些站点数据是怎么抓取的呢?

 

第一步,用Alexa中文站点排行前500的网站,作为种子站点,存入候选网站表;

 

第二步,抓取爱站中这500个站点的搜索词,去重,按照指数降序,存入候选关键词表,标记这500个站点为已抓取;

 

第三步,利用第二步整理的词,抓取百度搜索结果中前50位的域名,按照出现的次数 (其实这跟爱站词量算是相近的思路了) 降序存入候选网站表,标记已抓取的关键词已抓取;

 

第四步,取网站表中一批站点,抓取爱站词,并入候选关键词表,并标记抓取过的站点已抓取。奇怪啊,这步怎么跟第二步有点像呢?

 

第五步,哦,跟第二步类似。

 

关键词,网站,就像跷跷板一样,左边,右边,通过网站挖更多词,通过词挖更多网站。如此循环,这就是递归。

 

如果我们将作为种子站点的Alexa Top 500站点,换成想要研究的目标领域站点,在递归过程中,干预候选的站点和词,在目标领域,那么,我们很容易获取初步的目标关键词,和竞品列表。当然,这个循环应该有重点,需要达成一定目标的时候退出循环。

 

百度百科是这么解释的,

 

“递归,就是在运行的过程中调用自己”,构成递归需具备的条件:

 

子问题须与原始问题为同样的事,且更为简单;

 

不能无限制地调用本身,须有个出口,化简为非递归状况处理。

 

这不由得让我想起了一部烧脑的电影,《前目的地》,我生了我,我爱上了我,我背叛了我,我杀死了我。

 

递归是什么?递归就是找个缝隙钻进去,持续不断扩大战果。就像我混进SEO圈子一样,就像你利用人脉,再去滚雪球一样继续扩大人脉一样。