采集英文网站长尾关键字1个月内获得50W的搜索流
采集英文网站长尾关键字,1个月内获得50W的搜索流量
之前写了一个英文版本, How to copy websites a long keyword in 1 months gain of 500000 goolge search traffic ,现在写个中文版。by 混世魔王 BLOG。
这是我无意黑的一个 Goolge PPC 关键字数据库。企业版是999USD 一个月的的服务。
不知道你有没有做垃圾站经验,采集了几万,或者几十万的内容。但是获得流量的页面,基本都是那几十,或者几百个长尾关键字页面。
那就提取出来能带来流量的页面,优化就行了。
例如,articlesbase.com 这个网站,做英文网站的都知道,这是可以采集免费文章站。没版权。
在google.com site:articlesbase.com 有上千万的收录。
我用 Goolge PPC 数据库查看,他有 847,584 个关键字.
要获得搜索流量,你必须在google的搜索排名到第一页,甚至是前3名。
OK,我们处理下数据,发现 articlesbase.com 只有 11362 keyword 的排名是在GOOGLE 第一页的。
去除首页关键字,和分类页关键字。只保留文章页的关键字。
我们来看下搜索结果。比如“weak serratus anterior” ,”weak matrix” ,这个就是articlesbase.com的长尾关键字。虽然一个月搜索量才几百。数量多了。就OK了。
1.把这些文章都采集了。
2.伪原创处理。
3.批量做内页优化包。
比如,“Weak Matrix Organization Structure – Advantages and Disadvantages”这篇文章。是通过搜索关键字“weak matrix”,到达的。
你采集数据以后,需要做一个 “weak matrix” 关键字的锚文本,任何有出现这个关键字的,就指向你采集的这篇文章的URL。
4.英文站的黑链。我是搞黑的。这个就不是问题了。
不可能能大家都瞄准 articlesbase 一个站的长尾关键字去采吧。供一个alexa 100W 排名内的所有网站。
Top 1,000,000 Sites
http://s3.amazonaws.com/alexa-static/top-1m.csv.zip
ezinearticles.com 也是个免费文章站的网站,关键字数据 2,043,825 关键字,排名到 google 第一页 关键字有 91,109 个。
hubpages.com 有 1,408,306 关键字,google 排名到第一页的 33,146 关键字。
如果要是aff. 我们来看看 amazon.com 的产品关键字。 18,788,398 个关键字.
all affiliate networks keywords.
还有 CJ,CB,等AFF 的网站关键字。
了解了解········
这个确实有可操作性啊,PM我一下你用的这个关键词工具吧!
来自A5,恋吧自己打算开始研究下