SEO如何进行数据分析

作者: 少校seo 分类: 黑帽seo资讯 发布时间: 2019-11-07 17:03

我已经4个多月没更新了,因为我又忙又懒。当我到达后台时,我注意了1000多个。上次我看的时候,我记得还不到500英镑...现在我有一点时间,我不得不盲目地写一篇文章。

上一次数据分析①主要讨论爬虫和数据分析的关系,然后数据分析②打算讨论几个数据分析案例。

案例1:收集分析

背景

要分析的页面类似于公众评论的商家页面。教资会是网页的主要内容,所以教资会越多,网页的内容就越完整。

一般来说,这类网页并不包括在内,因为教资会的数目决定了网页所载的信息量,所以我想看看教资会的数目与包括率之间的关系。

–指示器

ITSEO在道格召开的年会上分享了索引和快照数据库之间的区别,即公众说索引指的是快照数据库,而决定引入流量的页面就是进入索引数据库的页面。因此,确定了以下指标

反向比例:进入索引库的页面比例。指可以通过百度关键词搜索到并有机会获得流量的页面。小伙伴可以去:查询一批页面的倒比例。

正比例:进入快照库的页面比例。指可以通过url搜索但不能通过关键字搜索的页面。仅创建快照但未编制索引的页面。这是一个基本上无法获得流量的页面。

收藏比例:进入快照库+索引库的页面比例

未包括的页面百分比:快照中未包括的页面百分比。要么我们还没找到,要么页面质量太差。

–检测方法:

因为要看到教资会的数目与上市前的关系,所有商户页面首先根据教资会的相应数目划分成组,例如,教资会数目为0的页面被划分成组,教资会数目为1的页面被划分成组....教资会的页数为10至20页,分为不同组别...

分组后,开始运行每组页面的上述四个索引,数据如下

–数据:

–分析:

横坐标是大学拨款委员会的数量,纵坐标是相应的指数数据。观察数据,我们可以看到几个明显的趋势:

(1)教资会的数目越多,倒排的比例越高

(2)教资会人数越多,正排比例越小

(3)除了0个教资会网页外,整体收集率基本相同

(4)根据反向比例的增长率,UGC 0-1为区间,1-10为区间,10+为另一区间

通过数据,我们可以发现通过增加大学拨款委员会的数量,我们可以增加倒排的比例,从而引入更多的搜索流量。

其中,在0个教资会页面上操作是最具成本效益的,因为如果0个教资会页面只增加一个教资会,倒排的比例可以增加3倍。

因此,我们可以想出各种方法将一个教资会数据导入0个教资会页面。进口的教资会来自哪里?怎么做?这是改变内容的问题。我以前就写过,而且能阅读历史新闻。

案例2:流量分析

流量下降,一些搜索引擎优化遇到时总会有一些恐慌,当然,流量下降不一定是搜索引擎优化的问题,也可能是一个外部原因,也可能是行业趋势,也可能是搜索引擎的正常变化(也可能是抽搐,但一般不会~。~)

有一个相对完整的筛选过程:

(1)检查统计工具是否有问题

将统计工具与网络日志或多个统计工具进行比较,并将上周、去年和昨天进行比较,看趋势是否一致。

如果一致,这可能是正常的搜索趋势;如果有任何不一致,可能是由网站本身、搜索引擎的变化和统计工具的错误(例如统计代码添加不正确、删除错误...)和黑帽seo。下一步需要调查具体原因。

(2)检查阿拉丁、竞价或其他特征显示的变化是否抢走了自然搜索流量。如果没有,继续下一步。

(3)检查是否所有搜索引擎都丢失了。

因为同时,所有搜索引擎被降级的概率太低。因此,如果所有搜索引擎都失败了,网站本身就有问题。检查日志中是否有非200状态码seo月数据表或者网络服务器节点是否可以正常访问等。如果只有一个频道掉线,继续下一个调查

(4)检测搜索引擎的流量分布。

下一步,如果某个搜索引擎的流量下降,这不一定是搜索引擎优化问题,也是搜索引擎的正常变化。首先,一个流量词(注意,这是一个流量词,而不是一个长尾词)的80%的流量将总是分布到10-20个网站。根据寻找搜索引擎优化竞争对手的想法,我们将首先找到流量分布排名前20的网站,然后在搜索引擎中长时间监控这20个网站中同一批单词的显示。

正常情况下,这20个网站的显示应该是一个接一个的。例如,显示量最大的5个站点下降了20%,而其余15个站点加1个站点应该增加20%。这是正常流量分布的变化,因为搜索引擎同时惩罚同一行业中多个网站的概率不高。但是如果你是唯一一个销售额下降的网站,这基本上是搜索引擎优化的问题。

(5)测试网站的收集、排名、查看日志、检查排名检查排名,这适合本案的补救。

在我采访每个人并问这个问题之前,很多人直接跳到第五步,忽略了前四步。这可能会导致无用的工作和浪费大量的时间。

案例3:寻找最佳方法

搜索引擎优化总共有三点:提高页面质量、优化链接结构和增加链接数量。然而,具体的方法需要取决于不同的情况。这些方法需要不断创新以满足最基本的要求。

为了找到一个优化的方法,我们需要先在行业中找到更好的网站,然后观察这些网站的共同点,然后开始复制。

例如,许多交通站点(日平均IP > =页数)有一个共同点:模板轻,速度快,页面包含大量连续文本内容,标题短,点击搜索词,关键词竞争小,但搜索量小,网站结构简单,主题内容高度聚合,有一定的外部链接...

然后以上几点可以复制到自己的网站上。

AOL公布3个月的搜索数据

美国在线今天做了一件让许多人震惊的蠢事。他们公布了三个月的真实搜索记录。

据美国在线网站报道,发布的数据是2006年3月1日至5月31日,包括1900万次搜索、1080多万个不同的搜索词和658000个用户标识。

问题是,这些非常有用的信息也能泄露用户的个人隐私。

有些搜索词本身包含个人隐私,例如,有些人可能会搜索“某某小姐的裸照”或“某某先生的破产记录”。这些搜索本身可能包含各方不愿告诉他人的信息。

大量的搜索记录也可能与特定的人相关联。虽然用户标识是匿名的,但是用户的真实身份可以从用户标识进行的一系列搜索中找到。

例如,用户搜索了“site:xxx.com”。我们可以检查这个域名的所有者。也许这个用户也搜索了一个特定的名字。这两种搜索通常由站长seo月度数据表完成,查看他们网站的集合,查看他们在其他地方提到的名字。如果用户搜索其他人不想同时知道的信息,当所有这些行为被宣布时,隐私将受到威胁。

我瞥了一眼搜索记录的一部分。例如,用户搜索这些关键字:

同一客户还搜索了几个域名。

美国在线发布了非常大量的信息,超过2G的文字黑帽seo,我只是随便看了一小段,如果有心人做一个程序分析,数据会相当丰富。

当然,美国在线在发布这些信息后的几个小时内就意识到了这件事的愚蠢,并且已经关闭了网页并公开道歉。然而,在互联网的桥下水中,这些材料已经被放置在许多地方供下载。

让我们来看看几个随机关键字搜索词:

当然,这些搜索记录对那些想做关键词研究的人来说是无价的,因为它们是真实的,是来自主流搜索引擎的最新信息。

从这一事件中,我们也可以看出为什么谷歌拒绝提供美国司法部不久前要求的搜索信息,这得到了大多数人的赞许。

更新:

《纽约时报》记者根据搜索数据(地址和姓名)轻松找到了一名62岁的女性。老妇人证实她确实搜索了列出的搜索词。

我不知道有多少人在挖。