做过SEO的都知道,搜索引擎经过多年的使用和发展之后,很多之前有用的手法变得效果不明显或者直接不起作用了。尤其近几年,所谓内链,友链,外链起的作用已经让人感觉不到了。拼命去管理,也是不痛不痒,网站不阴不阳。百度也官宣称,现在不看颜值,看内涵了,网站内容质量才决定了网站的评价和排名。
据百度说,好的内容,长尾词seo怎么优化,才有好的受众,有好多访客喜欢,自然搜索引擎也喜欢。那么问题来了,怎么样的内容才会被认为是好内容呢?不说搜索机器人,即使是人,百人百口味,千人千想法,很少能有内容会被很多不同的人啧啧称赞的。放到蜘蛛身上,恐怕AI得头脑也不太容易真正衡量出一个内容的好坏。那他们是怎么判断好坏的呢。这就是***。
这个算法肯定是很复杂的,各种加权算法,各种叠加算法,咱这里没法深入,只聊其中一个指标,那就是跳出率,有很低的跳出率,搜索引擎就会觉得网站内容很吸引人,就判定为这个网站提供了有价值的内容。跳出率这个概念,在百度统计里有,访客进入网站,浏览网页的页数越多,代表跳出率越低,在搜索引擎看来,是访客被内容吸引,看了又看,看了再看,所以一定是好内容。
根据这个算法,有一些作1弊手法,常见的有手工互点,规定好点几个页面,用多久的时间,两个人同时浏览彼此的网站。这个办法虽然很隐秘,即使反作1弊系统也很难查到,但是囿于效率有限,忙活一天,长尾词seo软件,也没法完成成千上万的点击,所以***终带来的效果极其有限,至少我不太赞成用这种笨办法。还有一种常见的就是文章内容分页,将一篇文章每隔几百字分成一页,想看完一篇新闻,你得翻上三四页,这个办法对于搜索引擎来说,也许评估到的指标很华丽,但是用户体验太差了,反正我看到这种新闻,翻几次就烦了,再遇到这个网站的内容直接忽略。这种做法在垃圾流量站很流行,用百度新闻源的形式导入大量流量,然后分页分页再分页,广告广告再广告,进了这种网站像进了屎坑,擦半天都觉得身上沾了臭味。***近百度将新闻源都换成自媒体,自媒体平台规则多,这种情况自然销匿了。
以上两种算是偏门,即使有点效果,也不建议跟着学坏。那什么才是正道呢?这里不谈文章本身的内容质量,只假设内容质量是个常数的情况下,降低跳出率。这里就谈用正规的手法,那就是推荐相关内容。
推荐相关内容,可以让访客在阅读完正文之后,有了一个比较贴心的选择,顺手而为,不用再费心查找,所以这种方式降低跳出率是马上有效的。尤其手机端,千万不要一个页面只有一个单独的正文内容,那样跳出率肯定在90%以上。那推荐什么内容呢?一个大原则,越相关越好!可以用tag的方式关联推荐的内容,正文的tag如果选择恰当,那么相关内容也会很靠谱,访客乐见其成,看了想再看,也不是啥稀奇事了。根据以前的实践,茂名长尾词seo,如果不用tag方式,只用推荐同类内容的方式关联,长尾词seo外包,那效果不算太好,只是比没有推荐强一点点而已,不能做到有效的降低跳出率。所以要点有二:一是用tag方式关联,二是恰当选择tag。这两点做到,即使粘性不好的新闻站,也基本能做到跳出了在80%左右。
跳出率的降低,百度就觉得质量好,觉得质量好,就会有好排名,所以这就也算是SEO的一个小技巧,分享出来,与大家交流。
网站关键词的写法和匹配度
比如以首页为例子很多站长都会在首页title中分布大量的关键词,但是往往你会发现有些词语可以做上去有些是无论如何也排不上去的,这是什么原因呢?
其实主要在于首页关键词和网站的匹配度问题,我们的常规要求是关键词位置出现在标题中,并且尽可能的进行全部匹配,也就是核心词连贯的体现出来,而很多辅助关键词不能获得排名的原因匹配度就是其中重要的因素之一。
网站关键词和页面的相关度
为什么很多大站的二级栏目页权重非常之高,除了大站栏目页拥有用户自发的大量内容之外,很多时候大站栏目页的内容和本身栏目的相关度吻合是非常高的,
而纵观很多企业站点,内容量较少是一个原因,很多时候在专题页中夹杂大量的新闻,在产品页中分布很多案例这些混杂的内容是导致该页面相关性差的原因所在,相关度高才是高质量的页面,有利于排名,内容贵在专而不再多。
外部链接的存在方式分析
链接是互联网的高速路,很多时候我们发布的外链不仅仅所在平台的权重要高,更重要的是链接所在的地方是否有较强的用户浏览体验,也就是页面的整洁度,打开速速,尤其是源页面的完好性,顺畅的加载速度降低了搜索引擎抓取难度,也提升了搜索引擎和用户的访问效率。
搜索引擎对于网站不断赋予的信任度
随着网站上线时间的积累,网站内容的持续跟进和更新,网站年龄,流量的稳定性,稳定的用户回访率, 持续的用户推荐度是提升网站信任度的一个非常重要的方式,网站信任度的提升是搜索引擎给予网站排名的一个非常重要的评判标准。
以上四点就是我们在做优化的时候应该遵循的规则,在这样的基础上才能做到让搜索引擎满意,保证网站良好的用户体验。
建立网站是符合搜索引擎抓取系统习惯的。
1、简单明了的网站结构
Spider抓取相当于对web这个有向图进行遍历,那么一个简单明了结构层次分明的网站肯定是它所喜欢的,并尽量保证spider的可读性。
(1)树型结构优质的结构即“首页—频道—详情页”;
(2)扁平首页到详情页的层次尽量少,既对抓取友好又可以很好的传递权重。
(3)网状保证每个页面都至少有一个文本链接指向,可以使网站尽可能***的被抓取收录,内链建设同样对排序能够产生积极作用。
(4)导航为每个页面加一个导航方便用户知晓所在路径。
(5)子域与目录的选择相信有大批的站长对此有疑问,在我们看来,当内容较少并且内容相关度较高时建议以目录形式来实现,有利于权重的继承与收敛;当内容量较多并且与主站相关度略差时建议再以子域的形式来实现。
2、简洁美观的url规则
(1)唯1性网站中同一内容页只与唯1一个url相对应,过多形式的url将分散该页面的权重,并且目标url在系统中有被滤重的风险;
(2)简洁性动态参数尽量少,保证url尽量短;
(3)美观性使得用户及机器能够通过url即可判断出页面内容的主旨;我们推荐如下形式的url:url尽量短且易读使得用户能够快速理解,例如使用拼音作为目录名称;同一内容在系统中只产生唯1的url与之对应,去掉无意义的参数;如果无法保证url的唯1性,尽量使不同形式的url301到目标url;防止用户输错的备用域名301至主域名。
3、其它注意事项
(1)不要忽略倒霉的robots文件,默认情况下部分系统robots是封禁搜索引擎抓取的,当网站建立后及时查看并书写合适的robots文件,网站日常维护过程中也要注意定期检查;
(2)建立网站sitemap文件、死链文件,并及时通过百度站长平台进行提交;
(3)部分电商网站存在地域跳转问题,有货无货建议统一做成一个页面,在页面中标识有无货即可,不要此地区无货即返回一个无效页面,由于spider出口的有限性将造成正常页面无法收录。
(4)合理利用站长平台提供的robots、sitemap、索引量、抓取压力、死链提交、网站改版等工具。
版权所有©2024 产品网