浅谈负面 SEO 值得担心,网站会被严重影响吗?

张子凡 网站SEO优化 2018-03-29 22:24:34 阅读(...) 评论(0)

昨天分享了“什么是负面 SEO 优化,及常见操作手段”,于是乎就引伸出今天这个话题,既然有负面 SEO 存在,那么就有必要知其然和知其所以然,那么对于这样的情况是否值得担心,是否会严重的影响网站,以及遇到负面 SEO 后该怎样做?

负面 SEO

首先子凡还是要先给大家吃一个定心丸,那就是不用过于担心这个问题的存在,原因有两点,第一我相信可能很少有这样无聊的人会盯上你的网站;第二是现在的SEOer职业素质还是很高的,所以你遇上的机率很小很小。

负面 SEO 对网站造成的影响及解决办法

言归正传,虽然机率很小,但也并不是没有,所以子凡今天的主要目的还是要来谈谈负面 SEO 对网站的影响,以及遇到负面 SEO 后又该怎么去面对和解决的问题,对于影响还是有的,至于其大小也是无法被具体估计的,例如当别有用心之人或者就是有些人喜欢用 DDOS 攻击你的站点,从而导致三天两头网站无法打开或者访问,那么搜索引擎就会认为是站点服务器不稳定,从而降权和减少抓取频率,而子凡发现 360 搜索是会直接在搜索结果提示“该页面因服务器不稳定可能无法正常访问 !”,而且久久不能更新过来,这一点会严重影响用户体验。

排除服务器攻击方面,那么剩下的负面 SEO 就是通过站外制造的垃圾链接和镜像站或者采集的重复内容,对于垃圾外链来说百度之前提供过拒绝外链的工具,就是当发现垃圾链接后 SEOer 可以拒绝这些外链,但是后来百度拒绝外链工具下线了,并不是说搜索引擎不管垃圾外链了,而是搜索引擎有信心可以自动对垃圾链接进行判断和处理,当然这其中误伤可能也会有一些,不过深度的想误伤的机率也并不会太大,负面 SEO 就是通过大量的垃圾外链来达到攻击的目的,然而大量的垃圾链接出现搜索引擎是可以非常容易发现的,因为正常的网站不可能会突然出现大量的链接,否则就是不正常的 SEO 行为。

那么再来说说镜像和重复页面,这种一般需要通过观察服务器日志,或者禁止一些异常的爬虫或者 IP 的访问,这样别人就无法直接访问到站点而有效防止继续采集,而且我们可能会看到一些站点会禁止复制和右键操作,那是因为他们用 js 屏蔽了,当然现在有些站点的源代码中并不会自动输出正文内容,或者内容经过编码处理,防止了被采集和镜像的可能性,当这样也会有所不利于优化,当然对于这些情况,例如百度是可以通过提交反馈进行投诉申诉的。

简单总结

对于自己的站点被负面 SEO 时,不必过于担心,首先肯定是要保证网站的正常运营,内容持续高质量的更新,积极的增加优质外链,其它的就按子凡上面提及到的方法处理即可。

不过也值得一说的就是,如果你是一个新站点遇到负面 SEO,我只能说你可能非常的不幸了,搜索引擎可能也没有办法能够很好的区别,误伤是在所难免的了,毕竟不能像一个有权重或者有资历的站点相提并论,这也是为什么 SEO 人员为什么说老域名会有一定的优势的原因之一了。其它的就不多说了,祝大家好运,也祝自己好运!

除非注明,否则均为泪雪博客原创文章,禁止任何形式转载

本文链接:https://zhangzifan.com/negative-seo-impact.html

留言评论

登录 后留言