详细内容

网站优化中出现死链如何进行优化

image.png

站点优化做的时间长了,站点总会出现死链的情况,比如站点有些数据需要删除,而删除后这篇文章就是死链,死链对站点的影响还是很严重的,用户是站点的体验一点一点积累起来的,不要因为一点死链而损失用户,我们要定期查询站点是否出现死链,那么出现死链后我们该怎么处理呢?

优化者每天都有一个固定的检查网站友链情况,如果出现死链就会立刻删除,为什么优化者如此重视死链呢?

死链对SEO优化的影响。

一是失去用户体验。

不要忽视死链接带来的影响,要知道用户忠诚度也要靠积累。用户体验是网站发展的基石。

死链接会损失PR值。

公关值是通过链接传递的。死链接无疑会导致网站内部公关值的损失。

假设一个网站的网站结构布局挺好的,但是网站上有很多死链接,那么这个网站的结构设计再好,也没用。

损失了搜索引擎的排名。

假设你的网页没有成为死链接之前,这个网页在搜索引擎上有很好的排名。但是如果因为缺乏有效的SEO项目管理,页面就会成为死链接。这个页面的搜索引擎排名不会超过一周,会立刻消失在搜索引擎上。

4.权重和排名下降。

死链会分散网站的权重,搜索引擎也会通过链接抓取。如果死链太多,搜索引擎会绕道抓取,增加工作量,以后自然会少一些,网站排名也会降低,所以死链也会降低网站的权重和排名。

找死链的方法

1.谷歌网站管理员工具可以在谷歌收录的网页上找到死链接的总数和链接形式,但只能检查验证的网站;

Xenu-死链接检测工具,一款需要安装的客户端软件,件,可以立即检查所有网站。检验结果数据报告非常详细;

3.站长工具死链接检测,网页死链接检测工具;

怎样防止死链接

1.网站上传前,使用网页制作工具检查链接,在上传前杀死无效链接。

2.提高网站管理者的意识,定期使用死链接检测工具查询网站是否有死链接。

3.解决网站程序错误。

4.制作404页,跳转到正常页面。

处理死链的方法。

Disallow:绝对死链接网址。

每个死链接地址对应一个命令句。命令的意思是:禁止搜索引擎访问和抓取死链接。文档编辑后,将robots.txt上传到网站根目录,实现死链接的屏蔽。

2.使用Robots.txt屏蔽或301重定向。

这种方法是许多站长常用的方法之一。但这也会遇到一个问题,那就是如果你的网站内容很大,就像作者观察到的网站一样,在改版升级前收录了26万3000,如下图所示,可以使用这两种方法吗?由于该网站改版后,内容层次分布发生了变化,因此无法用简单的Robots文件屏蔽,只能使用301重定向,但如此大的收录量,使用该方法是最费时费力的方法。

3.直接使用404错误页面。

此方法对收录量大的网站仍然非常有用,将网站内存在的死链接直接跳转到404错误网页。接着用404错误页面将用户引导到修改后的网页。这能减少网站推广流量的损失,使用户能够找到网站。对404页跳转时间的设置,笔者认为不要太短,在8-10秒之间,并且网页有诱使访问者自己点击的链接!

站点死链需要定期检查清理,可以借助工具等方法对站点进行检查。本文对网站优化死链的检查及处理方法希望能给大家带来帮助,如有需要可与我们联系。