微信客服
Telegram:guangsuan
电话联系:18928809533
发送邮件:[email protected]

谷歌“有用内容更新(HCU)”后,你的网站要做哪些减法

本文作者:Don jiang

做“减法”需删除30%-50%低质量或无流量页面(如重复、AI堆砌、过时内容),合并相似主题,提升原创占比至70%以上;减少关键词堆砌(密度≤2%),精简广告与跳转;清理无作者/无来源内容,补充作者资历与数据引用,提升EEAT与用户停留时长。

内容清理

四类清理对象

登录谷歌站长后台把时间拉到过去的 16 个月。把所有网页的点击和展现次数下到一个电子表格里。找那些上线过了半年、鼠标点进去不到 9 次、连展现量都不够 250 次的网址。把带 /blog/ 后缀的文章页单独分出来看。

把 3000 个网址丢进普通的抓站小工具里跑一圈。看看每页写了多少字。挑出那些写了 1500 多字、最近三个月在谷歌里一个人都没来的页面。有些词一个月有 500 个人搜,你的文章偏偏排在第 12 名。1000 个人路过只有 3 个人点进去看。

切到流量统计后台看大家停留了多久。一篇文章洋洋洒洒 2000 多字,读者平均只呆了 12 秒。正常人一分钟也就读个三四百字。12 秒顶多扫一眼大标题和前两行字,完全没帮人解决想查的问题。

访客扫了一眼没接着往下滑,顺手点掉网页退了出去。流量后台会把这记成一次差劲的访问。把那些互动比例不到 15% 的网址单拎出来找个地方存好。

用表格把两边的数据凑在一起找规律:

  • 上线超 180 天展现少于 50 次的纯字文章
  • 统计停留不到 10 秒的千字长文
  • 标题带着前几年年份的老旧新闻整理
  • 互相抢同一个词的 3 个相似网址
  • 被谷歌标了找到但没收录的列表页

找卖服务器的人要最近 30 天的访问日记。用文本查看工具扫一遍。看看谷歌的机器多久来你的站里逛一次。有一批网页整整 90 天都没被机器摸过一下。

搜索机器把那批网址打入了冷宫。每天本来就只有那点抓取额度,全浪费在空荡荡的分类页上了。去后台数数 /tag/ 目录下的标签,800 个标签点开居然只有孤零零的一篇文章。

鼠标右键看看网页底下的代码。做网站的人塞了 400KB 的特效文件进去。页面上真正让人看的字只有干巴巴的 150 个。字数连整个网页代码的一成都占不到。

照着代码和日记划拉出要处理的名单:

  • 字不到一成全在秀特效的展示页
  • 超 90 天没被机器重新光顾的深层网址
  • 文章里带 5 个以上点不开链接的旧文
  • 大标题和内容完全对不上的排版错页

找个测排名的网页测一下。输入你的域名,看看排在谷歌第 11 到第 50 名的数据。一篇文章莫名其妙匹配了 40 个八竿子打不着的长尾词。早些年随便抄文章拼凑留下的烂摊子。

去搜索框打 site:你的域名 加上你卖的货的名字。搜出来 15 个带着这个词的页面。挨个点开最上面的 5 篇,内容居然有七成是一模一样的

去看看卖货网站的商品目录。一个鞋子分类下就放了两双鞋,下面硬生生用机器生成了 800 字的介绍。买东西的人只想看清两张图片、50 块钱的标价和鞋码。大段没用的字把屏幕最抢眼的位置占满了。

翻翻博客后台的评论记录。文章发了两年多,底下一个活人留言都没有,全是塞着博彩网址的垃圾乱码。去找个记录鼠标轨迹的工具录屏。

录像显示 500 个进网页的人里头,就 10 个人拉到了最底下。有 400 个人的鼠标都点在网页最上面的“返回主页”按钮上。大家急着逃离现在的页面。字号弄得连 12px 都不到,拿手机看非常费眼睛。

翻一翻这三个月收到的客户邮件。有人抱怨某篇教程里的操作根本走不通。一看那个网页发布的日子,停在了 2019 年 4 月。教人用的软件界面早就改版了 4 次了。

回到人们平时上网的习惯去揪烂文章:

  • 一打开满屏幕都是 300px 高广告的流量页
  • 手机上字号太小一行挨着一行的文字块
  • 放着早就不能用的播放器视频的老网页
  • 两年没动过而且配图全挂掉的教程文

分类处置

把找出的 500 个劣质网址全选,拉进一个在线共享表格里。给每一行写上要怎么处理的备注标签。千万别脑子一热就按键盘上的删除键全部清空。留给我们的有四个操作选项,分别是做 301 跳转、报 404 错误、翻新文字、写代码屏蔽。

手里正好有 5 篇全在讲“咖啡豆防潮”的老文章。那篇标号为甲的文章每个月能捞到 120 个访客点击,老老实实排在谷歌第 6 名。乙、丙、丁、戊 4 篇文章数据难看,过去整整一年加起来只有 4 个人点进去看过。

动手把乙文章里写得挺详细的 300 字防潮袋用法复制下来,原封不动贴进甲文章的第三段。去丙文章里把那 2 张带密封罐的实拍照片右键保存,上传塞进甲文章的图库里。

打开网站后台找到那个负责做转向的插件工具。把乙、丙、丁、戊 4 个旧网址的终点统统指向甲的链接。以前网友发在外部贴吧里指向旧网址的 15 个老外链,顺着跳转全把流量灌进了文章甲。

符合合并旧文章的硬性条件:

  • 标题包含的搜索词重叠度超八成
  • 每天能拿到的真实点击不到 5 次
  • 带着 2 条别人网站给的外部链接
  • 发布时间已经超过 20 个月的老文

去翻卡在谷歌第 11 名到第 20 名的文章。文章大体框架没毛病,里面包含的信息太有年代感了。打开网页上的文字编辑器,动手把标题里的 2022 年改成今年。顺手把开头那段 50 字的寒暄客套话删得干干净净。

删掉文章里 3 张只有 800×600 像素看都看不清的旧截图。拿起手机对着实物重新拍 4 张 1080P 的高清亮堂照片传进后台。上周邮箱里收到了 20 封客户来信,挑个问得最多的小问题,手打 150 字加在文章末尾当解答

拿个查断链的小工具扫出一篇文章里的 12 个打不开的死链。把原先点进去只报 404 错误的废弃引流链接,替换成昨天刚刚有人更新过的维基百科词条。鼠标点一下右上角的发布按钮,把网页的时间戳拉到今天。

动手改的地方后台数据变化能达到的效果
换 4 张高清图停留时间多 20 秒降低网页跳出率
修复 3 个死链爬虫抓取多 5 次改善整站健康度
加 150 字解答增加 2 个长尾词提升搜索曝光量
刷新日期时间戳点击率涨 2.5%吸引访客来点击

眼睛盯紧 200 篇一年到头彻底没人看的垃圾短文。全是 2018 年花钱买软件东拼西凑搞出来的 150 字短讯。连续 16 个月后台点击量统计全是个大零蛋。去后台列表里勾上全选这 200 篇文章,狠狠按下放入回收站。

主机服务器会乖乖听从指令做出反应。搜索机器再来顺着链接爬 200 个旧网址,服务器会扔给它一个 404 找不到或者 410 永久删除的错误代码。谷歌机器下周摸过来看到报错,转头就把网页从庞大的搜索库里清理出去。

你的网站一天只有 1000 次让机器进来抓取的固定名额。清掉 200 个没营养的废页面,机器跑去抓取你新写的好文章的次数变多了。发新网页被收录的速度立马从原来的 5 天缩短到了短短 12 个小时。

盯着 15 个退换货政策页和购物车结账网址。买衣服的人得花足足 3 分钟仔细阅读那 3000 字的退款条条框框。去搜索框里查资料的人压根不想在结果列表里看到一辆空荡荡的购物车。

打开代码编辑器准确找到 header.php 这个文件。在第 4 行空白处塞进去一段 <meta name="robots" content="noindex"> 的阻挡代码。网页好好地摆在你的站里,买家点菜单照样能进去看。搜东西的机器读懂了代码,7 天之内就会把网页从搜索列表里偷偷抹掉。

必须要加阻挡代码的偏僻网页:

  • 超过 5MB 专门供人下载的说明书
  • 带着 /wp-admin/ 后缀的员工登录后台
  • 访客自己在站内搜索框打字搜出的列表
  • 里面只孤零零装了 1 篇文章的分类目录

改完 500 个网址,把表格丢给服务器管理员按单子干活。安心等上 14 天再去流量统计后台看一眼。留存下来的 100 篇优质好文,有 30 篇的排名悄悄往前挪了 5 个位置。每天通过搜索框进站的总人数稳稳当当涨了 40 人。

去重整合

为什么做

去年9月搜索程序更新改写了数百万网页的命运。一个做了5年的园艺博客原本每天拥有8000名自然访客,几周内断崖式掉落到不足1500人。后台统计数字显示,该域名下20篇针对“番茄浇水指南”反复撰写的相似文章遭到了系统大面积降权。

现在的爬虫机器人极度反感把一份资料换两三个标题反复发布的行为。一台服务器内低质重复页面占比越过30%的警戒线,全站的文章展现量会遭到连坐式削减。原本站内有30篇耗费20个小时拍摄剪辑出来的真人测试好文,连带着失去了出现在搜索结果前三页的资格。

把分散的百字短文拼合是一项能迅速改变阅读量数据的操作。分发在5个不同网址里的600字零碎文字,被拼成一篇配有7张高清图的3000字大篇幅页面。页面热度插件记录下,访客在屏幕前滑动停留的时间从以往的35秒延长到了2分10秒。

挑出需要删减合并的冗余网址只需查看几项极其基础的数据指标:

  • 发布超过24个月毫无访客留言的老旧帖子
  • 搜索引擎带来5000次曝光点击人数少于10人的页面
  • 两篇重合率达到60%以上的同义词文章
  • 外部同行站点零引用的边缘角落杂文

合并网页就像把三根细水管连进一根粗管道。原页面A带有3个外部网站的推荐超链接,原页面B带有5个外部推荐,原页面C带有2个。给旧网址配置好301跳转代码,一篇新的聚合文章瞬间获得了10个独立域名的信任投票。

合并重组能消灭自家网页互相抢夺流量的内耗局面。搜索框输入“平价猫粮推荐”一词,搜索结果第二页挤着某宠物站的4个不同链接。每天仅有的300个自然点击量被强行分散到4个页面上,没有任何单一页面能积攒足够的点击权重冲进首页前三名。

保留几千篇一模一样的陈旧文件会白白消耗机器人的每日抓取配额。Googlebot每天留给普通个人博客大约200次的页面扫描额度。高达150次的名额被几年前没人看的废纸占用,站长昨天刚更新的两篇带有3个实拍视频的干货长文苦等10天都无法被收录入库。

处理同类项文档需执行严格的段落去留筛选动作:

  • 删去3年前早就过期的旧款商品标价数字
  • 留下带有博主本人出镜评测的4张真实图文
  • 把五篇文章里的零散参数填进一个20行的大型数据表
  • 保留旧版页面底部网友敲下上百字的真实交流评论

找出“克隆页面”

坐在电脑前把五六千篇文章一篇篇点开核对,是一项极其折磨人的苦力活。网站后台装载的所有网页链接被一口气导出来,存成一份包含几十列数据的Excel电子表格,整个排查过程会轻松一大半。

打开站长专用的数据大盘面板去拉取历史记录。日历过滤器的范围被拉长到过去的16个月,按下页面右上角的导出按钮,硬盘里会多出一份塞满60000条访客搜索词汇的CSV原始文件。

表格软件里对“展现量”那一列做个降序排列。目光重点盯住展现数字突破8000次旁边的“真实点击”却少于20次的行记录。不到0.25%的点击率摆在眼前,几个网址互相打架抢流量的现象一目了然。

搜“二手单反镜头怎么挑”单单一个词,同一个网站有三个网页分别卡在第14名、第17名和第19名的位置,每天合计只捞到3个少得可怜的访客。

去网页搜索框里敲一串特定的字母代码能马上摸清自家网站的底细。手动敲下site:你的域名.com 机械键盘红轴,敲击回车键去看屏幕上吐出来的收录列表。

眼前连续跳出8页全部挂着自家域名的文章网址。排在最前头的5个链接,标题文字有高达85%的字符长得完全一样。一模一样的水文大把大把地浪费着服务器硬盘空间。

找个几兆大小的网页抓取小软件对全站的800个短链接做次地毯式扫描。程序被设定为只提取每个页面的加大加粗主标题,跑完会生成一份纯粹记录标题和字数的TXT文本文档。

  • 圈出标题里依然挂着“2018年最全”、“2019最新”过期年份数字的落后网址
  • 挑出正文汉字加起来拼凑不到400字的干瘪新闻小快讯
  • 提取排版乱七八糟、从头到尾只塞了1张模糊低像素配图的老旧发文
  • 筛出前50个开场白文字一字不差的批量复制粘贴产物

调出记录访问者浏览习惯的后台留存图表。关于同一支防晒霜的3篇评测文章里,两篇的单人平均停留耗时仅有区区18秒钟。跳出率常年顶在92%的高位上下浮动。

去检查网页背后有没有其他网站给出的推荐投票。五个长得很像的网址被丢进外链检测框里。网址A带着15个权重极高的外部超链接,剩下四个网址的数据全是光秃秃的零蛋。

拿着手机的读者大拇指往上滑了两下,屏幕里全是前天刚看过的空话套话,第12秒钟就会毫不犹豫按下左上角的返回按钮跑路。

网址链接的一连串英文字母排列规律里常常藏着猫腻。2021年10月份仅隔了3天发布的/camera-lens-guide//buy-lens-tips/两串英文URL,点进去看内容雷同的概率高达九成。

1200篇日记博文按照字数长短做个从低到高的强制排序。字数跌破500字大关的短小网页,大部分是从某篇三千字大文章里硬生生拆分出来的边角料。

针对“新手烤箱做饼干”找出了18个带有相关字眼的网页。逐个点开比对会发现里面14个都在用换汤不换药的口水话,翻来覆去地念叨烤箱预热15分钟和高筋低筋面粉区分。

  • 查验单个短链接过去30天的日均自然访问人数有没有突破15个人头
  • 翻看页面最底端是否挂着带有超80个字真实经验分享的网友盖楼跟帖
  • 确认纯文字里有没有插进去一段长达3分钟的独家第一视角实操录屏
  • 比对正文里附带的商品比价表格是不是近两个月内刚刚填进去的新数据

如何整合

把5篇教人“做手工香皂”的文章网页摊在电脑显示器上。去流量统计软件里拉一份长达90天的访客报表。排在第一位的那个网址每个月雷打不动能拿走350个访客,身上带着8个外部网站的推荐超链接,它理所当然成了要保留的主网页

剩下四个页面每个月连10个人头都凑不齐,马上要被拆掉重组。千万别去按键盘上的删除按钮去清空文件,系统后台会凭空跳出4个404找不到文件的报错代码。路过的搜索机器人看到一片白板页面会狠狠扣掉网站的维护基础分。

新建一个纯文本文档,把那4个旧网址里的汉字全部复制进去。拿着鼠标当笔,在三千多字的乱码废话里把真正有用的干货碎片一点点抠出来:

  • 2021年老帖子里附带的3张硅胶模具脱模照片
  • 旧文第三段写得极度明白的皂化发热反应原理解释
  • 网页最下方留言区里网友分享的添加迷迭香精油配方
  • 一篇短文里记录的冷凝风干耗时72小时的测试数字记录

带着刚找出来的四块拼图,回到刚才挑好的那个主网页后台编辑界面。3张脱模照片插进原本只有两行文字的“模具准备”段落上方。给每张图片敲上包含“手工皂脱模技巧”字样的替换文本,顺手用小工具把单张图片的体积压榨到100KB以内。

几百字的反应原理文字填进文章开篇的背景介绍段落里。整篇主文章的字数从干巴巴的800字,像吸了水一样膨胀到了内容饱满的2200字。打开网页编辑器附带的折叠面板功能,网友贡献的精油配方变成了一个只占半个屏幕高度的问答下拉框。

拼好文字素材,去把页面里陈旧发霉的数据标签全部替换成新鲜数字。标题里的“2022年版”改写成当下日历上的真实年份,正文里标注“45美元”的过时椰子油原料标价被改成了购物网站上最新查询到的38美元。

敲定图文排版,去处理那4个被掏空了文字的空壳废弃链接。登录服务器的后台控制面板找找,翻出那个名字叫.htaccess的系统规则文档。在最底下敲入几行301重定向跳转代码,把那4个旧网址的路标全部指向刚刚写完的2200字大文章。

写好系统永久跳转规则,如同给街角邮局递交了一份搬家后的新地址变更单。访客从三年前存在电脑浏览器里的旧书签点进去,系统会在0.8秒内把他们平滑过渡到那个排版漂亮、图文并茂的新网址上,一点卡顿感都没有。

外部同行博客过去给那4个旧网页投下的信任投票超链接,会顺着这条新铺好的跳转线路转移给新页面。等待三天后去查看站长工具的外部链接报表,那篇主文章背后的推荐链接数量从原来的8个,稳稳当当爬升到了14个。

动手拼凑文章内容时,手边有几条高压线绝对碰不得:

  • 探讨不同访客搜索目的的网页绝对不要生硬拼在一起
  • 不要把一个带有购物车的卖货页跳转到一篇纯记录日记上
  • 单次合并的旧网址数量最好压制在5个网址以内
  • 接收流量的目标地址百分之百匹配旧文章的讨论话题

改完服务器最底层的代码文件,网站内部成百上千篇旧博文里肯定躺着坏掉的超链接。装一个能检测失效链接的小型插件程序,让它去全站所有的历史发文里做一次彻底的地毯式扫荡。

小插件满负荷跑了大约20分钟,揪出了全站带有旧链接的58篇陈年旧日记。拿着鼠标挨个点开系统编辑界面,把带有下划线的旧网址全部抹掉,换成那个全新的主网页URL。

去后台根目录把自带的XML网站地图文件点开看一眼。被淘汰掉的4个网址依然大摇大摆地躺在里面,霸占着爬虫每天分配下来的抓取限额。手动用退格键把那4行带旧网址的字母代码删得干干净净,保存退出系统面板。

把修改好的纯净版地图文件去搜索控制台重新上传提交一次。大约熬过48个小时,在搜索框里输入旧网页的一长串网址,出来的结果变成了那篇2200字的全新大作。

质量提升

减去凑数页面

打开 Google Search Console 网站后台,把日期选项拨到过去 16 个月。勾选屏幕上的总点击次数、平均点击率两个选项卡。用鼠标往下拉,点开网页报表右上角的漏斗图标。敲入数字 10 ,把点击次数不到 10 次的网页全部筛出来。

屏幕上冒出来的网址大都是两三年前写的旧文章。切回后台去查字数,文章长短基本在 250 到 400 字上下徘徊。文章里孤零零地贴着一张 600×400 像素的免费图库风景照。整篇文章被硬生生地切碎成了七八段非常短的句子。

搜索爬虫来抓取一个普通 HTML 网页大概要花掉 15 到 30 毫秒。爬虫额度遇到几百字的文章很快就会被消耗光。去翻看服务器日志文件,里面密密麻麻记录着全是 200 状态码。带有 200 状态码的网址没什么人点进去看。

动手清理前得拿个尺子量一量哪些网址该扔:

  • 放了 12 个月连一次点击都没有
  • 网页被人打开不到 15 秒就关掉
  • 内容跟网站主营业务偏差达到 80%
  • 跳出率常年卡在 92% 上下

把符合标准的坏网址存成一份 CSV 表格文件。打开 Excel 软件,敲入 VLOOKUP 函数跟访客漏斗数据对一对。挑出那些连一个真实访客都没有的长尾链接。把没用的链接圈选出来,去后台操作批量修改。

把没用网页的状态码从 200 强行改成 410 Gone。410 代码是在向爬虫下达彻底清理的口令。爬虫收到信号后会在一到两周内把网址从库里删得一干二净。改完后去站点地图 xml 文件那里点一下重新提交。

表格里会剩下几个看起来还能抢救一下的短篇网址。点开一看,三四篇 500 字的短文讲的都是同一个事情。访客大都在页面滑到 40% 的位置就点叉走人了。把三五篇短篇里的文字全选,复制粘进一个新的空白编辑器里。

把文章开头没话找话的寒暄文字全部删掉。按照时间先后顺序把文字拼在一起,填上做测试时的真实数据。配上三张自己亲手画的数据图表,拼出一篇 2500 字以上的长文章。长文章发出去后去着手处理老网址。

登录买域名的那个控制面板,找一个叫 Redirection 的插件点开。敲入 301 永久重定向代码,把老网址的访问路径指向那篇 2500 字的新文章。过去零散访问老页面的老访客会被带到新链接上。

等个 21 天到 45 天,回搜索控制台盯一盯图表上的曝光曲线。新文章展现量能冲到以前三篇短文加起来的 1.5 到 3 倍。盯着那个页面停留时间的统计格子看,大都跑到 3 分 30 秒往上了。

平时在电脑桌面装个抓取软件去筛查质量差的文本:

  • 免费版 Screaming Frog 软件跑 500 个内部链接
  • 用软件设置过滤词抽出字数太少的网页
  • 揪出 HTML 代码里文字占比不到 10% 的病态网页
  • 查重找出版面上带着多个重复 H1 标题的短页面

文字比重不到 10% 代表网页里装了太多臃肿的无用代码。几百个字的正文外面包着几千行花里胡哨的 CSS 样式代码。拿手机连上 4G 网络去打开网页,白白干等 4.5 秒都出不来图文。看文字的人还没等版面加载完就滑走退出了。

开源建站系统一装好,总是会自动冒出一大堆标签页和分类目录。只有一两篇文章的标签分类页在爬虫眼里就是个空壳子。去看一眼全站收录报告,带 tag 后缀的网址报错率非常高。空壳页面多了会把整个域名的质量评分拽下来。

进后台设置给所有的标签页打上一个 Noindex 不准收录的标签。把只起导航作用没有阅读内容的列表页关进黑名单。给分类目录页手动敲上 150 字的介绍指引文字。用大白话告诉进网页的人,这个栏目下放了哪 5 块具体的话题。

定下个规矩,每个月去看一次后台的四项数据变化:

  • 看控制台里已发现未索引网址的增减数字
  • 去翻服务器每天爆出 404 错误日志的次数
  • 算一算字数不到 800 字的文章占了百分之几
  • 量一下手机端收到第一个网络字节是不是超过 800 毫秒

减去“机器味”

点开网站后台的文字编辑框,随手翻出 10 篇半年前发出去的旧稿子。眼睛扫过第一段,满屏全写着“伴随时代前行步调加快”似的客套话。单单打招呼的开场白就占去 180 个字,半点有用的信息都没放出来。查一查数据看板里的停留耗时,多数看客在读到第 12 秒那会就点叉关掉页面走人了。

发文软件平时大都设定了固定的 API 接口口令。敲下回车键,单篇文字悄没声地消耗掉大约 800 个 Token 额度,花费了 0.02 美分,吐出来一堆似是而非的车轱辘话。要想把带有真情实感的阅读感受找回来,得动手把冷冰冰的机器外壳砸碎。

筛查页面文字前先给自己定下几条删减红线:

  • 带有浓厚说教口吻的 50 字超长句子
  • 整篇 1000 字找不到第一人称“我”的实操记录
  • 短短 50 个字符内硬塞入 3 次相同的主搜索词
  • 带有“绝对”字眼的 100% 肯定语气表达
  • 照搬百科网页里 1990 年以来的生硬历史资料

眼睛盯住屏幕上方那 150 个字的客套段落,按下退格键全删干净。换上上周二早上 9 点做软件测试时碰到的真实弹窗报错提示。把那个红色的 403 错误代码清清楚楚敲在首段第一行。看客点进网页一看,明白敲键盘的人真正花过 2 个小时去试用那个工具。

目光移到网页中间的文字区块。机器生成的稿子总爱用极度工整的段落排版。每一段的长短出奇一致,字符全落在 85 到 90 个区间里。连续 5 段扫下来,排版整齐得像用模具刻出来的一模一样,让人看两眼就打瞌睡。

拿起鼠标把呆板的排版样式打散重组。有的段落切成仅有 15 个字的单句,有的保留 110 个字的详细操作长段。错落有致的视觉间距能让眼睛得到充分放松。在第 3 段和第 4 段的间隙插一张用手机后置镜头拍的实物图,文件体积压缩到 120KB 以下。

有些老文章迎合搜索引擎的口味太重,染上了一身浓烈的机器写手毛病。写稿的人恨不得把搜索词条填满每一个段落的 5 毫米缝隙。敲击键盘 Ctrl+F 查那个主词,一篇 800 字的文章里亮起 25 处刺眼的高亮标记。动手把多出来的 18 个主词全换成平时说话用的自然称谓。

光靠肉眼去挑机器留下的痕迹有些费神,装上几个小插件扫一扫能省下 30 分钟:

  • 把文字放进检测器里扫出疑似度突破 70% 的区域
  • 用 Hemingway 编辑器揪出包含 20 词以上的超长复杂句
  • 清算文章里的副词占比超出总词汇量 5% 的病态段落

插件扫出来的 6 处黄色高亮句子得逐一去改写。把机器爱写的“发挥该项技术的最大效能”换成大白话“就用这个笨办法”。把空空泛泛的“响应速度得到大幅改善”改成“启动耗时缩短了 3.2 秒”。手里掌握的真实测试数据比 100 句华丽的修辞都要管用。

大段大段空洞无物的大道理也要狠心砍掉。机器写稿子习惯在文章末尾加上一段 200 字上下的宏大抒情。翻看后台的阅读热力图,连 8% 的访客都不会把屏幕滑到底部那个位置。把没用的抒情文字删个干净,只留下 3 条简单明了的防错建议。

整篇文字改完后自己出声读上一遍。读到第 450 字的地方要是觉得憋气,赶紧去加个逗号把 30 字的长句劈开。正常人的呼吸停顿节奏和机器吐出来的固定字符长度截然两样。一篇 1200 字的短文带上写稿人的主观情绪起伏,读完一圈刚好花上 3 分 15 秒。

减去“过期失效”信息

点开网站后台的文章库,把发文日期倒过来排。满屏幕挤着标了 2019 年的老旧文章。随手找一篇 1500 字教人填报税单的稿子,正文第三段贴着的图还是 V2.1 老版界面。看网页的人在 2024 年搜进来,盯着老截图看上 8 秒钟立马点叉关掉页面。

挂着旧年份的文章就像摆在超市货架上的过期罐头。去访问后台查一查数据,标题写着“2021年买本子指南”的网页,过去 90 天的点开次数大都掉到了两位数。满屏幕过时失效的旧操作步骤,只会让进来的人觉得写文章的人早跑路不管事了。

靠两只手去挨个翻网页查旧信息太费功夫。去电脑桌面双击点开 Xenu 抓链接的小工具,把网站的网址敲进去跑一圈。软件花上 15 分钟能把全站 2000 个内部链接底朝天翻一遍。屏幕上会用红字挑出 40 个报出 404 找不到页面的废弃外部链接。

抓取结果全跑出来后,照着几条道道去给坏链接分分类:

  • 返回 503 报错状态的失联官方引用来源
  • 跳到已经关停跑路的同行个人博客网址
  • 点过去提示已被覆盖的旧版 PDF 说明书
  • 转到写着商品已下架的网上开店买卖网页
  • 原作者早就清空内容的发日常动态老帖子

把文章里断掉的废链接找出来,进编辑后台一个一个换掉。原先引用的官方数据网页改版打不开了,花 5 分钟去 Wayback Machine 网页时光机里挖出 2018 年的存根换上去。碰上彻底死掉的外部资源网站,干脆把那一段 120 字的废话解说全删掉。

动刀子翻新带有时效的旧文章得按特定手法去修补。

旧文章具体长啥样对应去怎么修补大概要花多少时间
标着旧年份的操作步骤重新敲 300 字新步骤,改标题里的年份20 分钟
彻底停产不卖的电子产品开头加 40 字免责大白话,给个新产品网址5 分钟
已经作废不能用的老规矩删掉旧文,敲 301 代码跳去新规矩页面3 分钟
年年都办的展会预告消息留着原网址,清掉旧日子,填进新一年的事15 分钟

以前写的数码硬件评测稿,过了 3 年连厂子里的装配线都拆干净了。硬着头皮改文章发布时间去骗爬虫,1 个星期内绝对会招来十几条骂人的低分留言。在文章大标题底下加一个带颜色的 40 字大框框。清清楚楚写上“这东西 2022 年 6 月就不产了,看下面新出的替代型号”。

软件怎么用的文章全都是信息过期的重灾区。写代码的开发商每隔 6 个月就得大改一回软件按钮的位置。对着刚装好的 5.0 新版软件,按快捷键重新咔嚓 4 张 1080p 宽度的清晰截屏。把旧文章里指引看客“去左上角找”的 50 字旧话,全换成新版“往右拉菜单”的大白话。

动手翻新改旧文的时候顺手做个小体检:

  • 核对文章里标的价格跟官方新定价是不是差了 15% 以上
  • 去点一点文里推荐的 3 个第三方小插件现在还要不要收费
  • 拿截图里的软件版本号跟现行新版本比一比是不是差了 2 代

标题和正文都改头换面的旧网页,千万别去动原始的 URL 网址链接串。得把旧网址慢慢攒了 3 年的访问底子留在手里。进后台点一下更新发布的按钮,网页会向外打上带有昨天日期的最新修改时间标记。爬虫顺着 sitemap 摸过来一看时间变了,自然会顺手抓去更新。

每天抽出 40 分钟去抢救 3 篇老得掉渣的旧文。连着干上 20 天,跑去后台刷新看一眼看客停留图表。原先掉到 20 秒出头的页面停留时长,能慢悠悠地往 1 分 45 秒上头爬。页面里没死链没旧图卡着,看网页的人在读文字时也就不会烦躁地划走了。

清掉历史旧账后,拿表格给全站有时效的文章造个名册。把 150 篇容易长毛过期的文章全塞进 Excel 文档里。定好每隔 180 天按着表格去查验一遍里面的指引文字有没有脱节。

滚动至顶部