推荐 Obsidian 这款笔记软件
之前推荐过一款开源插件 Defuddle,它最大的亮点就是可以非常方便的抓取绝大多数网页的正文内容(我使用过的最好工具)。 其实这款插件是由 Obsidian 的联合创始人 Steph Ango 编写 […]
之前推荐过一款开源插件 Defuddle,它最大的亮点就是可以非常方便的抓取绝大多数网页的正文内容(我使用过的最好工具)。 其实这款插件是由 Obsidian 的联合创始人 Steph Ango 编写 […]
我今天在学习程序化 SEO 玩法的时候,看到下图这样的案例。 比如上面这个词条,在搜索结果中排名第一的是领英上的一篇文章,主要介绍的就是怎么去选择内容角度、怎么去做内容加工处理,以及怎么发布。 这种玩
我过去上线网站有个习惯,会针对同一主题的产品上线 2-3 个网站,在风格与内容布局上尽可能错开。 这么做的目的,一方面是测试不同内容上线之后的数据反馈,另一方面是想多弄几个网站参与这个类目的排名竞争。
简单聊聊我最近对一个被惩罚站点所做的操作。 这个站点的具体情况之前也有过分享,主要是过去已经收录的链接在不停的掉,而最近新上线的内容则全部都不收录。 因为上线的时间不长,所以想着看看能不能补救一下。
之前文章中分享过,我几个新站点的最近的收录数据非常非常惨。 现在反思一下还是我们的内容创建出了问题,基本都是流程化的那一套,可能过去有一点点用,但是今年开始就根本没什么用了。 不仅新上线内容不收录,且
我昨天晚上使用 AI 模型对网站页面进行技术 SEO 的检测,过程中有个比较有意思的点值得分享下。 我的网站设置了 www 这样的前缀,也就是说我们在浏览器输入 domain.com 这样的根域名时,
我最近这段时间,都有在利用空闲的时间看别人分享的 AI 进行协同办公相关内容。 就觉得好好消化这些分享内容,然后应用到自己的工作场景中去,也是一个非常不错的成长路径。 先说怎么找经验分享,再聊聊怎么消
在进行内容调研之前,我一般习惯搜索下关键词,看看排在前面的竞争对手是怎么输出内容的。 在搜索结果中,可能会存在一种情况,就是竞争对手网站的权重非常高,但实际内容比较拉胯,这种便直接略过。 重点就是实力
今年上线的几个新站点,收录情况都非常非常差。 像上面这个站点,这个阶段上传的全都是商品信息,也没做小语种版本。 两周时间陆续做了大几百条商品链接,但最终收录也仅仅只有 60 多条,出词数量在 50 左
去年年底陆续用 AI 优化了某个网站上的全部文章,已经过了快四五个月,分享下其中的一些数据。 我们去浏览互联网上的公开信息,会发现很多文章中其实都有提及这种 AI 优化方法,基本都是三个步骤。 先将自
看关键词趋势的工具有一些,我自己一般习惯使用谷歌趋势,毕竟是谷歌自家的产品且数据全面维度也广。 但如果你有很多很多关键词数据需要监控时,一个一个进行操作会非常耗时。 所以有段时间,我使用了很多这种开源
一般我们上线网站之前,都会使用谷歌的 PageSpeed 测试一下网站各项指标是否正常。 这款分析工具的能力真的很强,能从工具显示的报告中看出很多问题,当然我们也能根据这些报告内容来完善网站的技术细节
我最近有通过产品目录发现了几个不错的细分产品,分享下我是怎么操作的。 其实产品目录很多网站都有,比较常见的有电商平台、采购信息网站、展会商品目录,甚至是有专门之类数据库。 比如下面这张图就是广交会官方
平时我自己对几个站长工具的使用都比较浅,通常就是看看网站的出词排名数据,看看每天的具体搜索表现。 之前也尝试使用过 Looker Studio 这样的可视化数据分析工具,来持续跟进网站的数据表现。 但
聊聊目标受众触达的问题。 老朋友基本都知道,我现在只做搜索引擎的自然流量了,其他的所有渠道全部都被我砍掉了。 究其原因就是自己的能力、精力、资源等等方面都有限,能玩好一个渠道就已经非常不错了。 反正我
我最近有个网站在提交站点地图时碰到个比较棘手的问题,如下图。 这个网站是去年年底上线的,当时打算是过完年回来后再更新内容。 十多天前便开始处理内容更新,陆续有上传了大几十款产品信息,但是最近在检查收录
今天有朋友向我分享了一个网站,通过这个网站可以查询大量的潜在客户信息(下图)。 网站后台的界面其实很简单,等你登录进去之后,可以在左侧边栏选择自己想要的数据。 然后再在这类数据上进行筛选,便可以找到自
我平时被动获取信息的渠道主要就两个,一是社媒另一个便是邮件订阅。 两者的逻辑其实都挺简单的,只要看到不错的内容之后便点击一下关注,或者输入自己的邮件地址提交下订阅。 后续在刷这些信息时候,如果某个内容
我自己的能力有限,很多时候知道这段文案如何优化,但是自己用英文写不出来,尤其是那种本地化的表达更是一点都写不出来。 为了解决这个问题,之前一直使用的方案是 DeepL Write 方案。 使用起来也比
昨天晚上浏览信息的时候,发现一个比较有意思的开源项目。 这个项目的主要功能就是将区域地图,通过技术手段渲染成一幅地图海报。 我猜这个项目的技术逻辑并不复杂(没看具体源代码),就是通过谷歌地图之类的 A
随意分享下一种网站流量的寄生玩法。 之前有介绍过寄生模式相关的内容,我自己平时也有做一些基础平台的寄生,恰好最近翻到一个不错的案例。 比如上图也是一个 GitHub 仓库,里面就一个 README 主
分享个有意思的点,季节性 SEO 的关键词布局,最近这几天看到好几篇文章有分享这部分内容。 这部分优化操作我自己是没做的,之前主要是觉得这类关键词不好操作,尤其是在一些热门季节性关键词的布局上,我们的
这几天有看别人分享 OpenClaw 的使用经验,看完之后不得不承认它火起来确实是有原因的,这款工具在一些繁琐任务、重复任务的处理上特别厉害。 但我现在还没急着去深度使用这款工具,原因其实也非常简单,
目前市面上的主流数据分析工具,都有开通类似 AI 可见性监控这样的功能。 但这样的功能实际体验下来,其效果并不是很好,我自己认为主要的原因有两个。 一是在 AI 搜索引擎里监控品牌提及信息时,所使用到