开工第一周,项目都正常在进行了,但这周花了比较多时间在重构文案相关的工作流,这里简单分享一下我自己的思路。
传统的做法是,列出文案的目录大纲与大纲中涉及到的数据事实,然后再将这个大纲发送给 AI 让其生成文案初稿。
在这个过程中,自然要注意文案的语气语调,用词难易度,以及其他的一些细节。
等文案的初稿做完之后,我们再人工切进去审核下文案做的怎么样,对于不满意的地方写下我们自己的意见,然后再将文稿打回去让 AI 返工重新完善。
这套流程做起来基本没什么大的问题,毕竟 AI 充当的角色是素材生成助手,真正在做文案的还是我们人。
而且过程中的事实审核与修改意见罗列,都需要我们投入很多精力。
过年假期这段时间,我是有看一些开源文案项目分享,发现有些优秀的文案创作流程,都有一个文案审核的步骤。
有点类似于之前分享的“反思翻译”,即用 A 模型去做文案生成,然后将生成完成后的文案交由 B 模型审核,最后再将原稿与审核意见交由 C 模型做最后完善。
也正是受到这种逻辑的启发吧,我这周开始对我自己的那套文案生成流程做优化,在过程中加了两个步骤,分别是模型的相互审核与文案用语的人性化。
步骤一的逻辑很简单,在我的指导下 AI 很快就帮我写好了相应的代码。
实操出来的效果确实还挺不错的,可能唯一的缺点就是有点费钱,并且有些长文案因为 token 溢出的缘故,导致优化过程中经常被中断(需要提前对文稿做 Token 是否溢出的判断)。
其实这几天是有在持续解决这方面的问题,总算是将一个能用的稳定版本做好了,后面出现新情况再来想办法解决吧。
至于步骤二让文案人性化一点,就是为了尽可能让 AI 说人话。
很多时候,即便我们在 Prompt 明确要求了句式句型等等信息,但 AI 最终输出出来的内容还是会踩坑。
既然事前没办法做好这点,那干脆转变思路,我们加一个事后控制环节,去清洗 AI 输出文案中的那些机器感十足的文案。
这类文案信息,维基上已经有专门的页面在整理了,且也有好几个开源仓库在整理这部分内容。
那我们直接将这类信息拿过来,放到自己的项目底下,等 AI 文案初稿定下来之后,再让 AI 模型根据这份信息过滤一下我们的文案初稿。
这部分的操作逻辑是没什么问题的,但是我这周只是将大体环节做完了,其中还有一些细节相关操作没做。
等后续处理完之后,找机会对比下某篇文案初稿做人性化用语过滤前后之间的差异,我看别人分享的效果还挺不错的,我自己实操下来希望也是同样如此吧。
反正做了这么多操作,我自己的初衷就是尽可能让自己在 AI 的协助下,把文稿做得尽善尽美一点点。
但我也知道文案是给人看的而非机器,所以更多的精力还是放在需求挖掘、通点挖掘上了。






