生成式AI模型最近种类繁地不断多涌现出来,令人难以置信。它们可以接收不同的内容,像是图像、较长的文案、电邮、社媒内容、录音、程序代码和结构化数据等。它们可以输出新的内容,像是翻译、问题解答、情绪分析、摘要,甚至影片。这些内容机器在商业上有许多潜在的应用,我们现在来谈谈其中几个。
这些生成式模型在许多商业领域都有潜在的价值,但应用在营销领域可能是最为常见。例如,Jasper是GPT-3的营销版本,能够生成文章、社媒贴文、营销文案、销售电邮、广告,以及其他要给顾客看的内容。它坚称经常用A/B测试来测试自己的输出,并针对搜寻引擎的排名将内容最佳化。 Jasper也用顾客的最佳输出微调GPT-3模型,Jasper的高管表示,这种做法带来了大幅度的改善。 Jasper大部分的顾客都是个人和小型企业,但大企业有一些团队也在使用它的功能。例如,云运算公司VMWare,它的写手在制作原创的行销内容时(从电子邮件、产品活动到社媒文案)都在用Jasper。负责产品驱动增长的总监罗莎.李尔(Rosa Lear)表示,Jasper协助公司提升内容策略,写手现在有时间做更好的研究、发想和策略。
公关与社群媒体代理商鲁比媒体集团(Ruby Media Group)的负责人克莉丝.鲁比(Kris Ruby),目前正运用生成式模型来生成文本和图像。她说,这些模型大幅提高了SEO的效果,在公关方面也提供写手一些个人化的话术,效果十分良好。她认为这些新工具开启了一条新的著作权战线,此外,她也协助客户制定AI政策。她说,自己在用这些工具时,「AI占10%,我占90%」,因为她得进行非常多次的提示、编辑和迭代。她认为这些工具可以让文章写得更好、更完整,有利于搜寻引擎找到文章,而且图像生成工具可能会取代图库市场,有助于创意工作的复兴。
DALL-E 2和其他图像生成工具已经运用在广告上。例如,亨氏(Heinz)使用一张番茄酱瓶子的图片,上面贴有与亨氏相似的标签,称「这就是AI看到的『番茄酱』」。当然这只是表示模型在训练时用了相对大量的亨氏番茄酱瓶子的照片而已。雀巢(Nestle)使用维梅尔(Vermeer)一幅画作的AI强化版,协助销售它其中一个优格品牌。服饰公司Stitch Fix已经使用AI向顾客推荐个性化服饰,目前正在实验DALL-E 2,依照顾客对于颜色、布料和风格的偏好,建立服装的视觉化图像。美泰儿(Mattel)也在运用这项科技生成图像,用来设计玩具与行销。
尤其是GPT-3,也证明可以有效(虽然不完美)生成电脑程式码。 GPT-3的Codex程式受过专门的程式码生成训练,只要向它描述一个「片段」(snippet,编按:一小段可重复使用的程式码)或小小的程式功能,它就可以产生各种语言的程式码。微软的Github也有一个生成程式码的GPT-3版本,称为CoPilot。最新版本的Codex,现在可以找出自己程式码的bug并修正错误,甚至还可以解释程式码在做什么,至少有时候可以这样。微软表示,它的目标不是取代人类程式设计师,而是让Codex或CoPilot之类的工具成为「伙伴程式设计师」,与人类一起合作,提高人类的速度和成效。
大家一致认为,以LLM为基础来生成程式码,在这些片段上确实运作良好,但如果要将这些片段整合到更大的程式,并将这个程式整合到特定的技术环境,仍然需要人类的程式设计能力。德勤(Deloitte)在过去几个月广泛实验Codex,发现它可以让有经验的开发人员提高生产力,并让没有经验的开发人员获得一些程式设计的能力。
德勤进行了为期六周的试行,动用了55名开发人员,结果显示大多数使用者认为,最终的程式码(大部分来自Codex)有65%以上的准确度。总体而言,德勤的实验发现,相关专案的程式码开发速度提高了20%。德勤也用Codex将程式码从一种语言翻译到另一种语言。这家公司的结论是:在可预见的未来,仍然需要专业的开发人员,但生产力提高后,也许就不需要那么多人了。德勤发现,和其他类型的生成式AI工具一样,输入的提示愈好,输出的程式码也会愈好。
LLM目前也愈来愈应用于对话AI或聊天机器人的核心。和当前的对话科技相比,LLM对于对话的理解和上下文的认知,程度可能更好。例如,Facebook专为对话而设计的BlenderBot,能够和人类进行长时间的对话,同时又能维持上下文。 Google的BERT用于理解搜寻字词,同时也是自家DialogFlow聊天机器人引擎的组件。 Google另一个LLM是LaMBA,也是专为对话设计的,与它进行的对话曾让这家公司的一位工程师相信它有知觉。它只根据过去的对话,就能预测哪些字会用在对话里,这个杰作令人叹为观止。
这些LLM都不是完美的对话机器人。它们在训练时用的是人类过去的内容,倾向于复制训练时接触到的任何种族主义、性别歧视或偏差的语言。尽管建立这些系统的公司正在过滤仇恨言论,还是没有完全成功。
LLM的一个新兴应用,是管理组织内部的文字知识(或可能是图像知识、影片知识)。建立结构化的知识库需要高度的劳力密集,因此许多大公司很难进行大规模的知识管理。然而,一些研究指出,如果模型的训练在微调时是以组织内部特定范围的文字知识为基础,那么LLM就可以有效管理组织的知识。 LLM里的知识,可以透过发问,也就是输入提示来取得。
有一些公司正在联合顶尖的商用LLM供应商,探索LLM知识管理的构想。例如,摩根士丹利(Morgan Stanley)正和OpenAI的GPT-3合作,以财富管理的内容来微调训练,让财务顾问既能搜寻公司内部的现有知识,也能轻而易举为客户量身制订内容。这类系统的使用者可能需要接受训练或协助,才能输入有效的提示,而且LLM的知识输出,可能也仍然需要编辑或复核,才能使用。然而,如果这些问题都处理好,LLM就能重振知识管理领域,也能让这个领域更有效地扩大规模。