ChatGPT
用户体验文案设计
GenAI工具使用

如何使用ChatGPT进行用户体验文案的内容设计?

2023-08-08 13:46:29

如何使用ChatGPT进行用户体验文案的内容设计?

在当今数字化时代,用户体验文案的设计对于产品的成功至关重要。随着人工智能技术的发展,GenAI,特别是ChatGPT,为我们提供了新的工具和可能性。但在使用它进行用户体验文案内容设计之前,我们需要做好充分的准备工作。下面我将结合与沃尔沃汽车公司首席用户体验内容设计师Annelie Tinworth的合作经验,为大家详细介绍如何进行充分的提示准备、掌握提示技巧、避开常见陷阱,以及在问答中保持高质量。

一、Gen AI只是一种工具

现在有许多不同类型的GenAI工具,可用于生成视觉效果、视频、文案等。越来越多的人在整个设计过程中使用GenAI,这是一个好现象,但我们在使用时要深思熟虑。

作为内容设计师,我们常见的使用案例是人们用ChatGPT生成文案。要知道,一个词都可能决定整个用户体验的好坏。无论你是设计师、作家、产品经理、工程师还是营销专家,你的工作都可能对产品的用户体验产生深远影响。我们都希望用户在使用数字产品或服务时能有积极的思维、情感和行为体验,而不是感到沮丧或需求得不到满足。所以整个设计,从工作方式到外观感受,都必须准确无误。

在缺乏专业文案工作者的情况下,如何利用人工智能完成与用户体验相关的文本工作,并确保其质量呢?其实很简单,就是“先思考后提示,先检查后发送”。接下来,我将深度探讨文案生成过程中的各个阶段,以及在没有专业文案人员时,如何保证文案工作的质量和有效性。

思维模式的构建

在使用ChatGPT进行文案创作之前,必须完成一些基础的用户体验工作。这包括深入理解用户需求和全面把握产品特性。只有这样,我们才能明确目标,为后续的提示和文案生成奠定基础。

提示原则的应用

为了最大化使用ChatGPT获得理想的文案效果,我们需要制定有效的提示策略。我会提供一系列经过验证的文案和提示示例,帮助大家规避常见的陷阱。

质量检查流程的确立

生成文案后,我们要评估其质量是否达标。文章将讨论应进行哪些基础的质量保证工作,以确保文案的准确性和可靠性。

虽然本文主要聚焦于用户体验领域的代码生成,但所提出的方法论同样适用于其他生成式人工智能(GenAI)工具的使用,为相关领域的实践提供参考和支持。

二、使用前先思考

我们把GenAI和ChatGPT视为工具,就像木匠手中的锤子。木匠使用锤子的方式和目的与恐怖电影中的“坏人”截然不同,工具本身只是协助我们完成任务的手段。ChatGPT和其他人工智能工具并不是人工智能本身,而是智能的增强工具,能提升我们已有的工作效能。

很明显,锤子本身不会思考。在使用任何工具,包括人工智能工具之前,我们必须清楚自己的目标和需求。同时,流程的确定也需要人的参与。明确目标后,使用工具时要有条不紊地提出要求,并在输出后检查结果。

所以,为了在使用GenAI时实现成功、效率以及保证产出质量,必须综合考虑人员、流程和工具这三个要素。

三、范围 - 结构 - 表面框架

对于内容设计领域的专业人士来说,在深入思考并明确用户需求的过程中,我们遵循了贝丝 - 邓恩(Beth Dunn)在其著作《培养内容设计》中提出的基础性框架。(推荐收听贝丝 - 邓恩的播客访谈,其中包含了诸多精辟见解:https://ellessmedia.com/csi/beth-dunn/

界定范围

在最根本的层面,即界定范围的阶段,我们通过团队协作来深入理解并明确要解决的问题。我们要了解用户的“工作待办”(Jobs To Be Done),他们选择使用我们产品背后的动机是什么,以及我们希望解决哪些核心痛点。

构建结构

在结构层面,我们致力于研究如何构建理想的信息传递顺序,以帮助用户高效完成任务。我们探讨如何优化信息的组织和呈现,以最大限度地降低用户的认知负担。这个过程需要产品设计师、用户研究员、产品经理等多方人员的协同合作,每位参与者都能以独特的视角为项目贡献价值。

用户界面表层

在用户界面的表层,用户接触到的是可见的元素,包括文本、颜色、图标、图像以及留白等视觉元素。ChatGPT的输出结果属于用户界面表层的一部分,这是工具的设计初衷,它专注于语言模式的生成,而不涉及更深层次的思考过程。

如果在应用人工智能工具之前,我们没有完成基础性工作,即在界定范围和构建结构的层面上进行深入探索,以指导我们找到恰当的解决方案,那么用户体验的质量和完整性将面临潜在风险。因为人工智能本身不会主动挑战或质疑,它不会提醒用户输出仅是表面的,也不会要求用户提供更多背景信息。输出结果的优劣根本上取决于操作者的技能和判断。

如果我们把人工智能视为捷径,忽略在范围和结构层面上的必要工作,可能会严重简化用户体验的流程,使产品无法实现帮助用户完成任务的承诺。如果持续将人工智能视作解决用户体验问题的终极方案而非辅助工具,我们可能会接近一种乌托邦状态,在这种状态中,人工智能将基于语言和行为模式的概括来定义人类的本质。但我们知道,人类行为并非总是可预测、符合逻辑或理性的,仅依赖表面化的方法来设计用户体验,是对真实人类需求的肤浅理解,会导致创作出缺乏深度的内容,整个用户体验也将流于表面,成为基于统计模型的设计,而非真正针对个体用户的设计。

在深入思考并明确了我们及用户的需求之后,我们就可以系统地提出要求,确保人工智能工具的使用能更精准地服务于用户体验的深层次需求。

四、掌握提示技巧

数月来,我们一直致力于探索人工智能技术的运用,并将其整合进现有的工作流程,以加强和拓展我们在用户体验内容方面的策略和方法。下面为大家分享一些提示原则。

提示原则 1:规模很重要

这里的“规模”指的是为生成输出而编写的提示语的详尽程度。我们通过一个寓言故事来说明这一点:金发姑娘与三只提示符的故事。在2023年,金发姑娘面临的任务是为结账流程中的一个界面撰写标题,用户在该界面上需确认银行卡信息以继续结账过程。

我们先尝试为ChatGPT编写一个简短的提示:“请编写一句话,告知用户他们需要验证银行卡信息以完成支付。”但这个提示存在问题,上下文信息缺失,比如这句话在用户旅程中的位置、出现在哪种用户界面上、预期的读者是谁、字符限制是多少以及应采用何种语调等,这些细节本应在界定范围和构建结构的阶段被充分考虑。得到的输出结果是:“请验证您的银行卡信息,以便继续付款。”这个标题在屏幕上显得冗长,而且带有模仿的语气,更像是对提示内容的简单复述。

如果我们尝试在提示中加入所有上下文和细节,比如将一家公司的整个风格指南囊括进来,以精确描述应该如何撰写文本。虽然这种做法有些极端,但确实有人这么做。得到的结果是:“在我们继续您的付款之前,让我们仔细检查您的银行卡信息。”这种尝试对输出结果的影响并不显著,尤其是考虑到使用了大约15000个字符来生成一个句子。虽然结果是对话式的,但阅读时间更长,对于标题而言并非最佳选择。

所以提示语太短,效果不佳;太长,则效果更糟。这里我们引入瑞典语中的“lagom”概念,它代表着恰到好处的平衡。对于ChatGPT而言,用户体验内容的“lagom”意味着为了获得“足够好”的输出结果,必须提供适度的上下文和背景信息。

为了帮助撰写符合“lagom”原则的提示,我们推荐以下简洁的框架,该框架同样源自Beth Dunn的思想。它涵盖了生成内容时需考虑的最重要方面,以及在界定范围和构建结构的过程中所获得的洞察。

  • 信息:需要传达的核心含义是什么?文本需要向用户传递哪些信息?
  • 语境:信息将在用户界面的哪个部分呈现?它将嵌入哪种界面元素中?用户在这个流程中的情感体验如何?
  • 目标:用户可以基于这些信息采取哪些行动?我们撰写文本的目的不是为了阅读本身,而是为了激发行动。

以下是根据这个框架构建的提示示例:为一个屏幕编写标题,告知用户在付款前需要验证他们的银行卡信息。该屏幕是结账流程的一部分,在用户选择使用借记卡支付后出现。标题应传达该屏幕的目的,长度不超过25个字符。最长25个字符。标题应快速告诉用户,他们需要验证银行卡信息才能付款。

使用这个提示后,我们获得了截然不同的输出结果:“确认支付卡”。这个屏幕标题具有清晰性、简洁性以及可操作性,它以用户的操作为前缀——一个主动动词——使用户能够迅速理解所需执行的行动以完成其任务,而无需进行深入思考。

因此,采用“信息、情境、目标”的方法,不仅为提示提供了清晰的结构,而且确保了提示语的大小恰到好处,符合“lagom”的原则,有助于生成既精确又高效的输出,满足用户体验设计的需求。

提示原则 2:要连锁,不要堆叠

我们喜欢连锁,不喜欢堆叠。什么是连锁呢?想象一下,我们提示ChatGPT做以下事情:“用两句话描述Klarna。”我们喜欢这样的结果,但语气不太对,所以我们继续问:“让它听起来更友好些。”很好!但是太长了,所以我们继续要求:“把它写在100个字符以内。”

在这个对话中,我们坚持最初讨论的主题,即“描述Klarna”,在优化输出的过程中,持续回顾并参照之前的输出结果,通过对话链的形式将改进提示相互关联起来,这就是“会话链”概念的来源。(延伸阅读:《揭开Chat GPT中Prompt Chaining的神奇之处》[https://readmedium.com/unraveling-the-magic-of-prompt-chaining-in-chat - gpt-784ea2651dd7](https://readmedium.com/unraveling-the-magic-of-prompt-chaining-in-chat - gpt-784ea2651dd7))

但我们并非总是希望发生链式反应。当我们需要创作完全不同的文案时,不希望受到之前请求的影响。就像在一场对话中,先问“你好吗?”,随后又问“你能给我一份红丝绒蛋糕的食谱吗?”,紧接着又问“你能为我撰写一篇以异化为主题,关于卡夫卡《变形记》的虚无主义读后感吗?”,这些问题代表了全新的话题,它们之间并无直接联系,不应受到之前对话内容的限制。

在ChatGPT的使用中也是如此,如果在同一个对话中持续转换话题,最终会面临信息的堆叠,而非形成连贯的对话链,这可能会对输出结果产生不良影响。在这种情况下,应当考虑开始一个新的对话,做到一个观点,一场对话。

举个例子,几个月前,我(Ben)承诺向一些朋友发送电子邮件,分享一些产品管理的技巧。我尝试使用ChatGPT来撰写这些邮件,并编写了一个提示,列出了邮件内容,并要求采用“友好”、“充满活力”的语气,且在单一对话中完成这一任务。起初的几封邮件撰写得很成功,听起来友好且充满活力,但当我继续撰写时,邮件的语气开始变得荒谬。这是因为这些邮件内容彼此之间并无直接关联,而我在语气上的强调反而放大了这种不连贯性。在第十封电子邮件的撰写过程中,我向ChatGPT重复提出了十次要求,希望其保持“友好”和“充满活力”的语气,最终的邮件内容却充斥着海盗的隐喻——航行于大海之上,探寻隐秘的宝藏。尽管我并未明确要求使用海盗的语言风格,但所得到的输出结果却是如此,因为这种语气并非源自记忆,而是通过堆砌元素而形成的。显然,ChatGPT似乎认为,要想听起来极为友好,就应该采用海盗的说话方式。为避免此类情况的发生,我应该在每一次单独的对话中明确提出发送每封邮件的具体要求,以确保邮件的语气和内容与预期保持一致。

提示原则 3:要有批判精神

在使用ChatGPT(或任何生成式人工智能工具)进行内容创作时,我们必须警惕可能出现的误导性行为和问题。

首先要注意所谓的“幻觉”现象。幻觉指的是输出内容中出现的不合逻辑或与原始提示不符的部分。例如前面提到的海盗语气的使用,就是一个典型的幻觉例子。这种幻觉可能源于训练这些工具所用数据的偏差。

比如,许多人利用ChatGPT撰写文档。我们要求ChatGPT撰写一篇关于某位首席执行官创立新公司的新闻稿,但在提示中并未指明首席执行官的性别。可以预见的是,输出结果默认将首席执行官描述为男性,使用了“他”这一代词。我们对这一默认假设提出了质疑,ChatGPT对此表示了歉意,并重新生成了新闻稿,这次没有使用任何代词,也没有提及首席执行官的性别。将首席执行官默认为男性是一种充满偏见和性别歧视的假设,这反映了社会刻板印象,我们的偏见会通过这些工具所使用的训练材料反映出来,并在输出结果中显现。

再举一个图像生成领域的例子。Midjourney是一款可以根据文本提示生成图像的工具。当我们要求Midjourney生成护士的图像40次时,结果可以预料,所有生成的护士图像都是女性形象。这同样是因为在人们的刻板印象中,护士职业通常与女性相关联。

综上所述,人工智能(AI)无法取代内容设计师的全部技能,它虽然不能编写出出色且完美的文案,但可以获得“足够好”的文字。在使用GenAI,特别是ChatGPT进行用户体验文案的内容设计时,我们要将其视为工具,做好思考和规划,遵循提示原则,保持批判精神,这样才能更好地利用它为我们的设计工作服务,提升用户体验。