Page 1 of 1

使用人工智能开发内容的组织如何确保为内容用户创造良好的体验?

Posted: Tue Dec 10, 2024 10:05 am
by subornaakter02
随着生成式人工智能改变内容运营,在线出版商面临着新的决策。他们不仅需要决定如何以及何时使用人工智能来支持内容开发,还必须决定如何将这一决定传达给客户。



披露人工智能使用情况为何如此重要
生成式人工智能已在企业中被员工和小团队广泛使用,而高管或内容领导通常对此并不知情。《商业内幕》最近的一篇文章讨论了“员工暗中使用人工智能的隐藏浪潮”,即所谓的“影子 IT”。

生成式人工智能也正在逐渐融入内容开发工具中。例如,谷歌的 Duet 允许内容创建者在谷歌 Office 应用程序中使用生成式人工智能功能。许多企业应用程序中也出现了类似的功能。

从很多方面来看,看到员工接受新技术而不是犹豫改变工作习惯是令人鼓舞的。但不受监管地使用生成式人工智能会带来一系列风险。鉴于生成式人工智能的使用已成为许多组织的常态,组织需要制定政策和流程来管理其使用,尤其是披露这种使用。

披露 AI 的使用情况可提高内容的价值。它可以改善其内部治理以及读者的接受度。它使贵组织与 AI 使用相关的价值观可见一斑。

对客户透明
关于用户对人工智能接受度的最新研究指出:“透明度在调节信任和绩效感知 方面发挥着重要的间接作用。”

员工可能热衷于使用人工智能,但并非所有客户都如此肯定。问题不仅在于客户对人工智能的看法,还在于他们对人工智能在不知情的情况下被使用的看法。

公平与欺骗这两个高度敏感的问题岌岌可危 英国电话号码数据 网络用户可能会感到容易受到欺骗和操纵的威胁,例如隐藏同意相关信息或虚假陈述信息来源(这些情况在网络钓鱼和其他类型的社交工程中发生)。许多读者在上网时都保持警惕,评估他们所看到的内容是真实的还是虚假的。

真假难辨。遗憾的是,根据内容的创作方式判断内容是真还是假并不能预测内容是否真实或有用。人工创作的内容可能看起来“真实”,但不一定安全,而合成或机器创作的内容不一定不安全或无用。这就是为什么需要提高透明度。

关于人工智能使用的透明度可以对内容设定更现实的期望,并减少对内容有用性或准确性的误解。

透明度可以降低使用人工智能开发内容的风险。客户不会感到被欺骗。透明度是可解释性的基础:内容是如何创建的?它可以帮助用户学会信任内容。

美国国家标准与技术研究所的《信任与人工智能》报告指出,“习得性信任是系统性能特征和设计特点的结果,这些设计特点影响着对性能的解读。”

透明内容将遵循工具供应商和内容分发平台所采用的越来越多的政策和标准。

品牌信任和可信度
生成式人工智能引入了一种重要的新动态,塑造了品牌的认知和信任方式。令人不快或不准确的内容会损害品牌。出版商不能只在出现问题后才解释他们对人工智能的使用。他们需要事先预防误解。

信任是不可谈判的。人工智能需要证明自己值得信赖。美国最近的一项民意调查显示,“ 62% 的人表示他们对人工智能有些或大部分‘担心’。”

在大众的想象中,人工智能可能具有破坏性和不透明性。品牌不能假设公众会信任他们对人工智能的使用,即使他们使用人工智能来提供更优质、更有用的内容。他们需要赢得这种信任。

Image


越来越多的组织开始接受负责任的 AI 原则并承诺遵循“三个 H”原则:其输出结果有用、诚实且无害。披露提供了一个机会来强调品牌对负责任的 AI 实践的承诺。

尊重客户对人工智能的担忧。人工智能是一个黑匣子:人工智能在做什么对消费者来说并不明显。但他们知道滥用人工智能可能会造成伤害。品牌有义务公开他们如何使用人工智能。

信任取决于透明度。在快速变化和重大技术转型的时代,透明度对于建立信任更为重要。组织必须阐明他们如何使用生成的人工智能。品牌必须表明他们把内容读者的利益放在心上。他们必须证明他们正在尽最大努力减轻因内容包含误导性或危险信息、有毒语言或攻击性语气而造成的伤害。

表明你没有什么可隐瞒的。当消费者被误导时,品牌和客户都会受到伤害。最简单的误导方式就是假装内容是由人类创建的,而实际上它是由人工智能生成的。