AIGC | 以用户为中心的AIGC产品设计与可解释的AI结果

AIGC | 以用户为中心的AIGC产品设计与可解释的AI结果

导读 //  

AIGC产品已日益成为艺术和设计不可或缺的辅助创作工具。它们为设计师提供灵感、探索视觉风格。然而,AIGC面临着透明度和可解释性的挑战,这些挑战影响了用户体验,包括高学习成本、有限的有效性和信任问题。AIGC生成过程的“黑箱”性质使得普通用户(不熟悉人工智能技术)很难理解人工智能性能不佳的具体原因,阻碍了有效的调整和利用。

此外,许多因素导致不同的AIGC结果,对相同的输入产生不同的响应。由于生成结果中固有的不确定性和错误率,以及公众舆论中对人工智能道德的普遍怀疑,用户经常难以理解和信任人工智能。

可解释人工智能(XAI)的既定目标是创建一套新的或改进的机器学习技术,以产生可解释的模型,使最终用户能够理解、适当地信任和有效地管理新一代人工智能系统。

通过将XAI集成到AIGC产品中,帮助用户理解一些算法决策过程和原理,以克服挑战,改善用户体验。XAI作为增强AIGC产品用户体验的解决方案应运而生。

AIGC | 以用户为中心的AIGC产品设计与可解释的AI结果

论文链接:

https://arxiv.org/abs/2308.09877

精读笔记

一、研究现状

1.1 AIGC的产出(Output)和用户想法之间的不协调

使用AIGC产品涉及不确定性和复杂性,使得反馈难以解释。由于照明、噪音或文本输入变化等因素,人工智能系统可能会产生不同的响应,导致用户难以理解这些差异并传递过去的体验。人们在观察AI模型行为后,容易产生常见的认知偏差(如锚定偏差)。这些偏差会加剧用户在再次操作时的挫折感。

这种不确定性也违背了传统人机交互中的“系统状态的可见性”、“一致性和标准”等原则。通过为AIGC生成过程提供解释,例如局部和对比解释,我们旨在缓解这种冲突,并帮助用户形成系统的想法。

1.2 XAI和用户体验

大多数XAI用户体验关注于开发人员和管理人员使用的模型,通常使用以算法为中心的方法,普通用户很少参与,无法帮助普通用户理解AI产品。为了在普通用户中推广AIGC产品,XAI必须采取以人为中心的方法。

米勒从社会学的角度确定了人性化解释的特征。

(1)解释contrastive——它们是针对特定的反事实案件而寻求的。

(2)解释是被选择的(以有偏见的方式)——人们很少期望一个事件实际完整的原因组成的解释。

(3)概率可能并不重要——虽然可能性在解释中很重要,但在解释中提及概率或统计关系不如提及原因有效。

(4)解释是社会性的——它们是知识的转移,是信念的呈现。

AIGC | 以用户为中心的AIGC产品设计与可解释的AI结果
图1 米勒的人机交互观

而Amershi等人提出了人工智能系统的18条可用性准则。

AIGC | 以用户为中心的AIGC产品设计与可解释的AI结果
表1 Amershi提出的人工智能系统的18条可用性准则

然而,这些工作大多缺乏对产品和使用改进的可操作的指导。目前,还没有关于产品和使用改进的具体建议,例如哪些XAI技术可能会集成到产品的哪个阶段。

二、将XAI技术融入AIGC产品用户体验

AIGC | 以用户为中心的AIGC产品设计与可解释的AI结果
图2 AIGC产品使用的简化流程图

AIGC产品的工作流程由三个主要部分组成,如图2所示。传统的AIGC工作流程是一个单向的迭代过程,涉及用户输入提示和机器生成的结果。然而,这个过程缺乏输入和输出之间的清晰映射,以及来自机器生成的反馈。本文建议将XAI技术集成到AIGC工作流中,以增强输入和反馈阶段的用户体验。

2.1优化输入阶段的用户体验:提供关键词库和提示结构

对于新手用户来说,由于三个因素,输入提示可能具有挑战性:

(1)指令不明确:AIGC工具可能缺乏明确的指导,阻碍用户提供有效的输入提示。

(2)生成的内容不准确:AIGC工具可能会曲解输入提示,导致内容与用户期望不符。

(3)试错法:用户经常多次调整输入提示,以达到满意的效果。

这些问题源于新手用户无法将输入单词映射到输出结果。在传统产品中,用户利用现有知识预测结果,而在AIGC,机器取代了生产阶段,使得用户更难预测和控制调整。提示库和加权输入提示可以帮助缓解这些问题。

2.2调整反馈阶段的优化

在传统的设计方法中,设计师面临的主要挑战是通过反复概念化和迭代来理解用户真正想要的东西,然后提出创造性的解决方案,从而解决定义不清的问题。

AIGC | 以用户为中心的AIGC产品设计与可解释的AI结果
图3 传统的设计思维

在现有的AIGC产品中,用户被期望清楚地定义期望,并把它们翻译成机器可以理解的描述。然而,大多数用户甚至很难确定他们的需求。XAI技术可以帮助人工智能指导用户通过对话澄清他们的要求,用机器可以理解的语言表达期望。

对话生成是一种很有前途的方法,它符合人类的思维模式,并随着每次对话调整图像的各个部分,逐渐使结果符合用户要求。

三、结论

AIGC是人工智能发展最快的领域之一。然而,它目前是在以技术为中心的现实中运行的,要取得重大进展,需要专注于增强用户体验。本文中提到的用于输入和调整阶段的XAI方法旨在为用户体验改进提供可行的方向。这些见解为研究人员和实践者应用XAI和增强AIGC用户体验提供了有价值的指导。

参考文献:

[1] Tim Miller. 2019. Explanation in artificial intelligence: Insights from the social sciences. Artificial intelligence 267 (2019), 1–38.

[2] Donghee Shin. 2021. The effects of explainability and causability on perception, trust, and acceptance: Implications for explainable AI. International Journal of Human-Computer Studies 146 (2021), 102551.

孟盈 | 责任编辑

饶菡 | 技术编辑

袁毅、赵星 | 审校

AIGC | 以用户为中心的AIGC产品设计与可解释的AI结果

© THE END

转载请联系本公众号获得授权

–   往期精彩   –

社团招新 | 与元宇宙学社一起,开启你的“多元”宇宙

AIGC | 将物体与场景可控合成的方法——ControlCom来了

《早安元宇宙》| 8月27日 第34期回放

百度千帆大模型-国产商用大模型的可靠方案

样本的顺序与模型效果之间的联系

《早安元宇宙》| 8月20日 第33期回放

AIGC | LLM已加入JupyterLab魔法命令全家桶,更有AI助手帮你改进代码

AIGC | 以用户为中心的AIGC产品设计与可解释的AI结果

关于元宇宙学社

在华东师范大学元宇宙与数智人实验室、经管学部信息管理系和专业学位教育中心MBA联合会的支持下,由MBA学生自主发起的俱乐部组织。

招募对象:华东师范大学全体在校生及毕业校友、元宇宙领域从业者及兴趣爱好者。

诚邀!快来扫码加入吧!

 

AIGC | 以用户为中心的AIGC产品设计与可解释的AI结果
会员报名

AIGC | 以用户为中心的AIGC产品设计与可解释的AI结果
俱乐部团队报名

AIGC | 以用户为中心的AIGC产品设计与可解释的AI结果
企业合作意向

 

Metaverse

AIGC | 以用户为中心的AIGC产品设计与可解释的AI结果
获取更多元宇宙学术前沿

扫码识别二维码关注

本文来自https://mp.weixin.qq.com/s/5pWDBbQwtUMUof_F2bnPsw,本文观点不代表 PmTemple 立场,转载请联系原作者。原文链接:元宇宙学报

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023年8月29日 上午8:54
下一篇 2024年1月5日 下午7:25

相关推荐

发表回复

登录后才能评论
微信公众号
微信公众号
edgesensor_high 小程序
小程序
分享本页
返回顶部