https://uxofai.com/ 翻译 @jovi
人工智能塑造了我们的思维、情感和行为。它驱动着定义我们未来的决策。
我们有责任将这个潜力用于人道技术。构建基于我们多元化价值和需求的人工智能需要深思熟虑的设计。
AI的用户体验是设计个人AI的基础。该技术深刻地影响着我们的生活,因此每个从事此领域的人都应该考虑到AI的用户体验(UX)。本文简要概括了核心的设计原则,并提供每个原则深入研究文章的链接。
从用户出发
你使用的技术应该是为了达到更好的用户体验。不要一开始就深入研究算法,先想想人们今天是如何完成任务的。找出有价值的方面,然后再想怎么去提升用户的体验。在这个过程中,你可能会发现不需要人工智能就可以更容易或更易懂的解决问题。同样的,对于营销来说也是一样的:关注用户的利益,而不是人工智能技术。
Human-Centered Machine Learning
设定正确的期望值
由于从无人驾驶汽车到冰沙制造机都自称为人工智能,因此人们对其意义的期望值就跨越了很多层次。人们会期望你的人工智能比你实际拥有的能力更聪明或更愚蠢。尽量以简洁易懂的语言向用户解释你的人工智能的能力和局限性。一般而言,低调宣传并超额交付工作是建立信任的好方法。随着时间的推移,用户会学会如何更好地将人工智能整合到他们的工作流程中。
How to Meet User Expectations for Artificial IntelligenceDon’t Call AI “Magic”
解释 AI 的结果
只有我们理解了 AI 的决策,才能发挥其真正的用处。最理想的情况是用户能够追溯任何结果到其支持的数据点。如果这不可能,就需要解释算法的基本操作。在介绍你所使用的数据来源及AI关注的数据品质时,请将其分解,以便让用户能够重现结果。这些信息应该作为用户流程的一部分,并以一致的界面呈现。
Interpretable Machine LearningThe Building Blocks of InterpretabilityThe Dark Secret at the Heart of AIMachine Learning is Very Much a UX Problem
传达你的信心
用户依靠你的AI做出决策,必须了解结果的质量才能信任它们。如果算法的置信度有所不同,请为每个结果指示置信度。你可以显示一定的百分比,也可以尝试更抽象的可视化(例如星级评分,颜色指示器)。对于包含多个部分的结果,请为每个部分分解置信度。此外,考虑显示按置信度排序的多个结果,并让用户做出最终决定。、
Design in the Era of the Algorithm
优雅降级
为AI设计意味着要设计多种不同的结果。当输入清晰,答案确定时,您不希望用户犹豫不决。更不自信的结果需要以不同的方式展示。您可以通过降低视觉设计的粗糙度,或改变展示结果的布局和文字来开始。最重要的是,不要害怕说出您没有答案的时候。只要您为它进行设计,AI失败是可以接受的。
Systems Smart Enough To Know When They’re Not Smart Enough
知道那些不应该自动化
并非所有的任务都适合使用人工智能,有些任务的某些部分应该留给人类处理。不适用人工智能的原因可能是该任务需要人类独特的能力(例如理解情感或动机),人工处理过程具有内在价值(例如提供尊严或愉悦),需要主观评估(例如伦理或道德决定),或者对受影响方产生深远影响。
Applications of Machine Learning for DesignersDesign in the Era of the Algorithm
始终让用户掌控
不要让人工智能替代人类,而是想办法增强和扩展我们的能力。不要让我们成为旁观者。最终,用户应该是掌控者。这意味着能够干预、提供反馈、撤销糟糕的操作并奖励好的操作。当人工智能与用户合作而不是替代用户时,它的赋能效果更好。
Human-centered Machine Learning: a Machine-in-the-loop Approach
The incredible inventions of intuitive AI
Using Artificial Intelligence to Augment Human Intelligence
逐步建立信任
当引入新用户时要小心。确保它不需要多少现有的个人数据。倾向于提供建议而不是决定。随着你的人工智能了解用户,你可以自动化更多的事情,要求更少的许可。这为用户提供了时间来了解人工智能的工作方式,你的算法也可以逐渐与他们一起学习。
UX for AI: Building Trust as a Design Challenge
帮助用户成长
随着时间的推移,AI将不得不适应用户的不断变化的行为。这是针对每个用户而言,也是针对整个用户群体而言的。即使现在的某些想法是普遍的,也可能不是我们正在努力实现的未来的一部分。你的AI应该超越现状,而不是强加你自己的价值观给用户。
平衡可预测性和偶然性
任何个性化的AI都会采纳用户的偏见。这对于需要可预测性的任务非常好,因为您需要始终有效的结果。但对于其他任务,它限制了我们的好奇心。它将我们限制在我们舒适区域内的选项中。作为人类的一部分,我们应该跟着直觉走出常规,即使它可能会导致无处可去。你可以调整你的算法找到正确的平衡点,甚至设计你的界面不使用过滤的交互方式。
Predictably Smart
逃离个人崇拜
人工智能应该与您的产品其他部分一样。不要试图通过幽默的人格特色来让功能“更具人性”。这只会让您的用户感到困惑,并对您无法满足的期望感到失望。相反,坚持您现有的品牌价值观。
Robots that act like humans are a waste of time
不要考虑聊天机器人
聊天机器人本质上在功能上有限,但它们会打扮得好像没限制一样。这种不确定性会让用户感到沮丧和疏远。大多数情况下,少数填写表格和按钮会给用户更好的体验,同样熟悉和自然。
Bots won’t replace apps. Better apps will replace apps.Principles of bot design
带有真实数据和假AI的原型
使用实际用户数据来进行早期原型设计可以帮助您在正确的前提下构建您的机器学习模型。在实际构建 AI 之前,您可以使用wizard-of-oz的方法来获得正确的用户体验。
The UX of AI (Google Design)
与所有使用AI的人共同合作
AI影响着每个人。我们都应该参与讨论我们想要AI变成什么。这意味着与多样化的团队合作。AI的形成受到制造它的人的经验和价值观的影响。由于我们仍在探索AI设计的基本原理,合作比以往任何时候都更为重要。数据分析师,研究人员,开发人员,营销人员和设计师都需要合作建立一个有凝聚力的产品。领域专家应该深入参与机器学习模型和用户界面的设计。将他们的专业知识转化为团队共同理解,这是你的工作。
Fair Is Not the DefaultWhy AI Is Still Waiting For Its Ethics Transplant
分享你的流程和意图
透明度不僅限於產品。告訴用戶如何收集、處理和處理他們的數據。解釋在開發模型和設計界面時所做的選擇。考慮公開發布做出關鍵決定的系統的人工智能。與用戶和社區分享見解可以建立信任和友好關係。
避免收集用户数据
用戶擁有他們的數據。如果您不需要,請不要收集它(改用設備上的ML)。當用戶控制自己的數據時,他們可以決定AI學習什麼。如果確實需要收集數據,請明確征得許可,並解釋需要數據的原因。一旦用戶數據在您的服務器上,您有責任保護它。確定您需要哪些數據,需要保留多長時間以及誰需要訪問它。
Guide to the General Data Protection Regulation