据宾夕法尼亚州立大学的一位研究人员称,了解人们如何与人工智能机器互动——并利用这些知识提高人们对人工智能的信任——可以帮助我们与越来越多的机器人、聊天机器人和其他智能机器和谐相处。
在本期《计算机辅助通信杂志》上发表的一篇论文中,Donald P.Bellisario通信学院媒体效应教授、媒体效应研究实验室联合主任James P.Jimirro提出了一种研究人工智能的方法或框架,可以帮助研究人员更好地研究人们如何与人工智能或人工智能交互(HAII)。
同时也是宾州计算和数据科学研究所(ICDS)附属机构的Sundar说:“这是一个系统地研究人工智能在心理上影响用户的所有方法的尝试。 希望本文提出的理论模型能为研究人工智能的社会心理效应提供一个框架和词汇。
该框架确定了两条路径-线索和行动-AI开发人员可以专注于获得信任和改善用户体验,Sundar说。 线索是一种信号,可以触发人们的一系列心理和情感反应。
圣达补充说,有几个线索影响用户是否信任AI。 这些线索可以像使用类似人类的特征一样明显,比如一些机器人拥有的人脸,或者像Siri和Alexa这样的虚拟助手使用的类似人类的声音。
其他线索可能更微妙,例如界面上解释设备如何工作的语句,比如Netflix解释为什么它向观众推荐某部电影。
Sundar说:“当人工智能被识别为一台机器而不是人时,就像现代聊天机器人经常发生的那样,它会触发“机器启发式”,或者一种精神快捷方式,使我们自动应用我们对机器的所有刻板印象。 “我们可能认为机器是准确的,但我们也可能认为计算机和机器是冷酷的,不屈不挠的。” 这些刻板印象反过来决定了我们对人工智能系统的信任程度。
sundar认为,飞机上的自动驾驶系统是过度信任人工智能导致负面影响的一个例子。 飞行员可能如此含蓄地信任自动驾驶系统,以至于他们放松了警惕,没有为飞机性能的突然变化或需要他们干预的故障做好准备。 他引用这种“自动化偏见”来表示我们对机器性能的深深信任。
Sundar说:“与自动化偏见相反的是算法厌恶。” “有些人只是有一种厌恶,因为也许在过去,他们被一种算法烧毁,现在深深地不信任人工智能。 他们可能被使用人工智能技术制作的视频制作的“欺骗”所愚弄,或者从电子商务网站获得错误的产品推荐,或者觉得他们的隐私被人工智能入侵,窥探他们先前的搜索和购买。
Sundar说:“如果你在界面上提供明确的提示,你可以帮助塑造用户的反应方式,但如果你不提供好的提示,你会让用户先前的经验和民间理论,或天真的想法,关于算法来接管。”
根据Sundar的说法,除了提供线索外,人工智能与人互动的能力还可以时尚用户体验。 他把这叫做“行动路线。”
孙达尔说:“行动路线实际上是关于合作的。 “美国航空实际上应该与我们合作。 大多数新的人工智能工具-智能扬声器、机器人和聊天机器人-都是高度互动的。 在这种情况下,这不仅仅是看得见的线索,他们的外观和他们说什么,而是他们如何与你互动。”
在行动和暗示中,Sundar建议开发者保持正确的平衡.. 例如,没有透明地告诉用户AI在设备中工作的提示可能会触发负面提示,但如果提示提供了太多细节,人们可能会试图破坏-或“游戏”-与人工智能的交互。 他说:“因此,在界面上保持适当的透明度非常重要。”
“如果你聪明的演讲者问你太多问题,或者和你互动太多,那也可能是个问题,”Sundar说。 “人们希望合作。 但他们也希望尽量降低成本。 如果人工智能不断地问你问题,那么人工智能的全部意义,即方便,就消失了。”
桑达尔说,他期望线索和行动的框架指导研究人员,因为他们测试这两条途径的人工智能信任。 这将产生证据来告知开发人员和设计师如何为人们创建人工智能驱动的工具和技术。
人工智能技术的发展如此之快,以至于许多评论家都在极力禁止某些应用。 圣达说,让研究人员有时间彻底研究和理解人类如何与技术互动是帮助社会利用这些设备的好处的必要步骤,同时尽量减少可能的负面影响。
“我们会犯错的,”桑达尔说。 从印刷机到互联网,新媒体技术带来了负面后果,但也带来了更多的好处。 毫无疑问,人工智能的某些表现会使我们感到沮丧,但在某一时刻,我们将不得不与人工智能共存,并将它们带入我们的生活。”
本文来源网络由诺记吧(www.nokibar.com)整理发布,转载文章系出于传递更多信息之目的,不希望被转载的可与我们联系,我们将立即进行删除处理。
未经允许不得转载:诺记吧 » 『科技头条』利用线索和动作帮助人们与人工智能相处