大流行期間的日常生活意味著遠離社會,並尋找新的方式與朋友,家人和同事進行遠程聯繫。根據康奈爾大學的最新研究,當我們在線和通過文本進行交流時,人工智能可以在保持對話順暢的過程中發揮作用。
一項發表在周刊《人類行為與計算機》[1]的最新研究《人機交互中的道德困境》[2]表明一部分與他人溝通困難的人認為人工智能的自動回复比起人類更值得信任。 信息科學領域的博士傑斯·海恩斯坦[3]說“我們發現如果人類之間交流出現了問題,人們更傾向於把責任推給負責中間工作的AI而不是本應承擔責任的對方”。我們有一個算法可以通過雙方的用語識別出事情是否正在朝著不好的方向發展並提出解決方案。我們正在研究所有的對話方式,並期望智能回復一類的AI的參與可以改變人類的交流方式。研究人員說雖然AI建議的回答可能與您想說的不完全一樣,但是這不光可以節省您的打字時間,還可能從根本上改變您的談話過程以及您的人際關係。
科學刊的助理教授楊[4]說“人際交流對於我們形成對他人的印象,形成穩定的關係,和共同完成工作都有至關重要的作用。人們的目光大多數都在研究一個新的系統設計如何與人交互而不是AI如何影響人與人之間的溝通。"
除了研究人們是如何和AI交互以外這項研究還為人們藉助AI溝通提供了新的思路。海恩斯坦和楊表示他們正在探索AI是否能充當“道德緩衝區”[5]。海恩斯坦說“汽車前方有一個部件可以在發生衝撞的時候吸收一部分衝擊力,在這裡我們發現AI可以承擔人與人間道德責任”
該研究得到了美國國家科學基金會的部分支持。
原文:https://www.sciencedaily.com/releases/2020/03/200331162237.htm
譯者註: [1]:《Computers in Human Behavior》 [2]:《Moral Crumple Zones: Cautionary Tales in Human-Robot Interaction》 [3]: Jess Hohenstein [4]: Malte Jung [5]: Moral Crumple Zones ,直譯為道德緩衝區,查了一下具體意思大概是比如有火車困境,而控制扳手的變成了AI而不是人,因為AI不需要承擔道德責任,AI就成為了道德緩衝區幫人來吸收責任,雖然AI的算法是人寫的。或者自動駕駛事故的時候討論承擔責任的應該是AI還是人。相關論文為[2]
文章來源:康奈爾大學提供的材料。原文由Melanie Lefkowitz撰寫。
譯者感想: 這篇文章看著還挺有意思,AI不光承擔了運算之類的工作,現在還能作為一種解決道德困境的方法。以後會有會有AI背鍋大法?
|