微软为聊天机器人的种族歧视和性别歧视推文道歉该公司说,该程序的推文“不代表我们是谁、我们代表什么,也不代表我们是如何设计Tay的”。
通过路透•
这个故事最初出现在路透
上周五,微软(Microsoft)一名高管写道,该公司对上周推出的所谓聊天机器人在Twitter上发出的种族主义和性别歧视信息“深表歉意”。此前,这款人工智能程序发表了令人尴尬的长篇大论。
这个名为Tay的机器人被设计成随着越来越多的用户与它互动而变得“更聪明”。相反,它很快学会了模仿人类推特用户开始输入的一系列反犹太主义和其他仇恨的谩骂,迫使微软公司在周四关闭了它。
在遭遇挫折后,微软在一篇博客文章中说,只有当工程师们能找到一种方法,防止网络用户以破坏公司原则和价值观的方式影响聊天机器人时,它才会重振Tay。
微软研究副总裁彼得·李(Peter Lee)写道:“我们对Tay无意中发出的冒犯性和伤害性推文深感抱歉,这些推文不代表我们是谁,也不代表我们的立场,也不代表我们设计Tay的方式。”
微软创建Tay是为了进一步了解人工智能程序如何与网络用户进行随意对话。该项目旨在与千禧一代的年轻一代互动并“学习”。
周三,泰在Twitter上发布了几条无关痛痒的推文,开始了他短暂的任期。
然后,它的帖子出现了一个黑暗的转折。
在一个典型的例子中,Tay发推文:“女权主义是癌症”,以回应另一位推特用户发布的同样信息。
李在博客文章中称,网络用户对聊天机器人施加恶意影响的努力是“一小部分人的协同攻击”。
李开复写道:“尽管我们已经为许多类型的系统滥用做好了准备,但我们对这次特定的攻击做出了关键的疏忽。”“因此,Tay在推特上发布了非常不恰当和应受谴责的言论和图片。”
微软2014年在中国推出的聊天机器人“小冰”取得了更大的成功。据微软称,小冰有大约4000万用户,以“故事和对话令人愉悦”而闻名。
相关:如何创建一个免费的Facebook Messenger聊天机器人没有编码
至于泰呢?其实不然。
“我们将继续坚定地努力,从这次事件和其他经验中学习,努力为一个代表人类最好而不是最坏的互联网做出贡献,”李写道。
(作者:亚历克斯·多布津斯基,编辑:弗兰克·麦格蒂和彼得·库尼)