通过法律责任的力量控制人工智能革命随着像ChatGPT这样的人工智能聊天机器人越来越融入我们的日常生活,我们是时候解决潜在的法律和伦理问题了。

通过Gleb Tsipursky

《创业家》作者的观点纯属个人观点。狗万官方

在这个时代技术进步正在以惊人的速度加速,确保这一点至关重要人工智能(AI)发展仍然受到控制。就像人工智能聊天机器人一样ChatGPT越来越多地融入我们的日常生活,是时候解决潜在的法律和伦理问题

有些人已经这么做了。最近,OpenAI联合创始人埃隆·马斯克、苹果联合创始人史蒂夫·沃兹尼亚克以及1000多名人工智能专家和资助者签署了一封联名信调用暂停培训新车型6个月。反过来,时间发表这篇文章是由人工智能领域的创始人埃利泽·尤德科夫斯基(Eliezer Yudkowsky)撰写的,他呼吁对任何从事人工智能研究的国家实施永久的全球禁令和国际制裁,这一解决方案要强硬得多。

然而,这些提议的问题在于,它们需要来自各种各样的公司和政府部门的众多利益相关者的协调。让我分享一个更温和的建议,它更符合我们现有的控制潜在威胁发展的方法:法律责任。

通过利用法律责任,我们可以有效地减缓人工智能的发展,并确保这些创新符合我们的价值观和道德规范。我们可以确保人工智能公司自己促进安全和创新,以尽量减少它们对社会构成的威胁。我们可以确保人工智能工具得到开发和使用在伦理上实际上,正如我在新书中深入讨论的那样,思想领袖和内容创造者的对话:为创新和有效的内容创作释放生成式人工智能的潜力

相关:人工智能将取代全球多达3亿人的工作。但最危险的职业并不是你想象的那样。

法律责任:规范人工智能发展的重要工具

《通信规范法》第230条屏蔽互联网平台对用户创作的内容不负责任。然而,随着人工智能技术变得越来越复杂,内容创作者和内容主持人之间的界限变得模糊,这引发了人们对ChatGPT等人工智能平台是否应该被保留的质疑承担责任因为他们生产的内容。

引入人工智能开发者的法律责任将迫使公司优先考虑道德的考虑,确保他们的人工智能产品在社会规范和法律法规的范围内运行。他们将被迫内化经济学家所说的负外部性,即影响其他各方的产品或商业活动的负面副作用。负外部性可能是夜总会嘈杂的音乐打扰邻居。负面外部性的法律责任威胁将有效减缓人工智能的发展,为反思和建立健全的治理框架提供充足的时间。

为了遏制人工智能的快速、不受约束的发展,有必要让开发者和公司对其创造的后果负责。法律责任鼓励透明度和责任,促使开发人员优先考虑人工智能算法的改进,降低有害输出的风险,并确保遵守监管标准

例如,一个传播仇恨言论或错误信息的人工智能聊天机器人可能会导致重大的社会危害。一个更先进的人工智能被赋予改善公司股票的任务——如果不受道德问题的约束——可能会破坏它的竞争对手。通过对开发人员和公司施加法律责任,我们创造了一种强有力的激励,促使他们投资改进技术,以避免这种结果。

此外,法律责任比六个月的暂停更可行,更不用说永久暂停了。这与我们在美国做事的方式是一致的:我们允许创新,但惩罚有害商业活动的负面后果,而不是让政府正常运作。

减缓人工智能发展的好处

确保合乎道德的人工智能:通过放慢速度人工智能的发展,我们可以采取深思熟虑的方法,在人工智能系统的设计和部署中整合道德原则。这将减少偏见、歧视和其他可能产生严重社会影响的道德陷阱的风险。

避免技术性失业:人工智能的快速发展有可能扰乱劳动力市场,导致广泛的失业。通过放慢…的步伐人工智能发展我们为劳动力市场提供了适应和减轻技术性失业风险的时间。

加强法规:监管人工智能是一项复杂的任务,需要对这项技术及其影响有全面的了解。减缓人工智能的发展,可以建立强有力的监管框架,有效应对人工智能带来的挑战。

培养公众信任:在人工智能开发中引入法律责任有助于建立公众对这些技术的信任。通过展示对…的承诺透明度公司可以与公众建立积极的关系,为负责任和可持续的人工智能驱动的未来铺平道路。

相关:人工智能的崛起:为什么法律专业人士必须适应,否则就有被落后的风险

落实人工智能发展中的法律责任

澄清第230条:第230节没有出现覆盖人工智能生成的内容。法律概述了术语“信息内容提供者”是指“对通过互联网或任何其他交互式计算机服务提供的信息的创造或发展全部或部分负责的任何个人或实体”。“部分”内容的“开发”的定义仍然有些模糊,但司法裁决已经模糊了确定如果一个平台提供了“预先填充的答案”,因此它“远远超过了他人提供的信息的被动传递者”,那么它就不能依赖于第230条的保护。因此,法律案件很可能会发现人工智能生成的内容不受第230条的保护:对于那些希望人工智能发展放缓的人来说,提起法律案件将有助于法院澄清这一问题。通过澄清人工智能生成的内容不能免除责任,我们强烈鼓励开发者谨慎行事,确保他们的作品符合道德和法律标准。

建立人工智能治理机构:与此同时,政府和私人实体应该合作建立人工智能治理机构,为人工智能开发者制定指导方针、法规和最佳实践。这些身体可以帮助监测人工智能的发展并确保符合既定标准。这样做将有助于管理法律责任,并在道德范围内促进创新。

鼓励合作:促进人工智能开发者、监管机构和伦理学家之间的合作,对于建立全面的监管框架至关重要。通过共同努力,利益相关者可以制定指导方针,在创新和负责任的人工智能开发之间取得平衡。

教育公众:公众意识以及对人工智能技术的理解对于有效监管至关重要。通过教育公众了解人工智能的好处和风险,我们可以促进知情的辩论和讨论,推动制定平衡和有效的监管框架。

为AI开发者开发责任保险;保险公司应该为人工智能开发者提供责任保险,激励他们采用最佳实践并遵守既定的指导方针。这种方法将有助于减少与潜在法律责任相关的金融风险,并促进负责任的人工智能发展。

相关:埃隆·马斯克质疑微软裁员人工智能伦理团队的决定

结论

ChatGPT等人工智能技术的日益突出凸显了解决人工智能发展的伦理和法律影响的迫切需要。通过利用法律责任作为减缓人工智能发展的工具,我们可以创造一个环境,促进负责任的创新,优先考虑道德因素,并最大限度地降低与这些新兴技术相关的风险。开发者、企业、监管机构和公众必须共同努力,为人工智能发展制定负责任的路线,维护人类的最大利益,促进可持续、公平的未来。

波浪线
Gleb Tsipursky

狗万官方企业家领导力网络VIP

灾难避免专家的首席执行官

Gleb Tsipursky博士是灾难避免专家公司的首席执行官,他是一位行为科学家,帮助高管们做出最明智的决定,并在未来的工作中管理风险。他写了畅销书《永远不要跟着你的直觉走》、《我们之间的盲点》和《领导混合和远程团队》。

编辑器的选择

领导者最有力的工具是执行资本。以下是它是什么——以及如何获得它
一个人的副业成为了国际现象-今年的收入有望达到1500万美元
继续在LinkedIn上发帖的3个理由即使没有人和你接触
为什么强有力的首席财务官对你的特许经营至关重要——以及招聘时要注意什么

相关的话题

商业新闻

现实生活中的“布雷迪家族”房子将以550万美元的价格出售。是的,包括胶木台面。

HGTV提供了终极的电视真人秀体验,正在出售完全翻新的房子,所有的细节都是“布雷迪家族”的死忠粉会翻转的。

生活

提高你的高尔夫游戏从家里与这个模拟器,现在只需$199.97

玩高尔夫在任何天气在家里与这个模拟器,现在在网上最优惠的价格就在这里。

商业新闻

“人工智能最大的风险”:微软总裁称深度造假是人工智能最大的问题

今年4月,谷歌首席执行官桑达尔·皮查伊(Sundar Pichai)也指出了深度造假及其潜在的恶意用途,称这些视频“对社会造成了危害”。

品牌

为什么品牌正在简化他们的标志和视觉识别

简单而强烈的视觉识别是由清晰的品牌标识精心制作的。

商业新闻

佛罗里达汉堡王向在餐厅洗手间滑倒的顾客赔偿800万美元

这一案件是佛罗里达州历史上最大的一次失足判决。

多样性

如何利用员工和业务资源群体来创造一个更加多元化和包容性的工作场所

这里有一些关于如何更好地与公司的员工资源组和业务资源组合作以提高DEI招聘结果的建议。