当前位置: 首页 -> 科技

为什么赋予人工智能人类伦理可能是一个糟糕的想法

发布时间:2022-04-17 18:32   来源:搜狐号   作者:张璠   阅读量:18770   

为什么赋予人工智能人类伦理可能是一个糟糕的想法

如果你想让人工智能拥有人类伦理,你必须像我们一样教它进化伦理至少这是印度班加罗尔国际信息技术研究所的一对研究人员在今天发表的预印本论文中提出的

这篇题为人工智能和自我意识的论文描述了一种称为弹性身份的方法,研究人员表示,通过这种方法,人工智能可以学会获得更大的代理意识,同时了解如何避免附带损害简而言之,研究人员建议我们通过允许人工智能学习何时适合自我优化以及何时有必要为社区的利益进行优化,来教人工智能在道德上与人类更加一致

根据论文:

虽然我们可能离一个全面的自我计算模型还很远,但在这项工作中,我们关注的是我们自我意识的一个特定特征,这可能是人类与生俱来的责任感和道德感的关键我们称之为弹性的自我感觉,延伸到一组称为身份集的外部对象

我们的自我意识不仅限于我们身体的边界,而且经常延伸到包括来自我们环境的其他对象和概念这构成了社会认同的基础,建立了一种归属感和对某种东西的归属感和忠诚度,而不是或超越一个人的身体存在

研究人员描述了一种利他主义和自私行为之间的平衡,在这种平衡中,代理人能够理解道德上的细微差别。

至于人工智能模型应该具有什么样的弹性度量,这可能更像是一个哲学问题,而不是科学问题。#1:训练模型的标注成本高,边际成本较高。根据IDC预测,全球每年生产的数据量将从2016年的11ZB增长至2025年的163ZB,其中80%~90%是非结构化数据,海量数据必须经过清洗与标注才能成为AI训练使用的结构化数据。人工成本在一定程度上导致了AI企业的毛利率水平较低,对比SaaS公司,AI公司整体毛利率在50%-60%区间,整体低于SaaS的60%-80%基准。。

据研究人员称:

在系统层面上,关于具有弹性身份的代理系统的进化稳定性也存在悬而未决的问题一小群不认同他人的非移情代理人能否成功入侵移情代理人系统或者是否存在一种策略来决定一个人的同理心的最佳水平或一个人的身份集的程度,这使得它在进化上是稳定的

我们真的希望人工智能能够以人类的方式学习道德吗我们的社会伦理观点是在无数战争的烈火和不断犯下可怕暴行的传统中形成的在制作人类社会的煎蛋卷的过程中,我们打碎了很多鸡蛋

而且,公平地说,我们还有很多工作要做向 AI 教授我们的道德规范,然后训练它像我们一样进化,这可能是使灾难自动化的秘诀

它还可能导致对人类伦理的更哲学理解以及用人工代理模拟文明的能力也许机器会比人类历史上更好地处理不确定性

郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。

推荐阅读