欧盟抢先发布AI伦理指导原则 未来开发AI需要遵循7大原则
2019-04-12 19:21:51   审核人:   (点击次数:)

据外媒报道,欧盟日前发布了AI伦理指导方针,公司和政府机构未来开发AI时应遵循7大原则。

这些原则不像艾萨克·阿西莫夫(Isaac Asimov)的“机器人三定律”。他们不会提供快速制定的伦理框架来帮助我们控制杀人机器人。相反,当我们将AI融入医疗、教育和消费技术等领域时,它们解决了影响社会的模糊和分散的问题。

举例来说,如果AI系统在未来的某个时候诊断出你患了癌症,欧盟的指导方针将希望确保这些事情:软件不会因你的种族或性别而产生偏见,不会无视人类医生的反对意见,而且病人有权要求它们解释诊断结果。 所以,这些指导方针旨在阻止AI的疯狂行为。

为了帮助实现这一目标,欧盟召集了由52名专家组成的小组,他们提出了未来AI系统应该满足的七大原则。

具体如下:1.人类代理和监督:AI不应该践踏人类的自主性。人们不应该被AI系统所操纵或胁迫,应该能够干预或监督软件所做的每一个决定;

2.技术稳健性和安全性:AI应该是安全而准确的,它不应该轻易受到外部攻击(例如对抗性例子)的破坏,并且应该是相当可靠的;

3.隐私和数据管理:AI系统收集的个人数据应该是安全的,并且能够保护个人隐私。它不应该被任何人访问,也不应该轻易被盗;

4.透明度:用于创建AI系统的数据和算法应该是可访问的,软件所做的决定应该“为人类所理解和追踪”。换句话说,操作者应该能够解释他们的AI系统所做的决定;

5.多样性、无歧视、公平:AI应向所有人提供服务,不分年龄、性别、种族或其他特征。同样,AI系统不应在这些方面有偏见;

6.环境和社会福祉:AI系统应该是可持续的(即它们应该对生态负责),并能“促进积极的社会变革”;

7.问责制:AI系统应该是可审计的,并由现有的企业告密者保护机制覆盖。系统的负面影响应事先得到承认和报告。

 下一页 [1 2 3 4]
关闭窗口
中南大学  医学伦理学研究中心版权所有   湘ICP备05005659 湘教QS3-200505-00020   
部分地由NIH Fogarty Program支持建立(建议使用IE6以上版本浏览)