与非网 12 月 15 日讯 法律一般不对实践中没有定型的经验、社会中没有成熟的关系进行调整。就人工智能发展的阶段而言,一般认为存在着弱人工智能、强人工智能和超人工智能三个阶段。目前人工智能的发展仍然处于弱人工智能阶段,因此当前并不能够制定出关于人工智能的完整的法律制度。近日,欧盟基本权利机构(FRA)发布了一份关于人工智能的报告,深入探讨了必须考虑的技术伦理问题。欧盟人权监管机构警告称,在监管、医疗诊断和定向广告方面使用人工智能存在风险。欧盟正考虑明年出台相关规定,以应对挑战。

 

尽管执法机构广泛使用 AI,但该组织表示,政府也会滥用 AI,进行大规模、歧视性的监管。批评认识还担心此举侵犯人们的基本权利和数据隐私规则。

 

欧盟基本权利机构(FRA)在周一发布的一份报告中敦促决策者提供更多指导,说明现有规则如何适用于人工智能,并确保未来的人工智能法律保护基本权利。

 

“人工智能并非绝对正确,它是由人制造的——而人也会犯错。这就是为什么人们需要意识到人工智能何时被使用,它是如何工作的,以及如何挑战自动决策。” FRA 局长迈克尔·奥弗莱厄蒂在一份声明中说。“这就是为什么人们需要意识到人工智能何时被使用,它是如何工作的,以及如何挑战自动决策。欧盟需要澄清现有规则如何适用于人工智能。组织需要评估他们的技术如何在开发和使用人工智能的过程中干扰人们的权利。我们有机会塑造不仅尊重我们的人权和基本权利,而且保护和促进它们的人工智能。”

 

FRA 报告出炉之际,欧盟执委会正考虑在明年立法,涵盖医疗、能源、交通和部分公共部门等所谓的高风险部门。

 

该机构表示,人工智能规则必须尊重所有基本权利,并有保障措施来确保这一点,包括保证人们可以质疑人工智能做出的决定,以及企业必须能够解释它们的系统是如何做出决定的。

 

它还表示,应该对人工智能潜在的歧视性影响进行更多研究,欧盟还必须进一步澄清数据保护规则如何适用于这项技术。

 

FRA 的报告基于对已经在使用人工智能的公共和私人组织的 100 多次调研,分析基于爱沙尼亚、芬兰、法国、荷兰和西班牙的人工智能使用情况。

 

创建一个有效的监督系统,欧盟应该投资一个更“一体化”的系统,让企业和公共行政部门在使用人工智能时负起责任。当局需要确保监督机构有足够的资源和技能来完成这项工作。