如何避免人工智能技术的滥用与恶用?多国学者呼吁全球对话合作

2020-06-30

如何避免人工智能技术的滥用与恶用?多国学者呼吁全球对话合作

原标题:如何避免人工智能技术的滥用与恶用?多国学者呼吁全球对话合作

2015年,联合国通过了17项可持续发展目标,并预期在2030年之前实现。接下来的十年,将是可持续发展行动的关键期。

人工智能技术能为可持续发展提供怎样的助力?在技术落地的过程中,需要注意哪些伦理问题?如何避免技术的误用、滥用、恶用对人类权益的伤害?6月22日,在2020北京智源大会的“人工智能的伦理、治理与可持续发展”专题论坛上,来自全球各地的学者发表了他们的观点与建议。

人工智能可在多方面助力可持续发展

近日,由北京智源人工智能研究院(以下简称“智源研究院”)主办的2020北京智源大会正在进行中。

6月22日的“人工智能的伦理、治理与可持续发展”专题论坛,堪称群英荟萃。演讲嘉宾中有来自联合国、中国的官员,有任职于世界卫生组织等国际组织的专家,也有在高校或科研院所从事技术与伦理研究的学者。

围绕着“可持续发展”这一关键词,多位嘉宾介绍了人工智能技术的广阔前景。

慕尼黑工业大学AI伦理中心主任、全球AI伦理协会发起者ChristophLütge认为,联合国的可持续发展目标可以归纳到经济、社会和环境三个领域。在其中的很多方面,人工智能都可以发挥作用。

他举例说,人工智能已被用于保护濒危物种。科学家们可以通过面部识别等技术来收集动物种群的图像与数据,借此了解动物的生活情况。此外,有研究者用人工智能来预测粮食短缺,以此解决粮食安全问题。

北京市科学技术委员会主任许强则在致辞中援引了多组数据,来说明人工智能对环境保护和经济发展的影响:据普华永道预测,到下一个10年的年底,将人工智能用于环境应用,可能为全球经济带来5.2万亿美元的贡献,同时将温室气体排放减少4%。麦肯锡的研究则显示,在能源、先进电子器件、半导体等19个行业中,人工智能的应用每年可创造3.5万亿到5.8万亿美元的潜在价值。

“一方面,为实现通过人工智能增进人类共同福祉这一目标,其途径并不唯一,应当始终秉承于实践和而不同、和舟共济、和合向善的发展理念,另一方面应推动人类与技术的和谐共生,避免技术的误用、滥用、恶用对人类权益的伤害。总体愿景应是发展对人类与生态有益的人工智能,多方协作实现发展与治理双轮驱动。”许强说。

伦理方面的理论到实践之路还很长

人工智能技术突飞猛进,相关的伦理问题也备受关注,比如人工智能如何保障用户隐私、如何防范算法歧视,等等。近年来,许多国家、国际组织发布了人工智能伦理准则、指南,中国也不例外。

然而,伦理准则毕竟只是一种宏观的、原则性的理论规范。多位演讲嘉宾指出,从理论到实践,人们还有很长的路要走。

ChristophLütge回忆,他在德国的自动驾驶伦理委员会工作时,曾经遇到过一个非常典型的问题:如果无人车即将撞上乘客,那么是让它撞向左边的老人,还是右边的年轻人?最终,德国在2017年出台的自动驾驶伦理准则中明确,人工智能系统禁止对受害者进行区别对待。

德国的自动驾驶伦理准则,也是全世界首个自动驾驶领域的伦理准则。“我们需要抽象的准则,但对于某些特定的系统,我们还需要更具体的准则。”Christoph说,要落实伦理准则,需要考虑很多问题,包括数据的透明度、系统的可解释性,等等。

瑞士苏黎世联邦理工大学教授、世界卫生组织健康领域AI伦理与治理专家组组长EffyVayena认同Christoph的观点。作为世界卫生组织的专家组成员,她对医疗领域的人工智能应用更为关注。

以数据隐私为例,在不同的法律框架下,不同的数据可能具有不同的使用条件。通常来说,用于训练算法的数据必须获得必要的使用授权,但是在医疗人工智能的具体实践中,要确定可以将哪些数据用于特定目的并不是一件容易的事。

人工智能系统的不可解释性,也带来了棘手的伦理与法律挑战。在很多情况下,连开发人员都无法完全搞清系统决策的内在逻辑。这种缺乏透明度的特性可能会降低人工智能系统的可信度。此外,人工智能诊疗措施的应用,可能会削弱患者在决策过程中的健康的自主权。

Effy还谈到了新冠肺炎疫情中的大数据应用。为了更好地进行疫情防控,许多国家使用了数据追踪App来寻找确诊患者和密切接触者。然而,这其中也蕴含着公共安全和公民隐私的平衡问题。

“人们是出于自由选择参加这些项目,还是受到了不公平的鼓动甚至被胁迫?项目上游的隐私和自愿问题,如何影响下游的公民自由,比如行动或集会自由?”Effy认为,紧急情况下有必要使用特殊手段,但在使用这些工具时仍然有必要作出符合伦理的选择,尽最大努力降低潜在风险。

人工智能的健康发展依赖于全球合作

值得注意的是,多位嘉宾在演讲中谈到了人工智能伦理方面的全球合作问题。

不久前,联合国发布了数字合作路线图报告。报告指出,人工智能给数字时代带来了巨大的好处,但它也可能极大地损害全球用户的安全性和自主性。需要多方利益攸关方在全球合作方面加强努力,以可信赖、基于人权、安全和可持续并促进和平的方式,促进全球的人工智能开发和使用。

在论坛上,联合国副秘书长FabrizioHochschild再次重申了这一愿景。他表示,技术分裂已经成为全球面临的风险之一,这将加深现有的数字鸿沟,使得世界各地的人们更加难以平等地享受优质技术。

“当前,全世界有160多种来自不同实体的人工智能伦理规范和治理原则。它们的相似之处多于差异。我相信,通过承认这些相似之处并利用它们来达成一致,我们也可以达成有意义的全球数字合作。”Fabrizio说。

在EffyVayena看来,伦理规范和治理原则,属于“软法”。与立法机关通过的所谓“硬法”不同,伦理准则并不具有法律约束力。需要注意的是,现有伦理准则的制定者十分多样化,既有政府、政府间组织,也有企业和研究机构。不同的制定者可能会依据自身的利益需求来确定伦理准则的优先级。随之而来的问题是,如果不同的伦理准则之间存在分歧,制定者该怎样进行协调?Effy认为,这需要更高层面的合作,并且可能需要发展全球性的审议机制。

联合国副秘书长技术顾问DanitGal则谈到了全球合作的现存障碍。“不同国家实施伦理准则的方式存在差异。只有了解了这些差异的含义后,我们才能就人工智能的伦理规范进行有意义的全球对话。”

Danit指出,一些文化、政策上的差异看起来微不足道,但却可能阻碍各国之间的有效沟通与合作。例如,微软推出的聊天机器人小冰在中国和日本大获成功,在西方民众中却没有受到同等程度的欢迎。在东西方交流中,类似的差异还有很多。

更重要的是,人工智能技术还存在着被政治化的问题。Danit认为,人工智能已经被一些国家作为竞争工具,“统治人工智能=统治世界”“人工智能军备竞赛”这样的流行语在媒体上比比皆是。

如何促进全球合作?Danit建议,应该充分探索、沟通和理解不同国家间的差异,并通过适当的激励机制推动某些非竞争领域的有效合作。可持续发展行动就是典型的非竞争领域。她呼吁有志之士加入联合国的相关项目,一起推动人工智能伦理及其他方面的合作。

采写:南都记者冯群星

【上一篇】: 【下一篇】: