可持续专栏| 马斯克的愤怒,AI治理的难题

亿万富翁企业家埃隆·马斯克对ChatGPT制造商OpenAI的起诉,尽管是眼花缭乱的商业鏖战,也将人...

亿万富翁企业家埃隆·马斯克对ChatGPT制造商OpenAI的起诉,尽管是眼花缭乱的商业鏖战,也将人工智能(AI)开发的治理伦理推到了镁光灯下。

马斯克指控身为生成式人工智能代言人的OpenAI的罪名,是放弃了“为造福人类而开发人工智能”的初心。诉讼称三位创始人最初与他接洽是为了创建一家开源、非盈利的公司,但这家2015年成立的初创公司现在变得专注于赚钱。

那么,从ESG视角看,到底什么是“以人为本”的人工智能?它和商业利益相互冲突吗?国际上有哪些关于人工智能的道德探讨的热点?这些探讨又有何种意义?

机遇和推动

技术本身无罪,相反,在许多垂直领域,人工智能的发展转变了知识获取方式,关于人工智能的研究和应用呈指数级增长,包括提高效率、降低成本、提高准确性、增强决策能力以及创新和创造就业机会等,对人类整体福祉有积极作用。

例如在医疗保健行业,人工智能驱动的医学成像可以带来更快、更准确的诊断,降低医疗保健成本并改善患者治疗结果。《自然》杂志发表的一项研究发现,使用人工智能进行乳腺癌筛查使癌症检出率提高了5.7%,误报率降低了11%。

在金融行业,人工智能被寄予通过实时交易监控并向下游反洗钱调查人员发送更高质量的警报的厚望。

在制造业中,人工智能驱动的预测性维护可以减少停机时间和维护成本。根据软件公司Power-MI引用的普华永道研究,预测性维护将正常运行时间提高了51%,降低成本11%,将设备使用寿命延长7%,并将与安全、健康、环境和质量相关的风险降低8%。

在农业领域,人工智能的应用可减少25-35%的除草剂和化肥消耗,提高产量3-4%,还可以根据土壤湿度监测来帮助调整灌溉计划,为农场节省高达50%的水资源。

联合国秘书长设立的人工智能咨询机构近日发布的《以人为本的人工智能治理》(Governing AI for Humanity)中期报告也勾勒出一条清晰的逻辑线。该报告阐明了人工智能对人类潜在益处的机会和推动因素,以及未来治理的风险点。

据报告,人工智能的积极影响遍及发达及发展中经济体。例如它被用于创建已经覆盖80多个国家的洪水预警系统、用于监控濒危物种和优化农业生产实践。人工智能的应用潜力无穷,如正在拓宽高质量医疗服务的可及性。同样,在解决环境问题、提高教育可及性、缓解贫困和饥饿以及增强城市安全等方面,人工智能都显示出了巨大的可能性。

在能源领域的贡献潜力也被该份报告所关注。报告分析认为,人工智能在优化能源系统和推进向可再生能源过渡转型方面发挥着作用,如提高风能效率,控制核聚变反应中的托卡马克等离子体,并实现碳捕获。

治理的关键因素

就人工智能的内涵和定义边界来看,公共部门的独特机遇完全符合“为造福人类而开发人工智能”的使命。比如推动在传统市场力量作用下难以取得进展的领域实现突破,包括从精准预测极端天气、监控生物多样性,到扩展教育机会、提供高质量医疗保健以及优化能源管理等多个方面。政府和公共机构可以借助人工智能技术,显著提升向公民提供的服务质量,并特别加强对社会弱势群体的支持和服务。

联合国的这份报告强调了利用人工智能造福人类的四项关键因素,“公平”是核心要素。

包括制定共同的数据标准和测试标准,促进人工智能初创企业在更多国家和地区进行测试和部署;在发展中国家和地区,鼓励构建本土人工智能生态系统和适应本地需求的模型,鼓励政府和私营部门投资其他核心基础设施,以推动全球人工智能的发展;

国家和国际层面上应对落后地区的企业进行人才、数据、计算资源的投资,以及开源数据和模型共享的支持,使其创建自己的人工智能解决方案。通过国际合作,促进人工智能人才的培养和交流,推动人工智能在科学研究和可持续发展目标方面的应用;

人工智能的发展、部署和使用需要平衡推动因素和防护措施,以促进人类的增强而非替代,避免形成“人工智能鸿沟”,确保公平获取技术和技能。建设和完善各利益相关方和成员国之间资源平等获取和隐私保护数据共享的机制,以实现更公平的人工智能发展。

“治理”作为推动人工智能的关键因素则包括人工智能应致力于支持可持续发展目标的实现,通过全球治理框架塑造激励机制,推动实现包容性目标并解决权衡与平衡问题。通过数据保护和交换框架促进模型构建生态系统,实现更具包容性和可持续性的人工智能开发。

此外,报告还提出借鉴Gavi联盟等其他领域经验,通过创新市场机制和激励措施,加强国际合作,如“分布式CERN”,扩大人工智能的普及,确保其服务于公共利益并公平分配成果。

风险事件 

人工智能的治理本质上涉及技术伦理的问题,目前探讨的重心在于如何为技术主体在实施技术行为的过程中提供伦理导向。

技术伦理不仅考虑技术的可能性,还要考虑技术活动的目的、手段及后果。英国艾伦图灵研 究所(Alan Turning Institute)将人工智能伦理定义为一套价值观、原则和标准,用以指导人工智能技术的开发和使用。这意味着人工智能的开发和应用需要满足相应的伦理原则和标准,否则会对人和社会造成不同程度的负面影响。

华尔街见闻注意到,一系列典型的人工智能应用事件其实引发了人们对人工智能伦理问题的思考。例如外卖骑手挑战交通规则,“助手”变“杀手”,显示人与机器、工作效率与人类规则之间存在矛盾。

“同性恋雷达用于同性恋识别,准确率可达 80%”、“人工智能可以翻译大脑想法,读懂人的意识”则体现了技术的突破性进展, 但同时也带来隐私无处藏匿的忧虑。“无人车驶入快车道”引发了人们对权责归属的关注。

上述报告也指出,在确保公平享受人工智能发展机遇的同时,必须认真对待各种已知和潜在危害。人工智能的部署可能引发种族歧视,威胁语言多样性,产生新型虚假信息甚至影响政治进程,在网络安全领域引起复杂挑战。

人工智能风险还包括技术局限导致的偏见和信息危害,以及技术被用于恶意目的,如深度伪造和敌对信息活动,严重危害社会安全。报告称,编制全面的人工智能风险清单是一项挑战,需要跨学科研究和灵活的风险管理框架共同配合。

然而,人工智能治理仍有一系列具有挑战的难题。比如人工智能系统的复杂性和商业秘密使其难以透视,加之科学的初级阶段和资源限制,这些因素阻碍了风险识别和管理责任的确定。

尽管人工智能影响全球,但其治理受国家边界局限,需要国际合作以填补监管空白,确保全面问责。报告还提出应考虑成员国的具体限制,满足其需求,帮助解决本土问题,而非强加不适用的解决方案。

此外,还需在其生命周期内全面考虑人工智能的成本和影响的同时警惕过度谨慎导致错失利用人工智能的机会,这些都为人工智能下一个阶段的治理带来复杂的考验。

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。
相关文章