京ICP备2022018928号-30 投诉举报:315 541 185@qq.com
在澳大利亚工业、科学和资源部公布了《澳大利亚安全和负责的人工智能讨论文件(Safe and Responsible AI in Australia Discussion Paper)》之后,本文将详细介绍该国政府正在考虑的各种潜在的人工智能监管措施。
主要内容
(资料图片)
这份讨论文件概述了澳大利亚和国际上与人工智能技术有关的监管框架。
该文件的重点是如何确定监管措施,以确保人工智能在澳大利亚能够得到安全、负责地开发和使用。该讨论文件提出了一个潜在的风险管理框架,可用于管理与人工智能技术相关的各种风险。
该部门正在征求各方对该讨论文件的反馈意见,包括风险管理方法草案,以确定是否需要加强管理设置以应对快速的数字发展。提交反馈意见的截止日期是2023年7月26日。
为了方便意见征询,该讨论文件共提出了20个问题,以征求对该讨论文件中提出的多个主题的意见。针对这些主题或讨论文件中提出的其他事项的意见应提交至澳大利亚工业、科学和资源部的咨询中心。
本文将对该讨论文件中列出的一系列潜在的人工智能监管措施进行探讨,这些措施目前正在政府的考虑之中。该讨论文件建议,澳大利亚采取的监管措施必须符合以下条件:
-确保采取适当的保障措施,特别是与高风险人工智能应用有关的保障措施;和
-提供更大的确定性,以增强企业对人工智能解决方案的投资信心,并相信这些企业正在以负责任的方式从事人工智能活动。
根据国际上正在实施的法规以及澳大利亚的现行框架,该讨论文件列出了政府可能实施的一系列潜在人工智能监管措施。在讨论文件中,这些措施按照从“自愿”到“监管”的等级进行映射,以表明哪些是法定义务,哪些可以自愿遵守。所讨论的许多措施有可能会随着时间的推移从自愿准则过渡到法定义务。这是英国在其《支持创新的人工智能监管方法》白皮书中提出的原则所采取的方法,该白皮书建议在“非法定”的基础上颁布和实施规则,然后在最初的实施期后进行立法。
需要注意的是,这里可能不会有“一刀切”的做法,政府达成的立场很可能是该讨论文件中所探讨的各种措施的组合。
讨论文件中包括以下措施:
监管法规
监管人工智能的一个明确的选择是为此目的制定法律,也就是说,或者通过专门针对人工智能的特定立法,或者对现有法律进行修订。对立法框架规定的义务的遵守是强制性的,对不遵守立法框架行为可以规定处罚和可用的补救措施。这将为寻求开发或实施人工智能系统的组织提供义务和不合规后果的确定性,这反过来又将通过明确的监管框架支持公众对人工智能的信任和信心。
然而,值得注意的是,立法框架并不像讨论文件中提到的一些其他措施那样灵活和反应迅速。这可能导致监管负担的增加,并且可能扼杀创新或阻止澳大利亚获得国际开发的人工智能技术的先进成果。
行业自我监管或共同监管
自我监管计划由行业通过一些行为准则或其他自愿计划(例如类似于新加坡正在实施的人工智能标准化自我测试工具AI Verify)制定并实施。这些自我监管计划的制定和实施通常比立法对策更快,并且可以轻松地更改,从而为人们提供更大的灵活性。
行业自我监管可以一种“共同监管”的方式与立法相结合,允许由行业制定的准则作为立法框架的一部分,这将使自我监管准则有法定的补救和处罚措施,而不是完全靠自愿遵守。
监管原则
政府可以制定监管原则,以在人工智能用于监管机构监管的特定部门/行业时指导监管机构确定何时以及如何对其进行监管。这将促进监管机构在现有监管框架内解决人工智能使用问题时具有更大的监管一致性。
监管原则通常是基于结果的,可以非常灵活地应用于广泛的环境。从合规的角度来看,这可能会使监管原则对组织提出更大的挑战(取决于组织解释和遵守原则的资源和能力),但却比其他不太灵活的替代性方案更支持创新。
监管机构的参与
监管机构之间加强合作将有助于确保当人工智能在多个部门/行业受到监管时,最大限度地降低由多个监管机构负责在不同情况下对人工智能进行监管而造成的合规负担。考虑到人工智能系统的广泛应用,这对于任何人工智能监管的有效性都可能是十分必要的(并且可以通过使用监管原则等来促进)。澳大利亚的一些监管机构已经在合作制定指南,并分享与人工智能在特定情况下的使用有关的信息。
管理和咨询机构及平台
这将涉及引入人工智能专用机构,以支持管理要求的实施,并为人工智能服务提供商和消费者提供建议。这方面的一个示例是澳大利亚国家人工智能中心的“负责的人工智能网络”,该网络由联邦科学与工业研究组织(CSIRO)运营,专注于澳大利亚工业中负责的人工智能解决方案的研究。
有利的监管杠杆
有利的监管杠杆,旨在促进和推动创新,而不是阻碍创新。这将涉及到对人工智能技术实验的明确框架和指导。例如,这可以通过创建“监管沙盒”来实现,这些沙箱是特定行业内的受控环境,用于实验和创新。
技术标准
技术标准是由行业主导的组织内的技术专家们达成共识的设计,目的是制定通用的标准,这些标准将被用来提高系统的互操作性。这可以改善消费者结果并促进国际贸易。这些标准可以是自愿遵守的,也可以通过立法强制执行。
保证性基础设施和合规程序或实践
这些是用于测试和验证人工智能系统以确保它们能够符合标准或质量要求而实施的措施。例如,这些措施可能涉及评估开发人工智能系统所依据的数据质量,或要求人工智能系统达到一定程度的透明度,以确保消费者和其他利益攸关方了解支撑该系统的算法和决策。这些措施在很大程度上提高了人工智能解决方案的透明度,将有助于建立公众对人工智能的信任和信心。
这些保证性程序由行业或政府(或二者合作)制定,可以是自愿遵守的,也可以是通过立法规定的,可以由组织内部管理,也可以由第三方(私营或公共部门)来管理。
指导政府运作的政策、原则或声明
发布和提供政策、原则或声明的目的是提高人们对政府在使用人工智能方面的政策立场和期望的认识。这样做的目的是增加透明度、提升公众对政府如何使用人工智能解决方案的信任和信心,还可以通过在政府中树立最佳做法的榜样来影响私营部门的做法。
透明度和消费者信息要求
这些措施旨在通过使用诸如编制和发布人工智能影响评估,以及在使用人工智能应用程序时通知个人等方法来提高透明度。
禁令和延缓履行令
这些措施涉及禁止某些人工智能应用程序的流程,无论是在一般情况下还是在特定情况下。例如,一些司法管辖区正在采取行动,禁止在教育环境中使用人工智能聊天机器人ChatGPT。欧盟还提议禁止在特定情况下使用“社会评分”和“实时生物识别”。
公共教育和其他支持性中央职能
这方面的措施指的是通过增加信息的可用性和提高认知度来鼓励某些行为的“非监管性”选择(即不是旨在影响企业行为的法律、原则或指南)。
设计上的考虑
这方面主要指在设计人工智能系统时打算实施的措施,以确保人工智能系统从一开始就是高质量、透明和安全的。这种设计方法可以是自愿选择的,也可以是立法要求的。
风险管理方法
风险管理方法可用于指导上述任何措施的实施(可以是单独的一项,也可以是多项措施相结合)。正如本文所讨论的,一种基于风险的人工智能方法正在多个国际司法管辖区实施,在目前阶段,澳大利亚似乎有可能会遵循这一趋势。该讨论文件包括了一份人工智能风险管理方法草案,政府正在寻求草案的反馈和意见。
这份风险管理方法草案涉及一个三级分类系统,使用以下三类进行分级管理:
低风险:将产生有限、可逆或短暂的轻微影响。例如,基于算法的垃圾邮件过滤器、由通用的聊天机器人和由人工智能支持的业务流程。
中风险:将产生持续且难以逆转的较大影响。例如,由人工智能支持的贷款价值评估、紧急服务聊天机器人、用于招聘和评估员工等方面的由人工智能支持的应用程序。
高风险:将产生系统性、不可逆转或永久性的极大影响。例如,用于医疗程序的人工智能机器人,以及用于与安全相关的汽车部件或自动驾驶汽车以作出实时决策的人工智能。
根据该风险管理方法草案,一个组织将考虑拟议的人工智能应用程序的风险水平,并根据所确定的风险水平规定适用于该人工智能应用程序的要求。
在最终框架下,对人工智能系统的要求可以是上述任何措施的组合。不过,该框架草案中确定的措施示例如下:
-开展人工智能影响评估;
-向用户提供在实施和使用人工智能解决方案的通知;
-使用“人机共生”的模式,这要求人工智能解决方案能够与可以在需要时进行干预的人进行互动;
-作出工智能解决方案如何工作的公开解释;
-提出有关用户培训的具体要求;和
-对人工智能解决方案的工作方式进行内部和外部监测和记录。
下一步可能发生的情况
相关各方可按照要求进行反馈并发表意见。
澳大利亚工业、科学和资源部正在就讨论文件中提出的20个问题以及由此产生的任何其他事项寻求反馈。反馈和咨询期开放至2023年7月26日。