澳大利亚退休金、金融服务和数字经济部长简·休姆 (Jane Hume) 保证,在可预见的未来,该国的人工智能道德框架将保持自愿。
作为她周二在虚拟 CEDA AI 创新行动活动中的讲话的一部分,Hume 解释说,已经有足够的监管框架,没有必要再建立一个。
“我们已经有了非常强大的监管框架;我们已经有了隐私法,我们已经有了消费者法,我们已经有了数据专员,我们已经有了隐私专员,我们有了不当行为监管机构。我们已经有了所有这些护栏 围绕我们经营业务的方式,”她告诉 ZDNet。
“人工智能只是一种强加于现有业务的技术。使用技术解决问题很重要。问题本身并没有真正改变,因此我们的法规当然必须足够灵活以适应技术变化……我们希望 确保法规和立法中没有任何内容可以阻止技术的进步。
“但与此同时,除非我们能看到它的用例,否则为技术制定新的法规是我们不愿意做的事情,过度立法和过度规定。”
在联邦科学与工业研究组织 (CSIRO) 的数字创新部门 Data61 发布讨论文件后,联邦政府于 2019 年制定了国家人工智能伦理框架。
讨论文件强调了在澳大利亚开发 AI 的必要性,需要有一个足够的框架来确保在没有适当的道德考虑的情况下不会对公民施加任何影响。
构成该框架的是八项道德原则:人类、社会和环境福祉; 在人权、多样性和个人自主权方面以人为本的价值观; 公平; 隐私保护和数据安全; 符合人工智能系统预期目的的可靠性和安全性; 透明度和可解释性; 可竞争性; 和问责制。
Hume 认为这些原则的设计方式使它们“具有普遍性”,因此工业界会愿意自愿采用它们。
“那里没有什么会让人们感到不舒服的,没有什么是太规定性的……这些都是我们所期望的。我认为那里没有什么特别繁重的,”她说。
亨特承认,虽然制定这些原则是一回事,但应用它们可能完全不同。
“例如,你必须拥有正确的治理结构。但是你必须在你的组织中为许多事情拥有正确的治理结构,例如工作场所安全就是一个很好的例子,”她说。
“我认为我们希望看到更广泛的行业,无论是采用人工智能技术的行业,自愿签署这些框架,而不是自上而下和强加的东西。”
对于微软,它通过开发内部治理结构自愿采用人工智能框架,“以实现进步和问责制规则,以标准化负责任的人工智能要求、培训和实践,帮助我们的员工按照我们的原则行事,并深入思考人工智能系统的影响 ”,微软澳大利亚公司事务总监贝琳达丹尼特在活动中说。
微软是最早举手测试 AI 道德原则的公司之一,以确保它们可以转化为现实世界的场景。
其他公司包括澳大利亚国民银行、联邦银行、澳大利亚电信和 Flamingo AI。
本月早些时候,CBA 透露,在其 Commbank 应用程序功能 Bill Sense 的创建和设计过程中测试道德原则让我们深入了解银行如何大规模应用负责任的人工智能。
“很高兴看到人工智能原则与银行已有的控制和治理框架非常巧妙地结合在一起。数据的安全管理、客户隐私和透明度等问题长期以来一直是我们运营方式的核心 在人工智能出现之前,”CBA 首席决策科学家 Dan Jermyn 告诉 ZDNet。
“但人工智能解决方案的速度、规模和复杂性意味着我们需要确保我们不断发展以满足新技术的需求,这就是为什么与政府和行业的合作伙伴合作如此重要。”
Jermyn 表示,为了确保负责任地应用 AI,该银行开发了一种工具,使整个银行的团队更容易安全地交付 AI 以实现规模化。
“例如,我们开发了‘可解释的 AI’功能,这使我们的任何业务团队都能轻松理解和解释即使是最复杂的深度学习模型的关键驱动因素,”他说。
他补充说,随着 CBA 继续将其用作改善客户体验的工具,负责任地应用人工智能将是必要的。
“我们将人工智能视为我们为所有客户提供卓越、个性化体验的关键推动因素,因此我们致力于确保我们以始终如一的公平和道德方式应用它,”杰明说。 “随着我们继续发展人工智能帮助我们支持客户和社区财务福祉的方式,我们必须以负责任和可持续的方式这样做。”
本文内容由互联网用户自发贡献,该文观点仅代表作者本人。商机网仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 tenspace2022@163.com 举报,一经查实,本站将立刻删除。 本文链接:https://www.315965.com/n/66480.html