诏安信息港 网站首页 资讯列表 资讯内容

AI 开发不必“因噎废食”,但必须以伦理为先

2023-06-09| 发布者: 诏安信息港| 查看: 144| 评论: 3|来源:互联网

摘要: 作者:ChristinaMontgomery,IBM首席隐私诚信官;FrancescaRossi,IBM研究院AI伦理全球负责人随着生成式AI系统进入公共领...
补骨脂治疗白斑偏方

作者:ChristinaMontgomery,IBM首席隐私诚信官;FrancescaRossi,IBM研究院AI伦理全球负责人

随着生成式AI系统进入公共领域,让世界各地的人们接触到新的技术可能性、影响,甚至是此前尚未考虑的后果。得益于ChatGPT和其他类似的系统,现在几乎任何人都可以使用高级AI模型,这些模型不仅能够具有早期版本的检测模式、挖掘数据和提出建议等能力,还能创造新内容、在对话中生成原创的回复等。

如需了解IBM技术、产品和服务的更多信息,点击访问IBM官网。

AI发展的转折点

当生成式AI功能的设计合乎伦理、并以负责任的方式推向市场时,它将为企业和社会带来前所未有的机遇,包括:提供更好的客户服务,改善医疗系统和法律服务;以及支持和增强人类的创造力,加快科学研发,并调动更有效的方法来应对气候挑战。

关于AI的开发、部署和使用及其加速人类进步的潜力,我们正处于一个关键节点。然而,这种巨大的潜力也伴随着风险,例如产生虚假内容和有害文本、泄露隐私,偏见被放大,同时,这些系统的运行也缺乏透明度。因此,合理质疑AI对于劳动力、创造力以及人类整体福祉意味着什么,这至关重要。

行业需要新的AI伦理标准

最近,一些科技行业的意见领袖联名呼吁,将大型AI模式的训练暂停6个月,以留出时间制定新的AI伦理标准。其意图和动机无疑是好的,但它忽略了一个基本事实:这些系统目前仍在我们的控制范围内,基于它们构建的解决方案也是如此。

负责任的训练,以及基于多方合作、将AI伦理贯穿始终的开发路径,可以使这些系统变得更好而不是更糟。AI技术无时不刻都在演进和迭代。因此,不论是正在使用或是等待上线的AI系统,其训练必须与构建负责任的AI这一目标保持一致。以负责任的AI为先不意味着要暂停AI开发。

持续采用和完善AI伦理标准和规范,这项工作事关人人。IBM在多年前就建立了行业最早的AI伦理委员会之一,以及全公司范围内的AI伦理框架。通过评估当前和未来的技术格局,包括我们的行业定位以及与利益相关方的协作,我们不断加强和完善这一框架。

IBM的AI伦理委员会打造了一个负责任的集中式治理结构,它覆盖AI的全生命周期,在制定明确政策、推动问责制的同时,也能灵活且敏捷地支持IBM的业务需求。在传统的和更先进的AI系统开发中,IBM一直践行着这一重要治理结构。我们不能只关注未来的风险,而忽视眼前的治理需要,比如价值对齐(valuealignment,即AI在执行任务中实现的价值和用户所希望的价值是一致的)和AI伦理;后者也会随着AI的发展而不断演进。

除了协作和监督,打造这些AI系统的技术路径应该从一开始就考虑伦理因素。例如,我们对AI的担忧往往源于对“黑匣子”内部发生的情况缺乏了解。因此,IBM开发了一个监管平台,用于监控模型的公平性和偏见与否,获取数据来源,最终形成更透明、可解释且可靠的AI管理流程。此外,IBM的企业级AI战略将信任嵌入整个AI生命周期中,从创建模型、训练系统所使用的数据,到这些模型在特定业务领域的应用。

接下来需要做什么?

首先,我们倡导企业将伦理和责任置于其AI议程的首位。全面暂停AI训练或是降低AI伦理的行业优先级,最终将事与愿违。

其次,政府应避免在技术层面对AI进行过度监管。否则,这将成为一场“打地鼠”游戏,阻碍真正有益的、面向未来的创新。我们呼吁世界各地的立法者采取更加高效且精准的监管模式,对高风险的AI用例实施严格监管。

最后,在企业如何保护与AI系统交互的数据隐私方面,仍然缺乏足够的透明度。我们需要为用户提供一致的、可落地的个人隐私保护。

最近社会对AI的广泛关注,正应了这句话:权力越大,责任越大。与其全面暂停AI系统的开发,不如打破协作壁垒,共同打造负责任的AI。

如需了解IBM技术、产品和服务的更多信息,点击访问IBM官网

或扫描以下二维码进行访问:



分享至:
| 收藏
收藏 分享 邀请

最新评论(0)

Archiver|手机版|小黑屋|诏安信息港  

GMT+8, 2019-1-6 20:25 , Processed in 0.100947 second(s), 11 queries .

Powered by 诏安信息港 X1.0

© 2015-2020 诏安信息港 版权所有

微信扫一扫