微软、亚马逊、IBM等科技巨头承诺公布AI模型安全措施,引领行业透明度

科技 2024-05-29 11:21 阅读:

在首尔举行的AI安全峰会上,微软、亚马逊和IBM等科技巨头承诺在开发基础模型时公布他们所采取的安全措施。

这些公司同意,如果无法控制或减轻AI模型所带来的风险,将不会开发或部署该模型。

这一承诺适用于基础或“前沿”模型,即可以应用于广泛领域的AI模型,通常是能够处理图像、文本和其他输入的多模态系统。

签署这一承诺的公司包括Meta、三星、Claude开发商Anthropic以及Elon Musk的初创企业xAI等。

除了这些公司,ChatGPT制造商OpenAI、总部位于迪拜的科技创新研究所以及韩国互联网供应商Naver也签署了前沿AI安全承诺。

每个同意承诺的公司都将公开概述他们的基础模型所带来的风险水平,并说明他们计划采取哪些措施以确保这些模型的安全性。

英国首相里希・苏纳克表示,这些承诺确保了世界领先的AI公司将就其开发安全AI的计划提供透明度和问责制。

这些承诺旨在进一步完善去年首届AI安全峰会上签署的Bletchley协议,该协议对AI风险进行了分类和归类。

安永全球咨询数据与AI负责人Beatriz Sanz Saiz表示,科技公司的承诺是一个受欢迎的举措,提供透明度和问责制至关重要。

Zoho英国的董事总经理Sachin Agrawal表示,使用AI的公司应优先考虑道德问题和负责任的数据实践,以建立客户信任。

微软、亚马逊、IBM等科技巨头承诺公布AI模型安全措施,引领行业透明度 第1张