和顺纵横信息网

 找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 231|回复: 0

白宫宣布的一系列自愿承诺

[复制链接]

10

主题

10

帖子

32

积分

新手上路

Rank: 1

积分
32
发表于 2025-1-16 18:22:12 | 显示全部楼层 |阅读模式
特别是 Jon Bateman、Alana Brase、Helena Jordheim 和 Ian Klaus,他们对起草和出版过程的支持。作者的丈夫是人工智能公司 Anthropic 的总裁,并通过他的配偶与 Anthropic 和 OpenAI 都有财务往来。注释注释 1 请参阅 Google DeepMind 的 Frontier Safety Framework、OpenAI 的 Preparedness Framework 和 Anthropic 的 Responsible Scaling Policy。 2 请参阅 Google DeepMind 的 Frontier Safety Framework、OpenAI 的 Preparedness Framework 和 Anthropic 的 Responsible Scaling Policy,所有这些政策都强调需要随着时间的推移进行修订(见下文注释 6)。3 损害可能包括财产损失、经济无谓损失以及生命和健康的损失(后者可以使用生命价值方法进行评估)。

请参阅 Google DeepMind 的 Frontier Safety Framework、OpenAI 的 Preparedness Framework、Anthropic 的 Responsible Scaling Policy 和 Magicdev 的 AGI Readiness Policy。这些都提出了类似候选绊线功能的东西。5 其中包括一篇解释这些情况的论文(《极端风险模型评估》,2023 年 5 月发表);其中重点 巴哈马 whatsapp 介绍了在发布前评估人工智能以确定风险;一项美国行政命令,重点关注“人工智能模型评估工具和人工智能测试平台”;以及英国人工智能安全研究所和美国人工智能安全研究所的成立,这两个研究所都高度关注人工智能系统的安全评估。6参见 METR 关于负责任的扩展政策的帖子。

7“该框架是探索性的,我们预计,随着我们从实施中学习、加深对人工智能风险和评估的理解以及与行业、学术界和政府的合作,它将发生重大变化。尽管这些风险超出了当今模型的范围,但我们希望实施和改进该框架将有助于我们为应对这些风险做好准备。我们的目标是在 2025 年初全面实施这一初步框架,”摘自谷歌 DeepMind 介绍其 Frontier 安全框架的博客文章。“该框架是我们采用的初始 Beta 版本,旨在成为一份动态文档。随着我们了解更多信息并收到更多反馈,我们希望定期更新它,”摘自 OpenAI 对其准备框架的公告。“但是,我们要强调的是,这些承诺是我们目前的最佳猜测,也是我们将在此基础上进行的早期迭代。


回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|和顺纵横信息网

GMT+8, 2025-7-14 01:21 , Processed in 0.036243 second(s), 18 queries .

Powered by Discuz! X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表