OpenAI 推出「预先准备框架」 防堵人工智慧灾难

-

OpenAI 公司推出一份长达 27 页的「预先准备框架」,以防止其研发的强大人工智慧模型引发灾难

草根影响力新视野(琪拉编译)

OpenAI公司已经拟定了计画,避免他们正在研发的强大人工智慧未来会有最危险的状况发生。这间研发了强大聊天机器人ChatGPT的公司,这礼拜也推出了一份长达二十七页的[预先准备框架]的文件,指出了公司会如何追踪、评估、与预测因为他们的人工智慧模型可能引发的[大灾难]的发生。

可能的风险范围包括人类可能借用人工智慧模型创造大规模网路安全破坏,到协助制造生物、化学或核能武器等都有。另外,OpenAI表示,公司领导层拥有是否发布新AI模型的决策权,但其董事会拥有最终决定权,并拥有原本公司领导层决定的权利。

但即使在董事会否决有潜在风险的人工智慧模型之前,该公司也表示,它必须事先通过许多安全检查。一个专门的「准备」团队将领导多管齐下的工作,以监控和减轻 OpenAI 先进人工智慧模型的潜在风险。

麻省理工学院教授 Aleksander Madry 负责领导这家新创公司的准备团队。他将监督一组研究人员,负责评估和密切监控潜在风险,并将这些不同的风险整合到记分卡中。这些记分卡在某种程度上将某些风险分类为「低」、「中」、「高」或「严重」。

图片取自:(示意图123rf)

准备框架指出,只有得分为[中]或以下的模型才能开始研发,并且只有得分为[高]或以下的模型才能进一步开发。该公司表示,该文件目前仍处於「测试版」阶段,预计将根据回馈定期更新。

该框架让人们再次关注这家强大的人工智慧新创公司不寻常的治理结构,上个月公司爆发事件後,该公司的董事会进行了彻底改革,导致首席执行官萨姆·奥尔特曼(Sam Altman)被赶下台,然後在短短五天内又重新上任。这部备受关注的企业大戏在奥特曼回归後引发了新的问题:奥特曼在这间公司的权力,以及董事会对他,以及对他的领导团队的限制。

OpenAI 表示,目前的董事会是最初的阶段,并且正在组建过程中,由三名富有的白人组成,他们肩负着确保 OpenAI 最先进的技术完成造福全人类的使命的艰钜任务。

不过这个临时董事会因为缺乏多元化受到了广泛的批评。一些批评者也担心,依靠公司的自我监管是不够的,立法者需要采取更多措施来确保人工智慧工具的安全开发和部署。

资料来源:https://edition.cnn.com

gate交易平台可靠吗

最新趋势

0 0 投票数
Article Rating
订阅评论
提醒
guest
0 Comments
内联反馈
查看所有评论

Recent comments

0
希望看到您的想法,请您发表评论x