日期:2023-05-23 11:59:21 来源:互联网
【资料图】
当地时间5月22日,OpenAI的创始人山姆·奥特曼、总裁格雷格·布罗克曼和首席科学家伊利亚·苏茨克沃通过公司博客联合撰文,称人类必须缓和当今人工智能技术的风险,超级智能将需要被特殊对待和协调。他们在这篇题为《超级智能的治理》的文章中写道,“我们最终可能需要类似于IAEA(国际原子能机构)的东西来进行超级智能方面的努力;任何超过一定能力(或资源,如计算)门槛的努力都需要接受国际权威机构的检查,要求进行审计,测试是否符合安全标准,对部署程度和安全级别进行限制,等等。”
标签:
上一篇:现金流状况不佳拟借款、定增谋转型 滨海能源计划收购翔福新能源
下一篇:最后一页