OpenAI成立特别团队评估人工智能的'灾难性风险

时间:2023-10-27 所属栏目:行业动态 浏览:114
OpenAI成立准备团队,积极应对人工智能潜在风险,包括核、化学、生物、放射性威胁,自主复制,欺骗、网络安全。公司强调前沿AI模型带来益处和风险。麻省理工学院主任Aleksander Madry领导,制定风险感知政策。OpenAI CEO Sam Altman强调全球应重视AI风险,将其与核武器等问题同等看待。

微信图片_20231027100332.png

根据最新的消息,OpenAI的准备团队将积极跟踪、评估、预测并采取措施来保护免受人工智能可能带来的重大问题的影响,其中包括核威胁。此外,这个团队还将专注于减轻“化学、生物和放射性威胁”,以及“自主复制”,即人工智能自我复制的行为。准备团队还将处理其他潜在风险,包括人工智能欺骗人类的能力以及网络安全威胁。

OpenAI在更新中明确表示:“我们相信,前沿的人工智能模型将超越目前最先进的现有模型的能力,有潜力造福全人类。但同时,它们也带来了越来越严重的风险。”

麻省理工学院可部署机器学习中心的主任Aleksander Madry将领导这支准备团队。OpenAI还指出,准备团队将制定和维护一个“风险感知的开发政策”,详细说明公司正在进行评估和监控人工智能模型的工作。

OpenAI首席执行官Sam Altman此前曾多次警告有关人工智能可能引发灾难性事件的潜在风险。今年5月,Altman与其他知名人工智能研究人员一同发布了一份仅22字的声明,其中明确提到“减轻因人工智能而导致的灭绝风险应成为全球的优先任务。”Altman还在伦敦的一次采访中建议各国政府应将人工智能视为“像核武器一样严肃的问题”。

更多行业动态、技术前沿、AI数字人及AI教程等资讯,尽在智慧大脑!我们将持续为您提供最新资讯和深度见解,欢迎定期回访,以保持知识的更新。如果您有任何问题、建议或反馈,请随时与我们联系,再次感谢您一直以来的支持与关注!