OpenAI非常担心AI导致人类灭绝,这是组建一个团队来控制“超智”

广告

OpenAI ChatGPT背后的主谋,采取果断行动面对的令人惊叹的力量有超常智慧的人工智能(AI)。担心风险这些高级系统超越人类的创造者,OpenAI已经组建了专门的团队来确保人工智能仍然是一个善的力量而不是威胁。

在最近的博客中,OpenAI表示相信,“有超常智慧的人工智能的出现可能比我们想象的更近,可能在未来的十年。没有一个可行的解决方案来控制和引导AI促使组织应对这样的挑战。

介绍Superalignment,一个团队,负责开发人工智能模型匹配的人类智慧的能力。这些聪明的监护人将培训监督和规范有超常智慧的AI,维护人类的潜在风险。OpenAI设定了一个雄心勃勃的目标实现这一里程碑在接下来的四年。

支持这项努力,OpenAI积极寻找顶尖人才加入团队,分配大量计算能力的20%燃料的研究和开发工作。Sam Altman OpenAI的首席执行官,并直言不讳地支持全球优先级的AI风险缓解,将它与其他重要的全球问题如流行病和核战争。

而OpenAI及其支持者,包括技术远见卓识Elon Musk,强调主动监管的紧迫性,重要的是要注意,并非所有的人工智能的专家社区共享相同的问题。最近讨论人工智能伦理学家揭示了紧迫的现实问题,AI公司正在加剧,强调需要一个平衡的方法。

随着技术的比赛爱游戏ayx体育仍在继续,OpenAI仍然致力于驯服的野性潜力有超常智慧的AI振奋人类塑造成一个力,同时保持正念的道德因素在起作用。

广告

留下一个回复

你的电子邮件地址将不会被发表。必填字段标记*