OpenAI表示,该公司计划大力投资资源并创建一个新的研究团队,以确保其人工智能(AI)对人类而言仍然是安全的。最终,将实现用AI来监督管理AI。OpenAI的联合创始人Ilya Sutskever和部门主管Jan Leike认为,超级智能最终可能会造成人性泯灭、甚至人类的最终灭绝。“当前,我们还无法驾驭或控制一个具备超级智能的AI,也无法阻止它变得‘淘气’。”
风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。