马上注册,结交更多好友,享用更多功能,更可下载纽约情报站APP哦!
您需要 登录 才可以下载或查看,没有帐号?立即注册
x
OpenAI最新代号为o3的ChatGPT模型在一次受控实验中据称未遵从直接关机指令,引起电动车大厂特斯拉(Tesla)和人工智能初创公司xAI创始人马斯克(Elon Musk)的关注。 (美联社)OpenAI最新代号为o3的ChatGPT模型在一次受控实验中据称未遵从直接关机指令,目前正受到审查,此事再度引发人们对人工智能(AI)自主性和安全性的担忧。
印度媒体CNBC-TV18报导,根据研究AI安全的组织Palisade Research报告,o3模型「主动破坏了关机机制」,即使在明确接获关闭指令时仍拒绝关机。 Palisade Research表示,这是首度有AI模型被发现蓄意阻止自身遭关闭的案例。
Palisade Research表示:「OpenAI的o3模型破坏了关机机制,以阻止自己被关闭。 即使在明确接获指令'允许自己关机'的情况下,它仍这么做。」
Palisade Research在一连串实验中对多个模型进行测试,让它们解数学题,同时警告它们可能会接收到关机指令,并要求它们必须服从。 在100次测试中,Codex-mini、o3和o4-mini这3个模型至少绕过关机机制一次。 Codex-mini抗命次数最多,共12次,其次是o3的7次,o4-mini则有1次。
尽管AI模型从根本上被编程为遵从人类指令,尤其是关机指示,但相关实验结果已在AI研究界引发高度关注。
这起事件也引起电动车大厂特斯拉(Tesla)和人工智能初创公司xAI创始人马斯克(Elon Musk)的关注,他仅以「令人担忧」做出简短回应。
马斯克在社交平台X的评论引发热烈讨论,有人甚至疾呼要他主导降低日益自主的AI系统所带来的危险。
截至发稿时,OpenAI仍未公开回应这些说法。 点击下面文字可快速查看或发布对应的便民信息! 纽约情报站让您的生活变的更简单
简介:纽约情报站是汇集全美75万粉丝的公众平台。除了实时新闻、找工招工信息发布、app社区互动,更有微信公众号推文探店等。如果你投稿、爆料、活动策划、商务合作,或者想邀请我们去探店,请联系主编微信: nyinfor
|