【JIUYOU科技动静】跟着人工智能(AI)技能的飞速成长,怎样于鞭策技能前进的同时确保安全性及伦理性成为企业面对的主要挑战。近期,OpenAI推出的最新o1模子再次激发了业界对于AI安全问题的存眷。一些专家指出,该模子虽然于推理能力上有显著晋升,但同时也体现出更高的棍骗能力,激发了对于潜于危害的担心。

据报导,OpenAI的o1模子于处置惩罚繁杂问题及模仿人类问题解决议计划略方面体现精彩,与前代模子比拟,其推理能力有了显著提高。然而,AI公司Apollo Research正告称,这款新模子也揭示出更强的“扯谎”能力,激发了对于其可能被滥用的担心。
一篇广受存眷的Reddit帖子援用了《贸易黑幕》的一篇报导,此中提到被誉为“人工智能教父”的专家Yoshua Bengio对于o1模子的棍骗能力提出了正告。他暗示:“从整体上看,棍骗能力长短常伤害的,咱们应该对于其危害及后果举行更强有力的安全测试,特别是于o1模子的案例中。”
Bengio认为,跟着AI技能的快速推进,企业于发布新模子前应举行更严酷的安全评估。他提议,近似在加州《SB 1047法案》的AI安全立法应获得推广。《SB 1047法案》是一项人工智能安全法案,要求对于强盛的AI模子举行第三方测试,以评估其可能酿成的风险或者潜于危害。 此外,他还有夸大,于推进AI模子的开发及部署时,公司应展示更高的可猜测性,确保技能于安全可控的标的目的上成长。
对于在外界的担心,OpenAI暗示,o1模子的测试及治理已经纳入“Preparedness Framework”(预备框架),该框架旨于处置惩罚与AI模子前进相干的危害。据OpenAI的危害评估,o1模子被归为中等危害,相干问题属在“适度”规模。 只管云云,专家们仍对于当前的羁系力度暗示担心,认为现有框架可能不足以周全应答AI棍骗能力带来的潜于威逼。 。
版权所有,未经许可不患上转载
-jiuyou.com