报道称,日前发表的openai研究人员报告指出,“语言模型现在能力越来越强,也变得更加普遍,但我们不了解它们是如何运行的”。这句话支持那些对公众推广的一些人工智能缺乏安全性提出警示的人的看法。
但openai也表示“近期的研究在理解少量的电路和有限制的行为方面取得了进展”,不过该公司认为“要完全理解语言模型”需要“分析数以百万计的神经元”。该公司因为面临巨大的工作量,开始采用一种可自动分析语言模型所有神经元的技术。
据报道,根据发表出来的研究结果,该公司尚未实现这一点。尽管该公司尚未发现神经元运作原理的方法,但其希望在未来能够实现这一目标。研究人员指出:“我们希望,从这种将可解读性自动化的方法出发,将使我们能够在部署之前全面地审视模型的安全性。尽管gpt-4已经被广泛部署,但他们目前无法完成这项任务。换言之,他们未能完成此项任务。(编译/苏佳维)
以上就是内部调研发现:openai也不清楚自己的ai如何做决策的详细内容。
