马克·扎克伯格的meta驳斥了人工智能即将变得和人类一样强大的说法。
Facebook母公司的一位高级人工智能高管表示,ChatGPT等技术的构建存在“根本性限制”,这意味着这些系统天生就容易出错。
meta的生成式人工智能主管艾哈迈德?达勒(Ahmad Al-Dahle)的上述言论与一些预测形成了鲜明对比,这些预测认为,下一波人工智能技术可能会赶上人类的智能,并成为一种生存风险。
“作为一个行业,作为一个人工智能社区,底层技术存在根本性的限制,我们没有解决方案,”Al-Dahle告诉《每日电讯报》。
他表示,领先的人工智能公司没有充分解决“幻觉”问题——这是当今人工智能模型经常编造问题答案的一个常见问题。
达勒表示:“作为一个社区,我们做了很多工作,让它更真实、更接地气、更有帮助。”“所有这些都有很大的帮助,但它们并没有缩小差距。
“我们将需要新的进展和新的方法来完全消除它们(幻觉)。”
他说,目前的方法不太可能产生人工通用智能(AGI),这是人工智能的一个里程碑,在OpenAI等公司描述为存在风险的任何领域,技术都可以与人类相媲美。
“我只是认为,目前的方法或技术无法在那里推广,”达勒表示。“我们需要更多的发明,而这些发明很难安排。我不知道我们能否在一年、五年、十年或二十年后实现这一目标。”
英国人工智能实验室DeepMind的首席执行官德米斯?哈萨比斯(Demis Hassabis)表示,AGI可能“只需要几年时间”。
Rishi Sunak于11月举办的人工智能安全峰会旨在解决政府顾问的担忧,即人工智能系统可能在一年内变得如此强大,以至于它们可能被用来制造生物武器或失控。
但Al-Dahle表示,“没有人有任何东西能远远接近”可以自我改进的人工智能软件,这是对该技术提出警告的人工智能研究人员的主要担忧之一。
在苏纳克发表上述言论之前,另一位元人工智能高管扬?勒昆(Yann LeCun)声称,苏纳克因担心该技术的存在风险而患上了“人工智能妄想症”。
meta一直因免费提供人工智能模型而受到竞争对手的抨击,批评人士表示,这可能意味着它们最终会落入坏人之手。











