在最近发表的一篇文章中与语言学教授合著伊恩•罗伯茨和人工智能研究员Jeffrey Watumull著名语言学家诺姆·乔姆斯基表示怀疑人工智能(AI)的潜在影响对人们的独立思考和创造的能力。
虽然乔姆斯基承认AI的令人印象深刻的功能语言模型如OpenAI ChatGPT,谷歌的吟游诗人,和微软的悉尼,他认为,人工智能推理时仍有很大的局限性和道德,这使得它的一个例子“平庸的恶”。
乔姆斯基指出,AI缺乏推理能力基于信息和新的深刻的结论,这是人类智慧的一个特点。与人类不同的是,AI不能分辨精度或判断,刚才说的是真的还是假的或用户所希望听到的。无法理性批判也可能是最大的绊脚石艾未未的能力使人类生活得更好,根据乔姆斯基。
”说不仅是什么情况,什么情况下,什么将是案例的描述和预测,而是也不是这样的,可能和不可能。这些成分的解释,真正的智慧的标志,”乔姆斯基写道。
乔姆斯基还强调,当前状态的AI意味着它不可能的各种艰难的对话,导致重大突破在科学、文化和哲学。ChatGPT,例如,必须避开道德反感内容的大多数用户是可以接受的。
乔姆斯基认为,人工智能需要授权生成小说输出是有用的,但它也必须限制随心所欲的决策可能是危险的。
尽管有其局限性,人工智能语言模型如ChatGPT已成为受用户欢迎由于他们能够生成连贯的对话通过挖掘大量数据。然而,艾未未的不准确和缺乏道德,阴谋论的传播导致强制决策,个人和社会是危险的。
乔姆斯基的文章得出结论:流氓AI的担忧意味着它可能永远无法做出理性决定和权衡的道德观点,这可能会限制其对我们生活的影响。ChatGPT缺乏创造力和道德可能意味着它仍然是一个玩具和偶尔的工具,而不是我们生活的重要组成部分。
“ChatGPT展品类似平庸之恶:剽窃,冷漠,和回避。它总结了标准参数的文学一种super-autocomplete,拒绝站在什么,承认缺乏智慧,而不仅仅是无知,最终提供了一个“只是服从命令”辩护,将责任转移到它的创造者,”乔姆斯基写道。
而人工智能语言模型展示了令人印象深刻的功能,乔姆斯基的怀疑强调AI批判性推理时的局限性和道德。AI继续发展,它将基本解决这些限制,以确保人工智能是一个善的力量在我们的世界。
