人工智能聊天机器人的匆忙推出大型技术有极强的生态系统退化的机会网络的信息。这已经被证明了下面的例子。
目前,如果你问微软的Bing chatbot是否谷歌的吟游诗人聊天机器人已经被关闭,它将肯定地回应,用新闻文章作为证据。本文讨论了微博用户问的吟游诗人将被关闭,和巴德回应说,它已经从Hacker News援引评论,有人开了一个玩笑,和另一个人利用ChatGPT创建捏造新闻报道的发生。
Bing已经更正它的答案,现在承认,吟游诗人仍在运营。这可能表明,这些系统矫正在某种程度上,或者它可能表明他们具有很强的可塑性,很难准确地报告他们的错误不断。
我们见证的是早期迹象表明我们玩一场危险的游戏的AI错误电话。聊天机器人正在努力确定可靠的新闻来源,曲解文章对自己、对自己的能力和提供不准确的信息。
整个危机始于一个笑话就黑客新闻发表评论。想想会发生什么,如果有人故意想导致这些系统失败。
它可能似乎滑稽,但潜在的后果是严重的。人工智能语言模型无法区分事实与虚构危害互联网传播错误信息和不信任。这瘴气是不可能完全地图或彻底揭穿。所有这一切都因为微软,谷歌,和OpenAI价值市场份额超过安全。
公司可以添加尽可能多的免责声明他们想聊天机器人,标记为“实验”,“合作”,当然不是搜索引擎。然而,这是一个脆弱的防线。我们知道人们如何使用这些系统,我们已经见证了他们如何传播错误信息。他们产生新的故事,不存在或继电器信息不存在的书。现在,他们甚至引用彼此的错误。
