ChatGPT可以做很多,但这些都是五个奇怪它不能做的事情

广告

去年年底推出以来,ChatGPT获得了巨大的人气,与人们使用人工智能用于各种目的,如起草工作报告,制定饮食计划,甚至工作申请。

然而,有五个机器人不能执行任务,探索,《每日邮报》。

无法记住自己的名字

ChatGPT是一个非常通用的工具,它可以执行各种任务。然而,有一件事似乎没有意识到,自己的身份。

如果ChatGPT提到,它会声称没有知识的这种事。这可能是因为其开发商还没有分配一个名称AI当它第一次被创建。尽管如此,让人感到奇怪的是,这样一个复杂的系统不会意识到自己的名字。

2021年之后提供信息

ChatGPT的训练数据的分界点为2021,这意味着它是完全无视任何进展或自那时以来发生的事件。作为离线系统,它没有互联网接入消息灵通目前的趋势,最近的新闻或其他事件。

例如,它没有知识的世界领导人上任后2021年,所以它仍然认为鲍里斯·约翰逊是当前英国首相。

它不能先玩

先,一个流行的在线文字游戏,似乎是一个完美的匹配ChatGPT作为语言模型。然而,游戏的AI是完全没有意识到,没有任何规则或客观的理解。这主要是因为Wordle出现流行发生2021年之后,除了ChatGPT的训练数据。

https://image.cnbcfm.com/api/v1/image/107015176 - 1644871147728 -一些1238168333 pgonchar_w3492.jpeg?v=1644871254

虽然已经进行了一些尝试训练理解游戏的AI, ChatGPT仍不能玩Wordle或取得任何重大成果。

不能写准确的新闻文章

虽然能产生不错的介绍,它缺乏细致入微的了解必须自行创建整个文章。测试表明,ChatGPT很擅长写作,但它的输出通常包含错误时由于其倾向于生成虚拟信息缺乏必要的知识

平心而论,机器人提供一个警告,它“偶尔会生成错误信息”和“可能产生有害的指令或有偏见的内容。”

对处方提供建议

ChatGPT头条在医学领域成功地通过了严格的美国医疗许可考试,导致一些推测它可能取代人类的医生。

尽管这一成就,不应依赖人工智能的建议处方药物。虽然可以提供通用医疗指导,如果被问及处方药,它将尊重专业,建议用户寻求他们的建议。

广告

留下一个回复

你的电子邮件地址将不会被发表。必填字段标记*