谷歌搜索负责人普拉巴卡尔•拉加万警告称,人工智能聊天机器人可以给出“令人信服但完全虚构的”答案。在最近的一次采访中,他表示,由人工智能驱动的聊天机器人有可能传播虚假信息,破坏公众信任。他强调,人工智能聊天机器人可以生成看似可信的答案,但不一定基于准确的信息。
Prabhakar Raghavan告诉记者周日世界报他们有时会给出虚假但令人信服的答案。“我们目前谈论的这种人工智能有时会导致我们所谓的幻觉,”他告诉这家德国报纸。他补充说:“然后,机器会以一种令人信服但完全虚构的方式来表达答案。”
这是科技行业许多人日益关注的问题,因为聊天机器人正越来越多地用于各种目的,从客户服务到新闻传播。聊天机器人旨在以对话的方式与用户互动,使用自然语言处理来理解和回答问题。然而,他们也可能基于有偏见或不准确的数据生成答案,导致错误信息的传播。
挑战在于构建能够准确可靠地为用户提供信息的聊天机器人。Raghavan强调了透明和问责制在人工智能聊天机器人开发中的重要性。他说,在设计聊天机器人时应该有“严格的监督”,在验证信息准确性方面,必须遵循与人类记者相同的标准。
为了解决这一问题,Raghavan呼吁采用多方利益相关者的方法来开发和监管人工智能聊天机器人。这将涉及科技公司、政府机构和各个领域的专家之间的合作,以确保人工智能聊天机器人以负责任的方式设计和使用。
Raghavan的评论是在一些之后发表的批评谷歌和Alphabet首席执行官桑达尔·皮查伊对巴德的“仓促”和“拙劣”发布表示感谢。尽管存在潜在的风险,拉加万认为人工智能聊天机器人有潜力极大地造福社会。它们有可能提供快速便捷的信息获取途径,使人们更容易找到他们需要的东西。不过,他强调,必须确保他们是值得信赖和可靠的信息来源。
总之,Prabhakar Raghavan关于人工智能聊天机器人危险的警告强调了在这一快速增长的领域中谨慎和负责任的开发的必要性。虽然聊天机器人有可能彻底改变我们获取信息的方式,但它们的设计和使用必须确保其信息的准确性和可靠性。
