在b谷歌的内部消息中,其员工一直在批评公司开发的聊天机器人巴德,称该系统是“病态的骗子”,并一直恳求公司不要推出它。
这来自彭博社(Bloomberg)的一篇报道,其中引用了18名谷歌现任和前任员工的讨论,以及内部消息的截图。在这些邮件中,一名员工指出,巴德经常会给用户一些危险的建议,无论是关于如何降落飞机还是水肺潜水。
另一个说:“巴德比无用还糟糕,请不要下水。”彭博社称,该公司甚至“否决了”一个内部安全团队提交的风险评估,称该系统还没有做好普遍使用的准备。谷歌在3月份开放了“实验”机器人的早期访问权限。
这份报告将展示b谷歌如何忽视所有的道德问题,以便与市场上的其他竞争对手并起齐驱。正如其员工最近注意到的那样,该公司过去一直专注于职业道德和安全,但最近却开始优先考虑业务。
两名研究人员分别于2020年和2021年被解雇,他们是蒂姆尼特·格布鲁(Timnit Gebru)和玛格丽特·米切尔(Margaret Mitchell),当时他们撰写了一篇研究论文,揭露了支撑像巴德这样的聊天机器人的同一种人工智能语言系统的缺陷。
由于这些系统威胁到b谷歌的搜索业务模式,该公司似乎更关注业务而不是安全。正如彭博社(Bloomberg)引述现任和前任员工的证词所言:“这家值得信赖的互联网搜索巨头为了跟上竞争对手的步伐,提供的信息质量很低,而对道德承诺的重视程度却较低。”
但人工智能领域的几乎所有人都不同意这一点,因为普遍的观点是:公开测试对于开发和保护这些系统是必要的,而且聊天机器人造成的已知危害是最小的。
虽然它们不时地产生误导和虚假信息是事实,但网络上有许多来源也这样做。受欢迎的信息网站维基百科也不是100%真实。因此,b谷歌的竞争对手,如微软和OpenAI,也可以说和b谷歌一样妥协。唯一的区别是他们不是搜索业务的领导者,没有什么可失去的。
b谷歌发言人布莱恩·加布里埃尔(Brian Gabriel)告诉彭博社(Bloomberg),人工智能伦理仍然是该公司的首要任务。加布里埃尔表示:“我们将继续投资于致力于将我们的人工智能原则应用于我们技术的团队。”爱游戏ayx体育
