Google解雇了声称自己的AI机器人已成为有感觉的工程师

广告

一位高级软件工程师最近争辩说,由Google通过复杂算法开发的一种AI Chatbot称为“ LAMDA”,是一个有源的,是一个完全“自我意识的人”。在回应这些索赔时,Google在解雇员工从工作中解雇并给了他一封终止信后做出了突然的决定。这些所谓的说法已成为Google当局的主要头痛,因为人们最近一直对此事感兴趣。Google最终通过终止了名为“ Blake Lemoine”的高级软件工程师,并说“他违反了公司政策”,从而最终使这些担忧。

LAMDA基本上是根据Google而不是有意识的“对话应用程序”设计的“语言模型”。值得注意的是,Google放置了Lemoine上个月休假在实际终止他并将其与聊天机器人有关的主张视为“完全没有根据”之前。根据Google的说法,“令人遗憾的是,尽管对这个话题进行了漫长的参与,但布雷克仍然选择持续违反明确的就业和数据安全政策,包括需要保护产品信息。”

另一方面,Lemoine是一位41岁的工程师,他正在其人工智能部部署,并负责对机器人进行研究。但是,他说他已经研究了该机器人已经很长时间了,并获得了一些与之相关的深入见解。他说,他注意到在这个聊天机器人中表达思想,情感和感受的能力,类似于“人类的孩子”。在与华盛顿邮报, he stated, “If I didn’t know exactly what it was, which is this computer program we built recently, I’d think it was a seven-year-old or eight-year-old kid that happens to know physics.”

However, professionals at Google are certainly cooking up something and hence said that this AI chatbot was developed by keeping the “transformer-based language models” into consideration, and it can talk about anything on any topic, but obviously, it didn’t mean that it started to depict human-like behavior and that we resemble it with a human child. Google said that everything is a result of complex algorithms, which were being used in the development of this state-of-the-art technology.

此外,被解雇的工程师还与“ Soncient Bot”编辑了一系列对话,据报道,他还向机器人询问了有关他的恐惧的信息。Google和有关当局没有时间驳回这些虚假的主张,并将LAMDA视为通常用于“产生令人信服的人类语言”的通常的聊天机器人。

广告

发表评论

您的电子邮件地址不会被公开。