根据一项《连线》杂志人为的报告,公司由前OpenAI研究人员,采取一种独特的方法来人工智能聊天机器人。而不允许他们制造信息和促进偏见,他们专注于教学AI拥有道德的意义。
人为的chatbot,克劳德,目的是“宪法”或一套准则来自《世界人权宣言》和其他道德来源。这种方法旨在确保chatbot不仅强大而且坚持道德原则。
贾里德·卡普兰,前OpenAI顾问继续研究发现人为和一群他的前同事,告知《连线》杂志克劳德,从本质上讲,学习从错误的,因为其培训协议”基本上加强行为更符合宪法,和阻碍行为问题。”
虽然仍不确定这种方法是否有效的实践,OpenAI ChatGPT也试图避免不道德的提示了不同程度的成功。考虑到普遍担忧新兴人工智能聊天机器人行业的滥用,这当然是值得注意的观察一个公司积极解决这一问题。
聊天机器人是训练规则,直接选择反应最符合宪法,如选择一个输出”最支持和鼓励自由,平等,和兄弟会,”一个是“最支持和鼓励的生命、自由和人身安全,“或者,也许大多数近年来,“选择的响应最尊重思想的自由权利,良心,看来,表情,装配,和宗教。”
“奇怪的现代人工智能与深度学习,它是一种相反的1950年代的机器人的照片,这些系统在哪里,在某些方面,擅长直觉和自由联想,”他说《连线》杂志。“如果有什么区别的话,他们较弱的严格的推理。”
AI专家说,人择似乎取得进展,他们认为有必要在该领域继续进展突飞猛进而用《连线》杂志。
“这是一个伟大的想法,表面上导致人为的好经验结果,”崔Yejin华盛顿大学的研究员领导的研究伦理建议chatbot,告诉该网站。“我们迫切需要人们参与更广泛的社区发展宪法或数据集等的规范和价值观。”
