新报告显示Youtube的推荐人仍然很糟糕

广告

如果您已经使用YouTube一段时间,您可能知道有时您的家庭饲料或探索饲料只是不推荐您喜欢的东西。无论是完全不同于你通常观看的东西,也是服务一些政治目的和议程的视频。许多人批评了YouTube的建议和它后面的AI算法。说他们通常喂养促进仇恨言论的视频,通常是眼影,并激怒人。

虽然一些批评似乎很远,但是有一些真相。在任何视频结束时的下一部分才旨在让您继续观看。它建议煽动仇恨或创造争议的视频。谷歌一直在迫切地解决问题。他们扩大了人类主持人的数量,并继续恶意化和消除仇恨内容。然而,一项新的研究已经出现,说Youtube的推荐人仍然被破坏。

新研究由Mozilla发布,并备份YouTube的AI继续推荐用于促进用户的冲突和争议的内容。TechCrunch的人们表示,它继续“淹没堆积的底部喂养/低级/分裂/缺点含量”。此类内容旨在抓住您的注意力,并且它是一般来说youtube的主要目标。这是通过获得更多观点来赚钱。

最重要的是,大多数内容创造者都讨论了算法如何工作,以便他们继续推出视频,可以安抚该算法。几年后YouTube面临严重的反冲当刘德德和暴力视频开始向使用YouTube Kids App的孩子们展示。这是儿童的专用应用程序。Mozilla的研究表明,推荐AI工作的方式有一些系统性。

根据该研究的说法,尽管谷歌声称他们做了一些改革来解决问题,但AI仍然表现得很糟糕。这只是表明,大多数谷歌的索赔都是假的,并完成了批评。Mozilla收集数据的方法非常独特。他们使用称为后悔的浏览器扩展名称,基本上允许用户自我报告它们“遗憾”观看的YouTube视频。大约71%的遗憾来自YouTube推荐自己的视频。

该研究表明,对于谷歌实际修复并获得所需的事情,他们需要“常识透明度法,更好的监督和消费者压力”。这意味着他们需要法律,使其强制成为AI系统是透明的。所以用户知道他们如何工作或至少监管机构。该研究还推荐保护独立的研究人员,以便他们可以通过试验和错误继续弄清楚这些算法系统。

广告

发表评论

您的电子邮件地址不会被公开。