谷歌宣布了其最新的人工智能(AI)超级计算机,该公司声称这台计算机比英伟达(Nvidia)提供的竞争系统更快、更高效。虽然英伟达在人工智能模型训练和部署市场占据主导地位,占90%以上,但b谷歌自2016年以来一直在设计和部署自己的人工智能芯片,名为张量处理单元(Tensor Processing unit,简称tpu)。
b谷歌一直是主要的人工智能先驱,其员工在过去十年中开发了该领域的一些最重要的进步。然而,该公司一直在竞相发布产品,并证明自己在将其发明商业化方面没有落后,正如CNBC此前报道的那样,这是一种“红色代码”情况。
为了训练b谷歌的Bard或OpenAI的ChatGPT等人工智能模型,需要大量的计算机和数百或数千个芯片一起工作。这些计算机昼夜不停地运行数周甚至数月,这使得人工智能所需的大量计算机能力变得昂贵。
周二,谷歌宣布,它已经建立了一个拥有4000多个tpu的系统,并加入了用于运行和训练人工智能模型的定制组件。根据谷歌研究人员的说法,其基于TPU的超级计算机称为TPU v4,“比英伟达A100快1.2 - 1.7倍,功耗低1.3 - 1.9倍”。
谷歌的研究人员表示,谷歌的TPU结果没有与英伟达最新的人工智能芯片H100进行比较,因为它是最新的,采用了更先进的制造技术。爱游戏ayx体育周三公布了一项名为MLperf的全行业人工智能芯片测试的结果和排名,英伟达首席执行官黄仁勋声称,最新的英伟达芯片H100的测试结果明显快于上一代芯片。
人工智能所需的大量计算机功率是昂贵的,许多业内人士都专注于开发新的芯片、光学连接等组件或软件技术,以减少所需的计算机功率。人工智能的功率需求对b谷歌、微软(Microsoft)和亚马逊(Amazon)等云计算提供商来说也是一个福音,它们可以按小时出租计算机处理能力,并向初创企业提供积分或计算时间,以建立关系。
总之,b谷歌最新的人工智能超级计算机代表了该公司向前迈出的一大步,该公司正试图证明它在人工智能发明的商业化方面并没有落后。然而,英伟达仍然主导着人工智能模型训练和部署市场,其最新芯片与上一代相比,性能有了显著提高。人工智能所需的大量计算机功率也推动了新芯片和软件技术的发展,以降低功耗要求,而云提供商正受益于对人工智能处理能力不断增长的需求。
