据说ChatGPT成本超过一百万美元每天

广告

ChatGPT已成为一个非常方便的来源我们写或产生任何书评,是否创建一个代码,甚至写类型的信。但使用ChatGPT可能花费高达700000美元一天,因为昂贵的科技基础设施AI上运行,迪伦帕特尔半导体研究公司首席分析师SemiAnalysis,告诉的信息。

这应该不是一个冲击ChatGPT,如此强大,需要大量的计算能力来计算响应基于特定用户提示。“大多数的成本是基于他们需要的昂贵的服务器,”帕特尔告诉《科技出版物。

打来的电话中得知内幕,Patel称现在可能更昂贵的操作,当他最初的估计是基于OpenAI GPT-3模型。GPT-4 -该公司最新的模型将更加昂贵的运行,他告诉内幕。

虽然训练ChatGPT的大型语言模型可能花费数千万美元,运营费用,或推理成本,“远远超过培训成本当部署一个模型在任何合理的规模,”帕特尔和阿夫扎尔艾哈迈德(另一个SemiAnalysis分析师告诉《福布斯》。“事实上,推理ChatGPT成本超过每周培训成本,”他们说。

公司使用OpenAI语言模型已经支付高价格持续很长一段时间。例如,纬度,启动一个AI地牢游戏背后,一个月花了200000美元在2021年模型和Amazon Web服务服务器。

这成本导致CEO转向语言支持的软件提供商AI21实验室,成本减少了50%,至100000美元一个月。人工智能的高成本是一个重要的纬度的经济负担,和首席执行官的成本相比,人类的员工。

减少成本,微软的进步发展中一个新的人工智能芯片叫做雅典娜。这个项目始于2019年,它背后的理念是双重的。

微软高管们意识到,他们落后于谷歌和亚马逊在努力建立自己的内部芯片,一个知情的对信息来源。

与此同时,微软据说寻找更便宜的替代品——它的人工智能模型运行在Nvidia的芯片被称为图形处理单元,决定建立一个芯片,成本更低。

在4年之后,大约300名微软员工正致力于这个芯片,它可能很快就会发布供内部使用微软和OpenAI一旦明年。

广告

留下一个回复

你的电子邮件地址将不会被发表。必填字段标记*