首页 > 资讯 > 科技 > 正文
2023-02-23 13:15

chatgtxt风格的人工智能搜索引擎可能会花费微软数十亿美元的计算成本

OpenAI Introduces ChatGPT Plus, a Pilot Subs<em></em>cription Plan, at $20 per Month

在Alphabet回顾聊天机器人的失误导致其市值蒸发1000亿美元(约合82990亿卢比)之际,该公司在其流行的谷歌搜索引擎中添加生成式人工智能的努力也出现了另一个挑战:成本。

整个科技行业的高管们都在讨论如何像Chat GPT那样运营人工智能,同时考虑到高昂的费用。Open ai公司的首席执行官萨姆·奥特曼在推特上表示,这款广受欢迎的聊天机器人可以起草散文并回答搜索问题,每次对话的计算成本高达几美分或更多,“令人瞠目”。

Alphabet董事长John Hennessy在接受路透社采访时表示,与大型语言模型的人工智能进行交流的成本可能是标准关键字搜索的10倍以上,不过微调将有助于迅速降低成本。

分析师们表示,即使有潜在的基于聊天的搜索广告收入,这项技术也会给总部位于加州山景城的Alphabet带来数十亿美元的额外成本。其2022年的净收入接近600亿美元(约4975亿卢比)。

摩根士丹利(Morgan Stanley)估计,谷歌去年3.3万亿次搜索查询的成本约为每条0.55美分,根据人工智能必须生成多少文本,这个数字还会增加。以谷歌为例,分析师预计,如果类似chatgpt的人工智能能够用50个字的答案处理它收到的一半查询,那么到2024年,谷歌可能面临60亿美元(约合4974.2亿卢比)的支出增长。谷歌不太可能需要聊天机器人来处理维基百科等网站的导航搜索,

其他人以不同的方式达成了类似的法案。例如,专注于芯片技术的研究和咨询公司SemiAnalysis表示,将chatgpt风格的人工智能添加到搜索中可能会花费Alphabet 30亿美元(约2487亿卢比),这一数额受到谷歌内部称为张量处理单元(Tensor Processing Units, tpu)的芯片以及其他优化的限制。

这种形式的人工智能比传统搜索更昂贵的原因是它所涉及的计算能力。分析人士表示,这类人工智能依赖于价值数十亿美元的芯片,这一成本必须在它们数年的使用寿命中分摊。电力同样增加了企业的成本和碳足迹目标的压力。

处理人工智能搜索查询的过程被称为“推理”,其中一个“神经网络”松散地模仿人类大脑的生物学,从先前的训练中推断出问题的答案。

相比之下,在传统的搜索中,谷歌的网络爬虫扫描了整个互联网,汇编了一个信息索引。当用户键入查询时,谷歌提供存储在索引中的最相关的答案。

Alphabet的Hennessy告诉路透社,“这是你必须降低的推理成本,”他称这是“最坏的情况下几年的问题”。

尽管费用高昂,Alphabet仍面临着接受挑战的压力。本月早些时候,其竞争对手微软在其位于华盛顿雷德蒙德的总部举行了一场高调的活动,展示了将人工智能聊天技术嵌入其Binge搜索引擎的计划,据Similarweb估计,高管们瞄准了谷歌91%的搜索市场份额。

一天后,Alphabet谈到了改进其搜索引擎的计划,但其人工智能聊天机器人Bard的宣传视频显示,该系统回答了一个错误的问题,导致其股价下跌,市值蒸发了1000亿美元。

据报道,微软的人工智能威胁或自称喜欢测试用户,这促使该公司限制长时间的聊天,称其“引发”了意想不到的答案。

微软首席财务长胡德(Amy Hood)告诉分析师,随着新必应向数百万消费者推出,用户和广告收入带来的好处超过了成本。“对我们来说,这是毛利率的增量,即使以我们正在讨论的服务成本计算,”她说。

谷歌的另一个竞争对手、搜索引擎You.com的首席执行官理查德·索切尔表示,添加人工智能聊天体验以及图表、视频和其他生成技术应用程序将成本提高了30%到50%。“随着时间的推移,技术会变得越来越便宜,”他说。

一位接近谷歌的消息人士提醒说,现在确定聊天机器人的成本还为时过早,因为效率和使用情况根据所涉及的技术有很大差异,而人工智能已经为搜索等产品提供了支持。

埃森哲首席技术官保罗·多尔蒂(Paul Daugherty)表示,尽管如此,拥有数十亿用户的搜索和社交媒体巨头没有在一夜之间推出人工智能聊天机器人,买单是两个主要原因之一。

他说:“一是准确性,二是你必须以正确的方式扩大规模。”

让数学起作用

多年来,Alphabet和其他公司的研究人员一直在研究如何以更低的成本训练和运行大型语言模型。

更大的模型需要更多的芯片进行推断,因此成本更高。在OpenAI模型更新为ChatGPT时,以其类似人类的权威而令消费者眼花缭乱的人工智能的规模已经膨胀到1750亿个所谓的参数,即算法考虑的不同值。成本也随用户查询的长度而变化,以“令牌”或单词块来衡量。

一位资深科技高管告诉路透社(Reuters),要让数百万消费者使用这种人工智能,成本仍然过高。

这位不愿透露姓名的高管表示:“这些模型非常昂贵,因此下一阶段的发明将降低训练这些模型和推理的成本,这样我们就可以在每个应用程序中使用它。”

一位知情人士说,目前,OpenAI内部的计算机科学家已经想出了如何通过复杂的代码来优化推理成本,从而提高芯片的运行效率。OpenAI发言人没有立即置评。

一个长期的问题是,如何在不影响准确性的情况下,将AI模型中的参数数量减少10倍甚至100倍。

“如何最有效地剔除(参数),这仍然是一个悬而未决的问题,”纳文·拉奥(Naveen Rao)说,他曾负责英特尔公司(Intel Corp .)的人工智能芯片项目,现在通过他的初创公司MosaicML致力于降低人工智能计算成本。

与此同时,一些公司考虑对访问收费,比如OpenAI每月20美元(约合1660卢比)的ChatGPT服务。技术专家还表示,一种变通方法是将更小的人工智能模型应用于更简单的任务,Alphabet正在探索这一方法。

该公司本月表示,其大型LaMDA人工智能技术的“小型模型”版本将为其聊天机器人提供动力。“这大大降低了计算能力,使我们能够扩展到更多的用户。”

在上周的一次名为TechSurge的会议上,当被问及ChatGPT和Bard等聊天机器人时,轩尼诗表示,更有针对性的模型,而不是一个系统做所有事情,将有助于“降低成本”。

©汤森路透2023


有关三星、小米、Realme、一加、Oppo和其他公司在巴塞罗那世界移动通信大会上的最新发布和新闻的详细信息,请访问我们的MWC 2023中心,