微软计划ChatGPT扶持必应!用来对抗谷歌

admin 科学技术 2023-01-05 280

摘要:长期以来,谷歌搜索引擎的市场份额前所未有,这让许多竞争对手望而却步。然而,现在,随着一个名为ChatGPT的聊天机器人的出现,在一个多月的时间里,谷歌似乎可以背诵诗歌、写代码、编辑笑话,甚至可以登录司法考试网站,这敲响了警钟。来自多个来源的更多媒体报道称,谷歌内部正在掀起“红色代码”,担心ChatGPT会给谷歌搜...

ChatGPT.jpg

长期以来,谷歌搜索引擎的市场份额前所未有,这让许多竞争对手望而却步。

然而,现在,随着一个名为ChatGPT的聊天机器人的出现,在一个多月的时间里,谷歌似乎可以背诵诗歌、写代码、编辑笑话,甚至可以登录司法考试网站,这敲响了警钟。来自多个来源的更多媒体报道称,谷歌内部正在掀起“红色代码”,担心ChatGPT会给谷歌搜索引擎的未来带来巨大挑战。

与之形成鲜明对比的是,排名第二、仅占3.04%的必应似乎更为舒适。根据the Information的最新报告,微软可能会在2023年3月之前使用Bing中的ChatGPT来回答人工智能的一些搜索查询。

微软的远见

微软与ChatGPT背后的开发者OpenAI之间的合作已经不是秘密。现在回过头来看,许多人都钦佩微软的远见。

OpenAI成立于2015年,自诞生以来,一直致力于促进和发展友好型人工智能。截至目前,已陆续推出GPT-3、DALL·E2、ChatGPT等重磅机型,一次次推动AI的成功落地。

然而,最初作为一个非盈利组织,OpenAI并没有找到自己的盈利模式。

就像它的目标公司,谷歌的Deepmind部门,曾经陷入亏损和债务的困惑。当时,彭博社报道称,2018年,谷歌母公司Alphabet股份有限公司收购的人工智能公司DeepMind的收入几乎翻了一番,但收入情况并不乐观,因为损失增加到数十亿美元。DeepMind的盈利能力一直受到质疑。

处于同一起跑线上的OpenAI也将面临“现金短缺”的尴尬问题。

然而,幸运的是,最初默默无闻的OpenAI凭借马斯克的光环度过了研发的第一阶段。随后,2019年3月,OpenAI也为其可持续发展制定了计划,并成立了子公司OpenAI LP,主要目的是盈利。

也是在这一年,OpenAI的发展吸引了微软的注意。7月,微软宣布将向OpenAI投资10亿美元,双方将合作开发用于Azure云平台服务的人工智能技术。同时,OpenAI还将利用这笔巨额资金进一步推动通用人工智能(AGI)的研究。

2020年,我们只知道当OpenAI推出GPT-3语言模型时,微软在当年9月22日获得了独家许可。

目前,随着the information的报道,更多细节被曝光,包括早在2019年,微软对OpenAI的投资就包括一项协议,将GPT的某些方面纳入Bing。

Bing将加入ChatGPT功能

具体来说,旧版本的GPT可以在用户输入时自动提供搜索查询建议。现在,微软宣布计划将Dall-E2模型集成到Bing Image Creator中,这样用户就可以发送描述性文本提示并生成AI绘图。

据该消息,知情人士表示,微软即将发布的公告将揭示更多有意义的功能。

那么,如果搜索引擎引入ChatGPT聊天机器人,它将以什么形式呈现?

据报道,这些人工智能支持的答案可以以包含信息源的完整句子的形式呈现,而不是引用可能解决用户提出的问题源或链接列表的选定片段。

然而,“必应仍将依靠自己的技术生成大部分搜索结果”,因为GPT并不意味着“继续爬行网络或像搜索引擎一样提供实时信息”。同时,必应如何确保答案的准确性还有待观察。

该信息称,它“可能在今年3月底之前推出”,而必应可能被定位为“免费访问某些GPT的唯一途径”。因为根据OpenAI的计划,他们将对ChatGPT采取收费政策。为此,外媒还评价微软是一家“为初创公司的云账单买单”的企业。

ChatGPT是为了“杀死”传统搜索引擎而诞生的?

不过,许多网友表示,他们很期待微软此举能否让必应逆袭“世界上最好的”谷歌搜索引擎。

然而,许多人持怀疑态度,甚至发起了投票:

为此,在用户层面形成了两个主要观点:

首先,支持ChatGPT将打破传统搜索引擎的市场格局。

在过去的一个月里,朋友圈一次又一次刷屏,ChatGPT的人气有目共睹。

与基于用户问题提供数千万相关链接索引的传统搜索引擎相比,ChatGPT直接为搜索和信息集成提供了自己的单一答案,为用户省去了重复单击链接查找答案的复杂性。

基于此,许多人坚信ChatGPT将挑战传统搜索引擎。

第二,ChatGPT想要取代谷歌是牵强的。至少目前来说,这是不可能的。

为了讨论这一观点,外媒TechTalk也发表了一篇题为“为什么ChatGPT不会对谷歌搜索造成威胁”的文章,分析了大型语言模型(LLM)的真实性、更新、速度和商业化。

无法保证真实性。

使用ChatGPT作为支持建议的提供者没有问题。然而,在学术和科学研究等严格的应用场景中,ChatGPT提供的答案并不一定正确。解决ChatGPT输出的真实性将是一个重大挑战。然而,目前无法从ChatGPT输出中区分真伪,除非您使用其他来源(如谷歌)来验证答案。

然而,如果你想用一个大的语言模型来代替搜索引擎,这有点弄巧成拙。

有些人可能会说,像谷歌这样的搜索引擎可能也不能提供100%的正确答案。为什么他们不能容忍ChatGPT?

事实上,像谷歌这样的搜索引擎至少为用户提供了可验证的源链接,但ChatGPT只提供纯文本,不引用实际网站。尽管目前许多人将LLM输出的不同部分链接到实际的网页,但这是一项复杂的研究工作,无法通过纯粹的基于深度的学习来解决。

更新模型的成本太高

ChatGPT和其他LLM面临的另一个挑战是更新他们的知识库。

事实上,搜索引擎的索引可以实时更新,这样更方便快捷。但对于大型语言模型,添加新内容需要重新训练模型。

可能不需要在每次更新模型时完全重新训练,但与搜索引擎相比,添加或修改训练数据的成本更高。

据外媒报道,基于GPT3.5,ChatGPT可能至少有1750亿个参数。由于没有适合此模型的单一硬件,因此必须将其分解并分布在多个处理器上,例如A100GPU。设置和并行化这些处理器以训练和运行模型是一项技术和财务挑战。

速度挑战

LLM还存在推理速度的问题。搜索引擎不需要为每个查询浏览整个数据集。他们有索引、排序和搜索算法,可以很快找到正确的记录。因此,即使在线信息量在增长,搜索引擎的速度也不会下降。

然而,LLM每次收到提示时都会在整个神经网络中运行信息。它的计算量远大于搜索引擎的查询索引。鉴于深度神经网络的非线性特性,推理操作的并行度受到限制。随着LLM训练语料库的增长,模型必须变得更大,以推广其知识库。

商业模式

目前,ChatGPT仍处于测试阶段,没有商业模式。然而,TechCrunch估计,拥有100万用户的ChatGPT每天花费10万美元,每月约300万美元。

不难计算如果世界各地的用户每天运行80亿次搜索查询会发生什么。此外,还增加了定期培训模型的成本,以及通过强化学习和手动反馈微调模型所需的体力劳动。

总之,如果我们使用一个ChatGPT来对抗谷歌搜索引擎,可能性可能很小,甚至可以忽略不计。但根据微软的初步计划,Bing目前的进入主要是将ChatGPT作为Bing的辅助功能,这样两者的结合可以促进Bing的优势。

这使得谷歌在“自己的人工智能语言模型LaMDA中处于被动地位,其功能类似于ChatGPT,但由于这项技术带来的“声誉风险”,该公司不得不采取“比小型初创公司更保守的行动”。

对于谁能在最后的搜索引擎大战中开怀大笑,这也是一个问号。


相关推荐
关闭

用微信“扫一扫”