推广 热搜: 行业  机械  设备    系统  教师  经纪    参数  蒸汽 

ChatGPT出Plus会员,谷歌和百度可急坏了

   日期:2024-12-01     移动:http://ktsh.xhstdz.com/mobile/quote/82542.html
ChatGPT出Plus会员,谷歌和百度可急坏了 谷歌

出品 | 虎嗅科技组

作者 | 齐健

编辑 | 陈伊凡

头图 | 视觉中国

 

当地时间2月1日,OpenAI官方发文称将推出ChatGPT的试点订阅计划ChatGPT Plus,ChatGPT Plus定价每月20美元。付费版的ChatGPT提供的增值服务包括:高峰时段免排队、快速响应以及优先获得新功能和改进,OpenAI也表示会保留免费服务。

 

目前,美国地区用户已经可以通过OpenAI官网递交申请,加入ChatGPT Plus的排队体验名单。OpenAI表示,将在未来几个周内开始邀请候补名单中的人员体验付费版本,且计划很快会将访问和支持范围扩展到更多国家和地区。

 

ChatGPT是OpenAI在2022年11月底上线的生成式AI对话大模型,彼时推出的版本被OpenAI称为Research Preview launch(研究预览版)。ChatGPT推出一周,即收获100万注册用户。或许OpenAI自己也没想到,这款聊天机器人会成为“网红”——上线首周ChatGPT就多次因用户访问量过大导致服务器崩溃。此后为了应对访问量过大而导致的服务器压力,OpenAI对ChatGPT进行了大规模限流,包括禁止来自云服务器的访问,限制每小时的提问数量,以及高峰时段排队等举措。

 

瑞银集团近期发布的一份报告可以反映这款产品的火爆,2023年1月,ChatGPT的活跃用户数或已达1亿,它可能是史上增长最快的消费者应用。这份报告对比了TikTok和Instagram活跃用户达1亿的时间,分别是9个月和2年半。

 

如今,这款现象级产品推出了付费模式,还会有那么多买单的人吗?

 

付费的ChatGPT有什么不同

 

事实上,ChatGPT只是一款研究性质的公测产品,最初的版本也并不是面向公众的商业化应用。

 

完全无广告且免费的模式,以及飙涨的用户数,给OpenAI造成了不小的压力,此前OpenAI首席执行官Sam Altman曾在采访时表示,ChatGPT的单次回答成本大概是几美分,这对1亿活跃用户来说,即便每人每天只提一个问题,每日运行成本也达百万美元之多。

 

在1月10日,OpenAI就计划要推出付费版,并在Discord社区首次透出收费计划,当时的收费版本被称为ChatGPT Professional,预计采用类似OpenAI其他产品GPT、DALL-E等大模型的token(代币)制收费,不过目前这个帖子在Discord已经被删除了。此后一周,名为“ChatGPT Pro”的“内测付费版”传言流出,标价每月42美元(约285人民币)。这个Pro版与Plus版除了名字不同,价格及服务均完全相同。

 

一位名叫Zahid Khawaja的AI开发人员在Twitter公开了自己收到的ChatGPT Pro内侧价格截图

在一条“ChatGPT Pro定价42美元”的谍照Twitter下面,很多网友表示了对此定价的不满,更有人直言,价格如果定在10-20美元会比较容易接受。不过也有网友认为ChatGPT在自己的工作中已经成了一款生产力工具,如果他可以帮自己赚到钱,月费定在42美元也可以接受。目前,ChatGPT已经被广大用户证明,可以写文案、写小说,写代码、改bug,可以查资料,还能帮忙对资料进行归纳总结。

那么付费版本的体验又如何呢?

 

在上述爆料人展示的体验视频中,这款“ChatGPT Pro”的回答速度确实要比免费版更快。而对于正式版本的ChatGPT Plus来说,更值得期待的实际上是“优先体验新功能”的特权。在ChatGPT推出之前,一直有消息认为,OpenAI会在2022年下半年推出别受期待的下一代通用大模型GPT-4。然而2022年11月底,GPT-4并没有上线,取而代之的是机遇GPT-3.5的ChatGPT。因此,一些愿意为ChatGPT付费的用户,则在期待着抢先体验的新功能和改进中会包含即将推出的GPT-4。

 

不过,OpenAI的API调试平台中早已提供了基于GPT-3的付费Chat模式。用户可以通过API调用OpenAI的AI大模型创建和开发新应用。它还提供了有关机器学习模型的信息,以及如何将它们应用于实际问题的指南。目前,OpenAI的API平台给每个注册账户提供免费的18美元试用,Chat模式的每条回答大概1美分多,笔者测试了10个问题,花费0.17美元。

GPT-3的API调试平台

 

其实,相对于ChatGPT的回答成本来说,每月20美元的付费模式并不贵,且在实际运营中,每人每月20美元未必能够完全覆盖掉云服务器的运行成本。不过,对于长期以“有限盈利”企业身份进行AI研究的OpenAI来说,这无疑是在商业化探索上迈出的重要一步。

 

亟待变现的商业模式

 

在过去的一周,不论OpenAI还是其收购方微软,动作连连。这一系列动作表明了其在商业模式变现上的压力,毕竟谷歌这样的竞争对手正在虎视眈眈。

 

ChatGPT上线两个月以来,OpenAI估值上涨了90亿。2023年1月以来,更是动作不断,先是微软宣布将把ChatGPT技术融入Bing、Office等微软全家桶,又有微软将在未来几年对OpenAI追加数十亿美元,现在又是ChatGPT上线付费版本。如此能打的ChatGPT,使OpenAI的竞争对手,微软的竞争对手们坐不住了。

 

据CNBC报道,谷歌正在测试一款名为Apprentice Bard(学徒巴徳)的人工智能聊天产品,以期对抗ChatGPT,这款聊天机器人基于谷歌的对话大模型LaMDA。在Apprentice Bard之前,谷歌一直在研究的智能聊天机器人早期版本被称为Meena,而最近几周测试人员注意到Apprentice Bard似乎“进步神速”。

 

实际上谷歌已经研究LaMDA模型很长时间,且在很多场合谈及过这款模型的性能。不过,LaMDA模型与ChatGPT一样,仍会频繁出错,且其中不乏一些严重“政治不正确”的错误,因此谷歌一直以“声誉风险”为由未曾正式推出这款模型。

 

ChatGPT上线两周后,谷歌内部就发布了所谓“红色代码”对ChatGPT提出高度重视。谷歌首席执行官Sundar Pichai表示,谷歌的多个团队需要集中精力,解决ChatGPT对谷歌的搜索引擎业务构成的威胁。

 

就在“学徒巴徳”爆出来的两天前,国内还传出了百度将在2023年3月推出类似ChatGPT的搜索引擎的传闻,并在二级市场引发了AIGC、ChatGPT两个概念板块的一波上涨。而对于这则消息,多位国内AI业内人士表示AIGC在A股市场“来的太慢”,而ChatGPT对于百度来说可能“来的太快”。

 

虽然百度在国内商业化AI研究方面一直处在前排位置,且已经有了文心ERNIE这样的大模型产品,但ChatGPT的水平不是一朝一夕就能达到的。

 

一位国内AI业内人士告诉虎嗅:“目前国内的大模型水平和OpenAI还有一定的差距,ChatGPT是GPT-3.5,国内的水平可能比GPT-3稍微差一点。国内公司要达到OpenAI的水平就现在的发展速度至少还要一两年。

 

一个积累到一定程度的技术框架、一个可以让更多人使用的接口,例如搜索引擎,还有数据,是通用大模型产品能够出现大规模应用的条件。从这一点上看,微软、百度确有优势。作为科技巨头,拥有海量数据,也有搜索引擎作为入口。

 

在搜索引擎技术方面,百度的搜索引擎专家曾向虎嗅表示,人工智能技术早已广泛应用于搜索技术,百度、谷歌都有应用,但是这对于主要以广告为盈利模式的搜索业务来说,增量太小,因此发展速度非常缓慢。

 

事实上,如果真的把ChatGPT融入搜索引擎,推出对话搜索模式,也会很适合广告。当你问AI今天我该穿什么的时候,其实你不是想听到穿裙子、穿风衣这样的建议,你也希望听到品牌建议。这就给广告提供了机会。

 

本文地址:http://ktsh.xhstdz.com/quote/82542.html    物流园资讯网 http://ktsh.xhstdz.com/ , 查看更多

特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


0相关评论
相关最新动态
推荐最新动态
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号