新火种AI|英伟达旗下Together AI频频收获投资,估值飙升不断。

原创 收藏 评论
举报 2024-03-25

作者:小岩

编辑:彩云

目前,AI初创领域里获得融资最多的两家大模型创业公司是OpenAI和Anthropic,二者都是闭源大模型公司,它们背后的最大投资者分别是实力强劲的微软和亚马逊。

资本头部下场入局AI领域,所付出的绝不是资金这么简单,更有不可估量且极其宝贵的云计算资源。这样“不遗余力提供支持”的做法,无疑给OpenAI和Anthropic绑上了两大科技巨头的“战车”,战斗力旺盛,马力十足。

在闭源大模型之外,还有另一个阵营是开源大模型,MetaAI的llama系列就是其中的代表。使用开源大模型做应用的创业公司,大部分希望保持自己的独立性,会使用多云策略。此时拥有一个能力强,成本低的AI云平台就非常需要,而Torgether AI便是其中的典型代表。自成立伊始,Together AI就展现出了极其昂扬的上升势头,不仅多次获得融资,其估值也在不断翻涨。更重要的是,它的背后也拥有实力强劲的头部资本——英伟达。

图片8.png

成立至今不过两年,以提供Navidia GPU而闻名...

Together AI究竟是何方神圣?

Together AI 成立于2022年,以提供对 Nvidia GPU 的访问而闻名,它会为AI创业公司提供训练服务云平台,推理服务云平台的服务。与此同时,它完全拥抱开源生态的全栈AI公司,拥有自己的模型和数据集,在AI底层技术方面有很深的积累。公司目前正致力于扩展其平台,帮助开发人员构建或定制他们的开源人工智能模型。根据公司首席执行官 Vipul Ved Prakash 的说法,所得到的新资金将用于扩大计算能力,并招募研究人员构建新模型架构。截至目前,Together AI已经拥有45000名注册用户,他们大多来自人工智能初创公司和跨国企业,这些客户主要因为GPU而来。对于想要使用开放模型或定制模型并将其部署到大规模应用程序的人来说,Together AI正是他们的首选。

图片9.png

初创公司备受青睐,成功收获多轮融资,价值翻倍至394亿。

Together AI如此受欢迎,和其与英伟达之间的亲密联系和深度捆绑密不可分。

据悉,Together AI成立于2022年6月,它所开发的主要产品包括:类ChatGPT开源模型RedPajama-INCITE,开源30万亿训练数据集RedPajama-Data-v2以及开源大语言模型训练、推理加速器FlashAttention v2等。除了英伟达以外,Together AI还与 Crusoe Cloud,Vultr等伙伴展开了合作。此外,Together AI还在欧美地区运营了一个云计算中心,可以为成式AI初创企业提供推理,训练等方面的服务。Together AI还致力于扩展一个平台帮助开发者构建或定制他们的开源 AI 模型。

因为Together AI能够提供GPU,所以一经上线就颇受欢迎,获得多轮融资也就成为了自然而然的事情。

2023年5月,Together AI获得2000万美元种子轮融资;2023年11月,Together AI再度获得由凯鹏华盈 (Kleiner Perkins) 领投,英伟达,Emergence Capital等机构跟投的1.025亿美元(约7.3亿元)A轮融资。

时隔几个月,当地时间2024年3月13日,Together AI宣布完成新一轮融资,总额达1.06亿美元,投后估值为12.5亿美元。据悉,全新一轮筹资是由云计算软件巨头Salesforce的创投公司Salesforce Ventures领投,包括聚焦科技业的美国投资管理公司Coatue;既有投资者创投公司Lux Capital,Emergence Capital在内的诸多资本相继跟投。

一番操作下来,Together AI估值较去年秋天大增一倍多,达到了惊人的12.5亿美元。这不仅说明广大资本对于TogetherAI发展前景的分外看好,更反映出在生成式AI热潮下,投资人争相支持相关创业公司开创商机的浪潮。

 图片10.png

Together AI的核心竞争力:既拥有推理速度最快的开源AI云平台,又拥有自己的数据集和模型。

Together AI之所以能一上线便收获到如此多的拥趸,很大程度上在于它所拥有的GPU。

GPU Clusters是专门为AI模型训练专门优化的GPU算力集群。它拥有极快的模型训练速度和极高的成本效率,客户可以在平台上对模型进行训练和微调。Together AI为这个集群配备了训练软件堆栈,如此一来用户可以专注于优化模型质量,而不是把大把的时间耗费在调整软件设置上。

在速度方面,Together AI使用了FlashAttention-2,它要比PyTorch足足快9倍;在成本方面,它使用的都是NVIDIA的A100和H100高端GPU,比AWS成本降低4倍。此外,它还具有极佳的扩展性,用户可以选择16个GPU到2048个GPU的算力规模,对应不同大小的AI模型。

不可否认,AI领域的竞争是相当激烈的,基本是属于大厂,实力强劲的创业公司这一类大资本的角力,它们的水平已经明显领先于大学和学术研究机构。从类型上来说,闭源大模型在性能上也是全面领先开源大模型的。

造成这种差距的根本原因主要在于训练大模型所需要的巨量成本,诸如算力成本,人力成本,时间成本等。因为有成本方面的巨大压力,学校和研究机构只能用规模很小的模型(6B或7B)参数去做一些相对边缘的研究;又或者另辟蹊径的去卷基础理论,试图颠覆现有的格局。

基于这样的现状,“闭源大模型超越开源大模型”基本会成为不争的事实,只不过是时间的问题。在这种趋势下,AI的权利将变得越来越中心化,从而形成“几家传统巨头 (以微软和Google为代表)+几家新巨头(以OpenAI和Anthropic为代表)”的格局。

图片11.png

这样的情况并不利于整个AI行业的生态化发展。从某种程度上说,这也是Together AI存在的意义。首先,它们搭建算力平台,为企业提供更加便宜和快速的模型训练和推理服务;其次,它们也帮助企业打造了属于自己的定制模型,从而给予企业第三方的选择空间;更重要的是,在开源方面,它们也提供了自己的数据集,训练与推理技术栈,以及示例性的开源模型,这些努力都是为了打破“垄断”。

从这个角度来说,Together AI的确前途可期。


本文系作者授权数英发表,内容为作者独立观点,不代表数英立场。
转载请在文章开头和结尾显眼处标注:作者、出处和链接。不按规范转载侵权必究。
本文系作者授权数英发表,内容为作者独立观点,不代表数英立场。
未经授权严禁转载,授权事宜请联系作者本人,侵权必究。
本内容为作者独立观点,不代表数英立场。
本文禁止转载,侵权必究。
本文系数英原创,未经允许不得转载。
授权事宜请至数英微信公众号(ID: digitaling) 后台授权,侵权必究。

    评论

    文明发言,无意义评论将很快被删除,异常行为可能被禁言
    DIGITALING
    登录后参与评论

    评论

    文明发言,无意义评论将很快被删除,异常行为可能被禁言
    800

    推荐评论

    暂无评论哦,快来评论一下吧!

    全部评论(0条)