开源生成式AI初创平台together.ai融资7.3亿元
站长之家(ChinaZ.com) 11月30日 消息:Together AI,一家专注于生成式人工智能(AIGC)领域的初创平台,宣布在A轮融资中获得7.3亿元人民币,由凯鹏华盈领投,英伟达等多家公司跟投。
Together AI强调开源在大模型领域的重要性,发布了多个备受好评的开源产品,包括类ChatGPT模型RedPajama-INCITE、30万亿训练数据集RedPajama-Data-v2,以及大语言模型训练和推理加速器FlashAttention v2。
图源备注:图片由AI生成,图片授权服务商Midjourney
除了融资和开源产品,Together AI还与英伟达、Crusoe Cloud、Vultr等伙伴合作,在欧美地区运营云计算中心,为生成式AI初创企业提供推理、训练等服务,其中文生视频平台Pika Labs是其忠实用户。
Together AI,一家成立于2022年的生成式AI初创平台,近日宣布在A轮融资中成功募集7.3亿元人民币。凯鹏华盈领投,英伟达、Emergence Capital、NEA、Prosperity7、Greycroft等多家知名机构跟投。成立仅一年多,该公司已经迅速发展,于今年5月15日获得2000万美元种子轮融资。
该平台在产品方面积极倡导开源理念,强调开源对于大模型的未来至关重要。早在今年5月初,Together AI发布了类ChatGPT开源模型RedPajama-INCITE,具有30亿和70亿两种参数,适用于中小企业和个人开发者。同时,公司还开源了规模庞大的30万亿训练数据集RedPajama-Data-v2,包含1000亿个文本文档,支持多种语言。
30亿参数开源地址:https://huggingface.co/togethercomputer/RedPajama-INCITE-Base-3B-v1
70亿参数开源地址:https://huggingface.co/togethercomputer/RedPajama-INCITE-Chat-7B-v0.1
在技术创新方面,Together AI的首席科学家Tri Dao博士于今年7月17日发布了FlashAttention v2,这是一款大语言模型训练和推理加速器,已被知名科技公司如OpenAI、Anthropic、Meta广泛使用,实现了4倍的训练和微调效率提升。
为了支持生成式AI初创企业,Together AI与英伟达、Crusoe Cloud、Vultr等合作,在欧美地区运营云计算中心,为企业提供推理、训练等服务。其中,文生视频平台Pika Labs是其合作伙伴之一,刚刚获得5500万美元融资。
Together AI在融资、开源产品和生态合作方面都取得了令人瞩目的成绩,为生成式AI领域的发展注入了新的活力。
突然!中国移动17款权益产品要下架:爱奇艺、腾讯视频会员在列
快科技5月26日消息,从中国移动官网获悉,中国移动今日突然发布关于全权益产品下架调整的通知”,涉及17款权益产品下架。站长网2023-05-26 10:10:190000一年一款大更新,英伟达AI芯片能打破摩尔定律?
我们现在所处的不是AI时代,而是一个生成式AI时代。是的,正如黄仁勋在台北电脑展2024展前演讲中所说,生成式AI技术正在不知不觉中影响着我们的生活与工作。而早在2014年就提出CUDA(通用计算平台)概念的英伟达,已经尝到人工智能带给它的甜头。市值从1万亿美元到2.7万亿美元,英伟达仅仅用了一年左右的时间。从纸面数据来看,英伟达毫无疑问是这场AI革命的最大赢家,并且它还在这条道路上不断前行。站长网2024-06-04 15:43:010000创业失败,又不赚钱,因为你做的太多了!
各位村民好,我是村长。很多人创业失败,一直赚不到钱。并不是因为懂得太少,而是知道的太多、做的太多!今天就要说一下,许多人在赚取人生第一桶金的时候,都会出现的问题,这几乎是每个人都会犯的错。01想的太多许多人都想拍短视频,毕竟看到了那么多人通过短视频赚到了钱。但是还没有认真拍之前,就开始胡思乱想了。我拍视频被朋友、亲戚、同学看到怎么办?他们会嘲笑我的。站长网2023-07-28 09:13:100003十八部门:探索利用AI弥补优质教育教学资源不足
据教育部网站消息,近日,教育部等十八部门联合印发《关于加强新时代中小学科学教育工作的意见》,旨在适应科技发展和产业变革需要,从课程教材、实验教学、师资培养、实践活动、条件保障等方面强化顶层设计,充分整合校内外资源,推进学校主阵地与社会大课堂有机衔接,为中小学生提供更加优质的科学教育,全面提高学生科学素质,培育具备科学家潜质、愿意献身科学研究事业的青少年群体。站长网2023-05-29 14:48:200000羊驼家族大模型集体进化!32k上下文追平GPT-4,田渊栋团队出品
开源羊驼大模型LLaMA上下文追平GPT-4,只需要一个简单改动!MetaAI这篇刚刚提交的论文表示,LLaMA上下文窗口从2k扩展到32k后只需要小于1000步的微调。与预训练相比,成本忽略不计。扩展上下文窗口,就意味着AI的“工作记忆”容量增加,具体来说可以:支持更多轮对话,减少遗忘现象,如更稳定的角色扮演输入更多资料完成更复杂的任务,如一次处理更长文档或多篇文档站长网2023-06-29 12:13:360001