首页 > 扩展AI
BLOOM BLOOM

BLOOM

v1.0.0

类型:扩展AI更新时间:2025-06-07 12:36:08

简介 信息 热门 同类推荐

BLOOM,HuggingFace推出的大型语言模型(LLM)

放心AI网·扩展AI栏目来啦!小编带你挖掘那些小众但超好用的AI神器,错过就亏大啦~

BLOOM官网,HuggingFace推出的大型语言模型(LLM)

什么是BLOOM

人人都能用的多语种大模型来了!支持59种语言,参数1760亿,1000名科学家联合发起!一直以来,很多大模型都由造它们出来的大型私营科技公司垄断着。比如GPT-3等,对于普通人来说,再香也只能眼巴巴看着。不过现在,为了给你解馋,由近1000名科学家联合发起的一个志愿项目,耗时一年多炼出了一个号称和GPT-3一样强大的语言模型。它的名字叫BLOOM,参数1760亿,不光支持英文或者中文,连西班牙语、法语等59种语言都支持,是目前最大的多语言开源语言模型。是的,从现在起,从代码到数据集,BLOOM全部对外开放,所有人都可使用。

BLOOM官网:https://huggingface.co/bigscience/bloom

BLOOM参考文档: 

https://huggingface.co/docs/transformers/model_doc/bloom

动用法国超算、花费384块A100

BLOOM是一个BigScience项目,去年5月启动,由HuggingFace主导,收到了700万美元的公共捐款。共有来自全球60个国家、超过250个机构,以及超过1000名研究人员参与其中,其中包括以个人名义参加的Meta、谷歌等大厂员工。它的训练在法国超级计算机JeanZay上进行,共花费了384块A100GPU,其中每块有80GB内存,训练吞吐量约150TFLOP(该超算由低碳的核能提供动力,释放的热量还用来给学校供暖)。

BLOOM优势

然而,直到达到102%的时候,BLOOM才正式停止训练。在经过耗时117天的训练后,BLOOM在预定计划时间内顺利完成。

最终,BLOOM具备以下特点:

参数数量达到了1760亿,比GPT-3还多10亿。

模型包含70层,每层具有112个注意力头。

Token序列长度为2048。

采用了GeLU激活函数。

使用了总计3416亿条token(1.5TB文本数据)的数据集进行训练。

支持13种编程语言和46种自然语言。

值得一提的是,对于许多语言而言,如法语、西班牙语和阿拉伯语等,这是首次拥有自己的开源模型(尽管目前尚不支持日语,一些网友已经发现了这一点)。

此外,为了尽量减少生成结果中的偏见,参与项目的人员还经过了一轮人工过滤,对抓取到的数据进行了筛选。

目前,BLOOM的训练对硬件设备有一定要求:

为了保证最佳效果,最好配备8块80GB的A100显卡或16块40GB的A100显卡。

这意味着只有规模稍大的团队才能承担这样的训练需求。

当然,也可以选择在云平台上进行训练,每小时最高费用为40美元。

最后,BLOOM表示将降低使用门槛,并计划开发一个分布式系统,允许实验室之间共享模型。

BLOOM将成为一个不断发展的模型家族,而非一劳永逸的项目。

BLOOM模型已通过BigScienceWorkshop提出了各种版本。BigScience受到其他开放科学计划的启发,在这些计划中,研究人员汇集了他们的时间和资源,共同实现更高的影响。BLOOM的架构本质上类似于GPT3(用于下一个令牌预测的自回归模型),但已经在46种不同的语言和13种编程语言上进行了训练。模型的几个较小版本已在同一数据集上进行了训练。BLOOM有以下版本:

绽放-560m

绽放-1B1

布鲁姆-1B7

布鲁姆-3B

布鲁姆-7B1

绽放(176B参数)

资源

官方拥抱面孔和社区(由表示)

需要网络免费