超对称联合复旦大学发布并开源120亿参数语言模型BBT-2 UCloud优刻得提供算力和开源支持

近日,超对称与UCloud优刻得合作,将公司推出的3个大开源到UCloud官网,以“大型+大算力“的方式,共同推进AICG创新应用。

  

2022年5月超对称技术公司发布语言模型BigBang Transformer【乾元】的第一版BBT-1,10亿参数预训练语言模型,在中文金融语料上训练而成,发布之后即获得经济金融领域客户热烈反馈,作为大模型底座已经为多家中国和海外机构提供服务。

  

近期,超对称公司再推出BBT-2,这是一个基于120亿参数的通用大语言模型,并在BBT-2的基础上,训练出代码、金融、文生图等专业模型。

  

超对称技术公司将发布基于BBT-2的系列模型:

  

•BBT-2-12B-Text:120亿参数的中文通用语言模型

  

•BBT-2.5-13B-Text: 130亿参数的中文+英文双语基础模型

  

•BBT-2-12B-TC-001-SFT  经过指令微调的代码模型,可以进行对话

  

•BBT-2-12B-TF-001 在120亿模型上训练的金融模型,解决金融领域任务

  

•BBT-2-12B-Fig:文生图模型

  

•BBT-2-12B-Science 科学论文模型

  

通过与UCloud优刻得在算力和开源方面的合作,超对称还将3个大模型开源到官网、github和UCloud,后续用户可直接在UCloud官方平台通过GPU云主机的行业镜像或算力平台直接开箱使用这些模型:

  

超对称联合复旦大学发布并开源120亿参数语言模型BBT-2 UCloud优刻得提供算力和开源支持

    

  

●BBT-1-0.2B:2亿参数金融模型,包括三个不同预训练方式进行训练的模型, 训了600亿Tokens:

  

(1)BBT-1-0.2B-001:2亿参数,金融模型,T5Decoder+Encoder架构

  

(2)BBT-1-0.2B-002: 2亿参数,金融模型,T5+GPT

  

(3)BBT-1-0.2B-003: 2亿参数,金融模型,T5+UL2

  

●BBT-1-1B:10亿参数金融模型,T5Encoder+Decoder架构,使用金融中文语料库1000亿tokens进行预训练,包含社交媒体,财经新闻,券商研报,公司通告财报等数据

  

●BBT-2-12B-Text:120亿参数基础模型,GPT Decoder-Only 架构,未经指令微调,完成2000亿token预训练,模型性能还有较大提升空间,开发者可在通用模型上继续训练或进行下游任务微调

  

●BBT-2.5-13B-Text: 130亿参数基础模型,GPT Decoder-Only 架构,未经指令微调,完成2000亿中文+英文tokens预训

  

超对称联合复旦大学发布并开源120亿参数语言模型BBT-2 UCloud优刻得提供算力和开源支持

    

  

(UCloud官网开源模型使用流程)

  

以下是超对称技术公司基于BBT-2的系列模型介绍:

  

1、BBT-2-12B-Text 通用模型

  

BigBangTransformer[乾元]是基于GPT Decoder-only架构的大规模预训练模型。继2022年开源BBT-1-0.2B模型之后,正式开源最新系列的BBT模型:BBT-1-1B,BBT-2-12B-Text,BBT-2.5-13B-Text。预训练语料库覆盖14个高质量数据源,覆盖书籍、百科、论文、小说、新闻、政策文件、中文博客、社交媒体等多个数据源种类。BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文2000亿tokens进行预训练,暂时不开放基础模型的问答对话接口。

  

模型开源后所有开发者可以:

  

•可以直接调用大模型进行对话

  

•在我们训练的基础上使用自由语料库继续训练

  

•对大模型进行微调训练以满足各种下游任务

  

超对称联合复旦大学发布并开源120亿参数语言模型BBT-2 UCloud优刻得提供算力和开源支持

    

  

超对称联合复旦大学发布并开源120亿参数语言模型BBT-2 UCloud优刻得提供算力和开源支持

    

  

超对称联合复旦大学发布并开源120亿参数语言模型BBT-2 UCloud优刻得提供算力和开源支持

    

  

2.BBT-2-12B-Text+Code 代码模型

  

BBT-TC,是超对称技术公司近期发布的BBT-2大模型系列中的代码模型,在百亿基座模型BBT-2-12B-Text接续训练代码数据集,通过有监督指令微调(Supervised Fine-Tuning)解锁模型的推理能力。该模型在专业评测中分数超过其他中国公司开发的同类模型,仅次于GPT-3.5。

  

开发者可以在超对称公司官网测试BBT模型的代码问答(仅应用于代码生成场景,无法回答与代码无关的问题)

  

超对称联合复旦大学发布并开源120亿参数语言模型BBT-2 UCloud优刻得提供算力和开源支持

    

  

超对称联合复旦大学发布并开源120亿参数语言模型BBT-2 UCloud优刻得提供算力和开源支持

    

  

详情可见文章《超对称技术公司的代码大模型CodeBBT在专业评测中位居前列,仅次于GPT-3.5》

  

3、BBT-2-12B-TF-001 金融模型

  

超对称公司于2021年便开始针对金融投资领域的应用,着手设计和训练了一个大规模参数预训练语言模型Big Bang Transformer乾元(BBT),目前发布了Base 版本2.2亿参数和Large 版本10亿参数以及最新的BBT2,120亿参数通用模型。BBT模型的目标是为金融投资建立统一的人工智能算法框架,抖客网,基于transformer构建能融合训练金融投资涉及的不同模态数据的架构。在统一架构的基础上训练大规模参数预训练模型,随着模型参数和训练数据集继续增大,超对称团队有希望开发出在金融领域接近人类智能水平的模型。作为金融领域的基石模型,BBT模型为所有金融投资,经济分析,商业咨询等场景的深度学习下游任务提供微调服务。

  

金融投资领域有大量从业机构和人员,大厂有财力雇佣算法工程师,小团队却用不起基本的文本抽取算法。BBT模型作为金融领域的算法基础设施,让所有从业者配备同级别的武器,让全行业站在同一起跑线去竞争更优的投资策略,从而推动金融和经济市场更高效的信息和要素流动。

  

为了更好地推进中文金融自然语言处理的发展,超对称搜集和爬取了几乎所有公开可以获得的中文金融语料数据:

  

1)过去20年所有主流媒体平台发布的财经政治经济新闻

  

2)所有上市公司通告和财报

  

3)上千万份研究院和咨询机构的研究报告

  

4)百万本金融经济政治等社会科学类书籍

  

5)金融社交媒体平台用户发帖

  

超对称联合复旦大学发布并开源120亿参数语言模型BBT-2 UCloud优刻得提供算力和开源支持

    

  

经测试,BBT-TF在通告摘要任务场景超越ChatGPT:使用ChatGPT和BBT-TF对同一份通告,相同输入,生成摘要并对比效果,发现BBT-TF更满足实际运用场景。BBT-TF还可进行四舍五入的计算。在金融行业对数字高精度要求下,BBT-TF可对单位进行准确的换算。

  

超对称已开发了11种已落地应用的下游任务,面向专业金融开发者API,已获得中国及海外金融机构付费

  

超对称联合复旦大学发布并开源120亿参数语言模型BBT-2 UCloud优刻得提供算力和开源支持

    

  

4.BBT-2-12B-Image文生图模型

  

基于BBT2大语言模型,超对称和中国专业图库公司联合开发文生图AIGC模型BBT-Fig,目前该模型向纺织行业,印刷,广告,游戏等行业客户提供文生图应用,经过专业评测,BBT-Fig在纺织行上的应用效果比Stable Diffusion和文心一格,明显更优。

  

超对称联合复旦大学发布并开源120亿参数语言模型BBT-2 UCloud优刻得提供算力和开源支持

    

  

原标题:【超对称联合复旦大学发布并开源120亿参数语言模型BBT-2 UCloud优刻得提供算力和开源支持
内容摘要:近日,超对称与UCloud优刻得合作,将公司推出的3个大模型开源到UCloud官网,以“大模型+大算力“的方式,共同推进AICG创新应用。 2022年5月超对称技术公司发布大语言模型BigBang Transformer【乾 ...
文章网址:https://www.doukela.com/jc/220639.html;
免责声明:抖客网转载此文目的在于传递更多信息,不代表本网的观点和立场。文章内容仅供参考,不构成投资建议。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。
上一篇:vivo Y78+天青色陶瓷质感首次亮相,为设计注入文化底色
下一篇:让每个孩子的眼里都有星辰大海——中国一流小学信息技术教育负责人黄卫华专访