AI平台AI大模型AI开放平台AI生活助手

乾元BigBangTransformer

超对称开源了基于GPT Decoder-only架构的大规模预训练模型,包括BBT-1-1B、BBT-2-12B-Text和BBT-2.5-13B-Text,适用于回答问题、金融领域的问答和文本生成等任务。

标签:

什么是"乾元BigBangTransformer"?

超对称(北京)科技有限公司开源了一系列基于GPT Decoder-only架构的大规模预训练模型,包括BBT-1-1B、BBT-2-12B-Text和BBT-2.5-13B-Text。这些模型覆盖了14个高质量数据源,包括书籍、百科、论文、小说、新闻、政策文件、中文博客和社交媒体等多个数据源种类。

"乾元BigBangTransformer"有哪些功能?

1. 可以直接调用大模型进行对话;
2. 可以在基础模型上使用自由语料库继续训练;
3. 可以对大模型进行微调训练以满足各种下游任务。

应用场景:

1. 回答百科类和日常生活问题;
2. 金融领域的问答和文本生成;
3. 其他自然语言处理任务。

"乾元BigBangTransformer"如何使用?

开发者可以直接调用大模型进行对话,也可以在基础模型上使用自由语料库继续训练,还可以对大模型进行微调训练以满足各种下游任务。

数据统计

相关导航

暂无评论

暂无评论...