古风汉服美女图集

乾元BigBangTransformer

2023-12-25 21:06 0 微浪网
导语: BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。

乾元BigBangTransformer

BigBang Transformer[乾元]是基于GPT Decoder-only架构的大规模预训练模型。继2022年开源BBT-1-0.2B模型之后,我们正式开源最新系列的BBT模型:BBT-1-1B,BBT-2-12B-Text,BBT-2.5-13B-Text。预训练语料库覆盖14个高质量数据源,覆盖书籍、百科、论文、小说、新闻、政策文件、中文博客、社交媒体等多个数据源种类。BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。
模型开源后所有开发者可以:
1. 可以直接调用大模型进行对话
2. 在我们训练的基础上使用自由语料库继续训练
3. 对大模型进行微调训练以满足各种下游任务


    收录说明:
    1、本网页并非 乾元BigBangTransformer 官网网址页面,此页面内容编录于互联网,只作展示之用;2、如果有与 乾元BigBangTransformer 相关业务事宜,请访问其网站并获取联系方式;3、本站与 乾元BigBangTransformer 无任何关系,对于 乾元BigBangTransformer 网站中的信息,请用户谨慎辨识其真伪。4、本站收录 乾元BigBangTransformer 时,此站内容访问正常,如遇跳转非法网站,有可能此网站被非法入侵或者已更换新网址,导致旧网址被非法使用,5、如果你是网站站长或者负责人,不想被收录请邮件删除:i-hu#Foxmail.com (#换@)

    前往AI网址导航

    声明:本文来自投稿,不代表微浪网立场,版权归原作者所有,欢迎分享本文,转载请保留出处!

    2023-12-25

    2023-12-25

    古风汉服美女图集
    扫一扫二维码分享