欢迎访问:OpenLM:一个专为中等规模语言模型设计的模型训练库_精致生活网
  • 微信客服微信客服
  • 微信公众号微信公众号

OpenLM:一个专为中等规模语言模型设计的模型训练库

收藏  分享
站长之家网络整理0

OpenLM:一个专为中等规模语言模型设计的模型训练库

生活网9月28日 消息:OpenLM是一个旨在训练中等规模语言模型的PyTorch代码库,它强调了最大化GPU利用率和训练速度的设计。该库已经通过训练OpenLM-1B和OpenLM-7B两个语言模型,分别在1.6T和1.25T的文本标记上进行验证,取得了令人瞩目的成果。OpenLM-1B在零样本文本分类和多项选择任务中表现出色,超越了一些类似规模的竞争模型。OpenLM-7B则在性能上接近了其他大型模型,如LLAMA-7B和MPT-7B。

文章详细介绍了OpenLM的模型架构、训练数据来源以及训练过程。值得注意的是,OpenLM采用了GPT-NeoX令人满意的分词工具,但采用了LayerNorm而非RMSNorm,因为后者尚未添加融合的RMSNorm操作。此外,1B模型采用了AdamW优化器,而7B模型则采用了不同的学习率和全局批量大小,以实现更好的性能。

文章还提供了有关模型验证和评估的信息,包括验证损失和零样本评估结果。OpenLM-7B在不断的训练中持续提高了零样本性能,在1.25T标记上,在11个任务中有7个任务的表现优于竞争模型。这表明OpenLM具有很大的潜力,并且可以在不断扩大规模的情况下提供出色的性能。

最后,文章提出了未来工作方向,包括支持多模态模型、专家混合和数据集组合,以及扩大OpenLM以支持训练更大的语言模型。OpenLM的团队成员和致谢也在文章中列出,表明了该项目的合作性质和开源精神。

 
更多>最新的资讯
推荐图文
推荐资讯
点击排行