Llama中文社区是中国最大开源Llama大模型技术社区,社区开放了一系列尺寸的文本大模型1B、7B、13B。基于当前最优秀的开源模型LLama2进行预训练,支持32K的上下文长度,能满足更长的多轮对话、知识问答与摘要等需求、模型应用更广泛。社区目前汇聚成员8000人,涵盖各行各业的NLP技术爱好者。github:https://github.com/LlamaFamily/Llama-Chinese 目前star:8.8K