分享
📢 社区公告
输入“/”快速插入内容
📢 社区公告
🏆
2024年05月15日:支持ollama运行Llama3-Chinese-8B-Instruct、Atom-7B-Chat,
详细使用方法
。
2024年04月19日:社区增加了llama3 8B、llama3 70B
在线体验链接
。
2024年04月14日:社区更新了四个专家角色:心理咨询师、羊驼夸夸 、律师、医生。链接:
角色role
。
2024年04月12日:更新了Atom-7B模型,提升了模型回答的丰富度和指令遵循能力。(优化方法:社区通过数据标注,增加了1万组人类偏好数据。主要优化了ppo的奖励模型后训练的模型。)
2024年04月01日:社区上线了Llama中文应用平台:
https://llama.family/store
;同时如果你有优秀的的应用需要推广可以填写下表:
https://atomecho.feishu.cn/share/base/form/shrcnFqpN71OmBoXDCT6y0TQgIc
2024年03月29日:社区推出《大模型专家培养计划》:
https://llama.family/academy
2024年03月28日:社区免费公开课-7《手把手教你部署大模型并加速推理》:
https://mp.weixin.qq.com/s/CsturoU1pOX11CqVnZgu2A
2024年03月26日:社区参加2024全球开发者先锋大会:
https://mp.weixin.qq.com/s/pCwezyTA3p3ictD0Asstdg
2024年03月20日:社区免费公开课-6《手把手教你使用Atom-7B模型》
https://mp.weixin.qq.com/s/6W1-p7CX_52pz7osIo1bCg
2024年03月18日:社区开放了免费API供大家体验,包含(1B,7B,13B 3种模型):
获取地址:
https://llama.family/docs/chat-completion-v1
2024年03月17日:Llama中文社区云南站成立+线下活动:
https://mp.weixin.qq.com/s/7Ij4NTBXi3P9vG1rwAuQqA
2024年03月15日:社区免费公开课-5《手把手教你使用Gradio搭建问答平台》:
https://mp.weixin.qq.com/s/KPTgmZHuFYRxUl6yjqM0pA
2024年03月13日:社区免费公开课-4《使用FastAPI框架搭建接口,与Atom-7B模型进行交互》:
https://mp.weixin.qq.com/s/PjHwLFtLXl7oSRFyZj_2MQ
2024年03月11日:社区免费公开课-3《动手部署Atom-7B大模型》:
https://mp.weixin.qq.com/s/WOzujGFtFrFlQ3XMhrgkGQ
2024年03月08日:开放了免费API供大家使用,包含(Atom-1B,7B,13B 3种中文大模型)
API使用链接
2024年03月07日:社区免费公开课-2《配置和准备大模型开发环境》:
https://mp.weixin.qq.com/s/Q14UuKDnjbVT1ncZxvSinQ
2024年03月06日:社区免费公开课-1《大模型解析与下载方法》:
https://mp.weixin.qq.com/s/5W_bH9sZVwOf-758e-8TYQ
2024年03月04日:Llama中文社区上海站线下活动 AI数据模型与产业创新论坛:
https://mp.weixin.qq.com/s/-Ify7cPYBajTbd608vgLig
2024年02月27日:Llama中文社区上海站成立:
https://mp.weixin.qq.com/s/_pZ0Wag-npSFJhg14dF_5w
2024年01月29日:Llama中文社区&电子工业出版社新书发布《Llama大模型实践指南》:
https://mp.weixin.qq.com/s/9UrAk0ZnmdVIMxBXfJvFfw
2024年01月23日:Llama中文社区上线算力平台,用户可以使用云算力进行模型微调训练和推理:
https://llama.family/compute/deduction
2024年01月17日:Llama中文社区Atom-7B模型更新:训练数据量提升至2.7T tokens,强化学习优化,上下文长度从4K提升至32K:
https://mp.weixin.qq.com/s/dUpah18It6fyB2Jfm7jY9g
2024年12月21日:Llama中文社区推出Atom-1B小模型:
https://mp.weixin.qq.com/s/WD15khUptwkUG3EKC6YEWg
2023年10月8日:新增清华大学JittorLLMs的推理加速功能
JittorLLMs
!
2023年9月12日:更新预训练版本
Atom-7B
和对话版本
Atom-7B-Chat
模型参数,最新的中文预训练数据量为100B token,训练进程见
llama.family
!
2023年9月2日:新增模型
预训练代码
和
全量参数微调代码
!
2023年8月28日:发布基于Llama2进行中文预训练的开源大模型
Atom-7B
,并将持续更新,详情参考
社区公众号文章
!
2023年8月26日:提供
FastAPI
接口搭建脚本!
2023年8月26日:提供将Meta原始模型参数转换为兼容Hugging Face的
格式转化脚本
!
2023年8月26日:新增
Code Llama
模型!
2023年8月15日:新增
PEFT加载微调模型参数
的代码示例!
2023年8月14日:
大模型数据共享训练平台
上线,没有算力也能参与大模型训练,社区每位成员贡献的数据都将决定模型能力的未来走向!
2023年8月3日:新增FasterTransformer和vLLM的GPU
推理加速
支持!
2023年7月31日:【重磅】国内首个真正意义上的Llama2中文大模型发布!详情参见
社区公众号文章
2023年7月28日:通过
Docker部署
问答接口!
2023年7月27日:新增
LangChain
支持!
2023年7月26日:新增Llama2-13B中文微调参数的
4bit量化压缩版本
!
2023年7月25日:社区微信公众号“Llama中文社区”欢迎大家关注,获取最新分享和动态!
2023年7月24日:
FlagAlpha
新增Llama2-13B中文微调参数!
2023年7月24日:
llama.family
新增Llama2-70B在线体验!
2023年7月23日:Llama2中文微调参数发布至Hugging Face仓库
FlagAlpha
!
2023年7月22日:Llama2在线体验链接
llama.family
上线,同时包含Meta原版和中文微调版本!
2023年7月21日:评测了Meta原始版Llama2 Chat模型的
中文问答能力
!
2023年7月21日:新增Llama2模型的Hugging Face版本国内下载地址!
2023年7月20日:新增
飞书知识库文档
,欢迎大家一起共建!
2023年7月20日:国内Llama2最新下载地址上线!
2023年7月19日:正式启动Llama2模型的中文预训练,关注我们获取实时动态!
2023年7月19日:Llama2国内下载地址正在启动,敬请期待!