最新的系列模型将上下文长度扩展到了 128K、增加了对八种语言的支持,并包括顶级开源模型 Llama 3.1 405B; Llama 3.1 405B 独树一帜,Meta 官方称其可与最好的闭源模型相媲美; 此次发布还提供了更多与模型配合使用的组件(包括参考系统)来将 Llama 打造为一个系统; 用户通过 WhatsApp 和 meta.ai 就可以体验 Llama 3.1 405B 了。
https://huggingface.co/meta-llama https://llama.meta.com/
选择了仅进行少量调整的标准解码器 Transformer 模型架构,而不是混合专家模型,以最大限度地提高训练稳定性。 采用迭代后训练程序,每轮都使用监督微调和直接偏好优化。这使 Meta 能够为每轮创建最高质量的合成数据,并提高每项功能的性能。
实时和批量推理 监督式微调 测试和评估模型在特定应用中的性能 持续预训练 检索增强生成(RAG) 函数调用 合成数据生成