项目链接:https://github.com/facebookresearch/sam2
论文链接:https://arxiv.org/abs/2402.05755 代码链接:https://github.com/facebookresearch/spiritlm 模型权重:https://ai.meta.com/resources/models-and-libraries/spirit-lm-downloads/
论文链接:https://arxiv.org/abs/2404.16710 代码链接:https://github.com/facebookresearch/LayerSkip 权重链接:https://huggingface.co/collections/facebook/layerskip-666b25c50c8ae90e1965727a
项目链接:https://github.com/facebookresearch/lingua MEXMA MEXMA 是一种新型预训练跨语言句子编码器。在训练过程中,通过结合 token 层级和句子层级的目标,MEXMA 的表现优于以往的方法。 研究团队发现,之前用于训练跨语言句子编码器的方法仅通过句子表征来更新编码器,而通过引入 token 层级的目标,研究者可以更好地更新编码器,从而改进性能。 MEXMA 覆盖了 80 种语言,并且在句子分类等下游任务中表现出色。 论文链接:https://arxiv.org/abs/2409.12737 模型链接:https://huggingface.co/facebook/MEXMA
代码链接:https://github.com/facebookresearch/mexma
Meta 在 8 月发表了一篇题为《Self-Taught Evaluators》的论文,提出了自学习评估器,用于生成合成偏好数据来训练奖励模型,无需依赖人工标注。
论文链接:https://arxiv.org/abs/2408.02666 代码链接:https://github.com/facebookresearch/RAM/tree/main/projects/self_taught_evaluator 访问合成数据:https://huggingface.co/datasets/facebook/Self-taught-evaluator-DPO-data 模型链接:https://huggingface.co/facebook/Self-taught-evaluator-llama3.1-70B