Featured - 精选
精选模型¶
-
Meta 开发并发布了 Meta Llama 3 家族的大型语言模型(LLMs),这是一系列预训练和指令调整的生成性文本模型,包括 8B 和 70B 两种规模。Llama 3 指令调整模型针对对话用例进行了优化,在常见的行业基准测试中表现优异,胜过许多可用的开源聊天模型。此外,在开发这些模型时,我们非常注意优化其帮助性和安全性。
-
来自微软人工智能的最先进的大型语言模型,在复杂对话、多语种、推理和代理用例上的性能得到了改进。
-
Mistral-7B-v0.1 大型语言模型(LLM)是一个具有 70 亿个参数的预训练生成文本模型。在测试的所有基准测试中,Mistral-7B-v0.1 均优于 Llama 2 13B。
-
Gemma 是 Google 推出的一系列轻量级、最新技术的开放模型,这些模型基于创建 Gemini 模型的同一研究和技术。它们是文本到文本的、仅解码器的大型语言模型,提供英语版本,具有开放的权重、预训练的变体和指令调优的变体。Gemma 模型非常适合执行各种文本生成任务,包括问答、摘要和推理。它们相对较小的体积使其能够部署在资源有限的环境中,如笔记本电脑、台式电脑或您自己的云基础设施,民主化地访问最先进的 AI 模型,并帮助促进每个人的创新。
-
模型介绍完善中......
-
Mixtral-8x22B大型语言模型(LLM)是一个预训练的生成性稀疏专家混合模型。
-
MistralLite 是一个对 Mistral-7B-v0.1 语言模型进行了微调的版本,增强了处理长上下文(最高32K令牌)的能力。通过在微调过程中使用适配的旋转嵌入和滑动窗口,MistralLite 在多个长上下文检索和回答任务上的表现有了显著提升,同时保持了原始模型的简单结构。MistralLite 适用于长上下文线和主题检索、摘要、问答等应用。
-
该模型是在Intel Gaudi 2处理器上对7B参数的大型语言模型(LLM)进行了微调,使用的是Intel/neural-chat-7b-v3-1和meta-math/MetaMathQA数据集。该模型采用直接性能优化(DPO)方法进行对齐,使用的数据集为Intel/orca_dpo_pairs。Intel/neural-chat-7b-v3-1最初是从mistralai/Mistral-7B-v0.1微调而来。
-
Dolphin-2.9具备多种指令、对话和编码技能。它还具有初步的代理能力并支持函数调用。
Dolphin是未经审查的。我已筛选数据集以移除对齐和偏见,这使得模型更加合规。建议您在将模型作为服务公开之前实施自己的对齐层。它将高度遵从任何请求,即使是不道德的请求。请阅读我的博客文章了解有关未经审查模型的更多信息。https://erichartford.com/uncensored-models 使用此模型创建的任何内容,您都将负责。请负责任地享受。
-
由腾讯 ARC 实验室开发的 LLaMA-Pro 是一个具有 83 亿参数的模型。它是 LLaMA2-7B 的扩展,额外在包含 800 亿令牌的代码和数学语料上进行了训练。
-
MegaDolphin-2.2-120b 是 Dolphin-2.2-70b 的一个变种。它受到 Venus-120b 的启发,并采用了相同的交错模型方法。2.2 版本的新功能是对话和同理心。通过融入精选的 Samantha 和 WizardLM DNA,Dolphin 现在可以为你提供个人建议,关心你的感受,并进行了长时间多轮对话的额外训练。
-
Falcon LLM 是 TII 的旗舰系列大型语言模型,从零开始使用自定义数据管道和分布式训练库构建。即将发布论文
-
模型介绍完善中......
-
模型介绍完善中......
-
模型介绍完善中......
-
模型介绍完善中......
-
模型介绍完善中......
-
模型介绍完善中......
-
模型介绍完善中......
-
模型介绍完善中......
-
模型介绍完善中......
-
模型介绍完善中......
-
模型介绍完善中......
-
模型介绍完善中......
-
模型介绍完善中......
-
模型介绍完善中......
-
模型介绍完善中......
-
模型介绍完善中......
-
模型介绍完善中......
-
模型介绍完善中......
-
模型介绍完善中......
-
模型介绍完善中......
-
模型介绍完善中......
-
模型介绍完善中......
-
模型介绍完善中......