用户2749用户2749模型 | 介绍 | 上下文token数 | 代码链接 | 模型权重下载链接 |
GLM-4-9B | 第四代 GLM 基座模型。GLM-4-9B 是智谱 AI 推出的最新一代预训练模型 GLM-4 系列中的开源版本。 在语义、数学、推理、代码和知识等多方面的数据集测评中, GLM-4-9B 及其人类偏好对齐的版本 GLM-4-9B-Chat 均表现出超越 Llama-3-8B 的卓越性能。 | 8K | | |
GLM-4-9B-Chat | 第四代 GLM 对话模型。GLM-4-9B-Chat 表现出超越 Llama-3-8B 的卓越性能。除了能进行多轮对话,GLM-4-9B-Chat 还具备网页浏览、代码执行、自定义工具调用(Function Call)和长文本推理(支持最大 128K 上下文)等高级功能。本代模型增加了多语言支持,支持包括日语,韩语,德语在内的 26 种语言。 | 128K | | |
GLM-4-9B-1M | 第四代 GLM 长上下文对话模型。支持 1M 上下文长度(约 200 万中文字符)的推理。 | 1M | | |
GLM-4V-9B | 第四代 GLM 多模态模型。该模型基于 GLM-4-9B,具备 1120 * 1120 高分辨率下的中英双语多轮对话能力,在中英文综合能力、感知推理、文字识别、图表理解等多方面多模态评测中,GLM-4V-9B 表现出超越 GPT-4-turbo-2024-04-09、Gemini 1.0 Pro、Qwen-VL-Max 和 Claude 3 Opus 的卓越性能。 | 8K | | |
LongWriter | 具备 10+ 字/词输出能力的模型,包含LongWriter-9B(GLM-4-9B微调)和 LongWriter-8B(Llama3-8B 微调) | 128k | LongWriter | |
ChatGLM3-6B | 第三代 ChatGLM 对话模型。ChatGLM3-6B 采用了全新设计的 Prompt 格式,除正常的多轮对话外。同时原生支持工具调用(Function Call)、代码执行(Code Interpreter)和 Agent 任务等复杂场景。 | 8K | | |
ChatGLM3-6B-base | 第三代ChatGLM基座模型。ChatGLM3-6B-Base 采用了更多样的训练数据、更充分的训练步数和更合理的训练策略。在语义、数学、推理、代码、知识等不同角度的数据集上测评显示,ChatGLM3-6B-Base 具有在 10B 以下的基础模型中最强的性能。 | 8K | | |
ChatGLM3-6B-32k | 第三代ChatGLM长上下文对话模型。在ChatGLM3-6B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。 | 32K | | |
ChatGLM2-6B | 第二代 ChatGLM 对话模型。相比一代模型,具有更强的性能,且其基座模型的上下文长度从 2k 扩展到 32k,并在对话阶段使用 8K 的上下文长度训练。推理速度相比初代提升42%。 | 8K | ||
ChatGLM2-6B-int4 | ChatGLM2-6B的 int4 量化版本,具备最小 5.1GB 显存即可运行。INT4 量化下,6G 显存支持的对话长度由 1K 提升到了 8K。 | 8K | | |
ChatGLM2-6B-32k | 第二代 ChatGLM 长上下文对话模型。ChatGLM2-6B-32K在ChatGLM2-6B 的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。具体地,我们基于位置插值(Positional Interpolation)的方法对位置编码进行了更新,并在对话阶段使用 32K 的上下文长度训练。在实际的使用中,如果您面临的上下文长度基本在 8K 以内,我们推荐使用ChatGLM2-6B;如果您需要处理超过 8K 的上下文长度,我们推荐使用ChatGLM2-6B-32K。 | 32K | | |
ChatGLM2-6B-32k-int4 | ChatGLM2-6B-32K的int4版本 | 32K | | |
ChatGLM-6B | 第一代 ChatGLM 对话模型。支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署。 | 2K | ||
ChatGLM-6B-int4 | 2K | | ||
ChatGLM-6B-int8 | ChatGLM-6B的Int8版本 | 2K | | |
AgentLM-7B | 1. 我们提出了一种 AgentTuning 的方法; 2. 我们开源了包含 1866 个高质量交互、6 个多样化的真实场景任务的 Agent 数据集 AgentInstruct 3. 基于上述方法和数据集,我们利用 Llama2 微调了具备超强 Agent 能力的 AgentLM-7B、AgentLM-13B、AgentLM-70B。 | 4K | ||
AgentLM-13B | | 4K | | |
AgentLM-70B | | 8K | |