tutorials

智谱AI GLM-4 完全指南:清华系开源大模型

LearnClub AI
February 26, 2026
4 min read
智谱AI GLM-4 完全指南:清华系开源大模型

智谱AI GLM-4 完全指南:清华系开源大模型

智谱AI是由清华大学计算机系知识工程实验室(KEG)技术成果转化而来,其GLM系列模型是国内最具影响力的开源大模型之一。

一、智谱AI简介

背景介绍

智谱AI成立于2019年,核心团队来自清华大学:

  • 学术背景:清华KEG实验室10年技术积累
  • 开源贡献:GLM系列模型完全开源
  • 商业产品:ChatGLM、CodeGeeX等应用
  • 企业定位:专注中文大模型

产品矩阵

产品定位特点
ChatGLM对话助手开源可商用
GLM-4大语言模型性能最强
CodeGeeX编程助手免费开源
AutoGLM智能体自动任务执行
CogView文生图中文优化

二、ChatGLM使用

网页版

访问地址https://chatglm.cn

使用方式

  1. 手机号注册登录
  2. 免费使用基础功能
  3. 升级Pro解锁高级功能

开源模型本地部署

硬件要求

  • ChatGLM3-6B:6GB显存
  • ChatGLM3-12B:12GB显存
  • GLM-4-9B:10GB显存

部署步骤

# 1. 克隆仓库
git clone https://github.com/THUDM/ChatGLM3.git
cd ChatGLM3

# 2. 安装依赖
pip install -r requirements.txt

# 3. 下载模型(使用ModelScope加速)
from modelscope import snapshot_download
model_dir = snapshot_download("ZhipuAI/chatglm3-6b")

# 4. 启动Web界面
python web_demo.py

使用Transformers加载

from transformers import AutoTokenizer, AutoModel

tokenizer = AutoTokenizer.from_pretrained(
    "THUDM/chatglm3-6b", 
    trust_remote_code=True
)
model = AutoModel.from_pretrained(
    "THUDM/chatglm3-6b",
    trust_remote_code=True,
    device='cuda'
)

# 推理
response, history = model.chat(
    tokenizer,
    "你好,ChatGLM!",
    history=[]
)
print(response)

三、CodeGeeX编程助手

功能介绍

CodeGeeX是免费的AI编程助手:

  • 代码补全:单行/多行代码生成
  • 代码注释:自动生成注释
  • 代码翻译:跨语言代码转换
  • 代码解释:选中代码即时解释

IDE插件安装

VS Code

  1. 打开扩展商店
  2. 搜索 “CodeGeeX”
  3. 点击安装
  4. 登录账号即可使用

JetBrains系列

  1. File → Settings → Plugins
  2. 搜索 “CodeGeeX”
  3. 安装并重启IDE

使用技巧

自然语言生成代码

# 输入注释:
# 实现一个快速排序算法,要求原地排序

# CodeGeeX自动生成:
def quick_sort(arr, left=0, right=None):
    if right is None:
        right = len(arr) - 1
    if left < right:
        pivot_index = partition(arr, left, right)
        quick_sort(arr, left, pivot_index - 1)
        quick_sort(arr, pivot_index + 1, right)
    return arr

def partition(arr, left, right):
    pivot = arr[right]
    i = left - 1
    for j in range(left, right):
        if arr[j] <= pivot:
            i += 1
            arr[i], arr[j] = arr[j], arr[i]
    arr[i + 1], arr[right] = arr[right], arr[i + 1]
    return i + 1

代码翻译示例

# Python → C++
# 输入Python代码,CodeGeeX生成等效C++代码

# Python:
def fibonacci(n):
    if n <= 1:
        return n
    return fibonacci(n-1) + fibonacci(n-2)

# CodeGeeX生成C++:
int fibonacci(int n) {
    if (n <= 1) return n;
    return fibonacci(n-1) + fibonacci(n-2);
}

四、GLM-4 API接入

获取API Key

  1. 访问 智谱AI开放平台
  2. 注册开发者账号
  3. 创建应用获取API Key

Python SDK

from zhipuai import ZhipuAI

client = ZhipuAI(api_key="your-api-key")

# 对话生成
response = client.chat.completions.create(
    model="glm-4",
    messages=[
        {"role": "system", "content": "你是一个 helpful assistant."},
        {"role": "user", "content": "你好!"}
    ],
    temperature=0.7,
    max_tokens=2000
)

print(response.choices[0].message.content)

高级功能

Function Calling

def get_weather(location):
    """获取天气信息"""
    # 实现天气查询
    return f"{location}今天晴天,25°C"

# 定义工具
tools = [
    {
        "type": "function",
        "function": {
            "name": "get_weather",
            "description": "获取指定城市的天气",
            "parameters": {
                "type": "object",
                "properties": {
                    "location": {
                        "type": "string",
                        "description": "城市名称"
                    }
                },
                "required": ["location"]
            }
        }
    }
]

# GLM-4会自动调用函数
response = client.chat.completions.create(
    model="glm-4",
    messages=[{"role": "user", "content": "北京今天天气怎么样?"}],
    tools=tools
)

图像理解

# 上传图片进行分析
with open("image.jpg", "rb") as img_file:
    response = client.chat.completions.create(
        model="glm-4v",
        messages=[{
            "role": "user",
            "content": [
                {"type": "image", "image": img_file},
                {"type": "text", "text": "描述这张图片"}
            ]
        }]
    )

五、AutoGLM智能体

什么是AutoGLM?

AutoGLM是可以自主执行任务的AI智能体:

  • 自主规划:分解复杂任务
  • 工具使用:调用外部工具
  • 网页操作:控制浏览器
  • 代码执行:编写运行代码

使用示例

任务:帮我订一张明天北京到上海的高铁票

AutoGLM执行流程

  1. 打开12306网站
  2. 输入出发地和目的地
  3. 选择明天日期
  4. 查询车次
  5. 选择合适车次
  6. 填写乘客信息
  7. 提交订单

安装使用

# 安装AutoGLM
pip install autoglm

# 启动
glm-cli

六、企业级部署

私有化部署方案

适用场景

  • 数据安全要求高的企业
  • 需要定制化的行业应用
  • 大规模并发访问

部署架构

负载均衡器 → GLM服务集群 → 模型推理节点

            向量数据库

            知识库系统

硬件配置建议

  • 推理节点:8x A100 80GB
  • 服务节点:32核128GB x 4
  • 向量数据库:Milvus集群

微调训练

数据准备

[
  {
    "instruction": "回答用户问题",
    "input": "什么是机器学习?",
    "output": "机器学习是..."
  }
]

LoRA微调

from peft import LoraConfig, get_peft_model

lora_config = LoraConfig(
    r=16,
    lora_alpha=32,
    target_modules=["query_key_value"],
    lora_dropout=0.05,
    bias="none",
    task_type="CAUSAL_LM"
)

model = get_peft_model(model, lora_config)

七、优势对比

开源vs闭源

特性GLM-4(开源)GPT-4(闭源)
透明度⭐⭐⭐⭐⭐⭐⭐
可定制⭐⭐⭐⭐⭐⭐⭐
数据隐私⭐⭐⭐⭐⭐⭐⭐⭐
易用性⭐⭐⭐⭐⭐⭐⭐⭐⭐
性能⭐⭐⭐⭐⭐⭐⭐⭐⭐

选择建议

选择GLM-4如果你

  • 需要完全的数据隐私控制
  • 希望定制化模型能力
  • 预算有限但需要AI能力
  • 支持国产开源生态

八、最佳实践

1. 提示工程

中文提示词优化

角色:你是一位经验丰富的Python工程师
任务:帮我优化这段代码
要求:
1. 提高运行效率
2. 添加类型注解
3. 完善错误处理
4. 添加详细注释

代码:
[粘贴代码]

2. 成本控制

  • 使用量化模型减少显存
  • 合理设置max_tokens
  • 使用缓存避免重复计算
  • 批量处理提高效率

3. 质量保证

  • 建立测试集评估效果
  • 人工审核关键输出
  • 持续收集反馈优化
  • A/B测试不同版本

总结

智谱AI GLM-4的核心价值:

  1. 开源可商用:Apache 2.0协议,自由使用
  2. 中文优化:深度适配中文场景
  3. 学术背景:清华技术积累
  4. 完整生态:对话、编程、多模态全覆盖

对于希望自建AI能力的企业和开发者,GLM-4是最值得考虑的开源方案之一。

开源地址


相关文章

Share this article