WeClone本地部署小白教程
2026-01-03 13:20:34 # 分享篇

WeClone 本地部署小白教程

使用微信聊天记录训练你的 AI 数字分身


目录

  1. 什么是 WeClone
  2. 你需要准备什么
  3. 第一步:安装 Python
  4. 第二步:安装 CUDA(显卡驱动)
  5. 第三步:下载 WeClone 项目
  6. 第四步:安装项目依赖
  7. 第五步:下载 AI 大模型
  8. 第六步:导出微信聊天记录
  9. 第七步:处理数据并训练
  10. 第八步:与你的数字分身对话
  11. 常见问题解答

一、什么是 WeClone

WeClone 是一个开源项目,它可以:

  • 读取你的微信聊天记录
  • 用这些聊天记录训练一个 AI 模型
  • 让 AI 学会你的说话方式,变成你的”数字分身”

简单说:让 AI 学会像你一样说话


二、你需要准备什么

硬件要求

项目最低要求推荐配置
显卡NVIDIA GTX 1080 (8GB显存)RTX 3060/4060 及以上 (12GB+显存)
内存16GB32GB
硬盘50GB 空闲空间100GB+ SSD
系统Windows 10/11 64位Windows 11

⚠️ 重要提示:必须是 NVIDIA 显卡,AMD 显卡暂不支持!

如何查看你的显卡型号

  1. Win + X,选择 设备管理器
  2. 展开 显示适配器
  3. 查看你的显卡型号

如果显示的是 NVIDIA GeForce RTX 3060 之类的,就可以继续。


三、第一步:安装 Python

Python 是一种编程语言,WeClone 用它来运行。

3.1 下载 Python

  1. 打开浏览器,访问:https://www.python.org/downloads/
  2. 点击黄色的 Download Python 3.12.x 按钮下载

3.2 安装 Python

  1. 双击下载的安装包
  2. ⚠️ 非常重要:勾选底部的 Add Python to PATH(把 Python 添加到环境变量)
  3. 点击 Install Now(立即安装)
  4. 等待安装完成

3.3 验证安装成功

  1. Win + R,输入 cmd,按回车打开命令行
  2. 输入以下命令并按回车:
    python --version
  3. 如果显示 Python 3.12.x,说明安装成功

四、第二步:安装 CUDA(显卡驱动)

CUDA 是 NVIDIA 的显卡计算工具,训练 AI 必须用它。

4.1 更新显卡驱动

  1. 访问:https://www.nvidia.cn/drivers/
  2. 选择你的显卡型号,下载最新驱动
  3. 安装驱动(一路下一步即可)

4.2 安装 CUDA Toolkit

  1. 访问:https://developer.nvidia.com/cuda-12-4-0-download-archive
  2. 选择:
    • Operating System: Windows
    • Architecture: x86_64
    • Version: 1011
    • Installer Type: exe (local)
  3. 下载并安装(选择”精简”安装即可)

4.3 验证 CUDA 安装

  1. 打开命令行(Win + R,输入 cmd)
  2. 输入:
    nvidia-smi
  3. 如果显示显卡信息和 CUDA 版本,说明安装成功

五、第三步:下载 WeClone 项目

5.1 安装 Git(代码管理工具)

  1. 访问:https://git-scm.com/download/win
  2. 下载 64-bit 版本
  3. 安装(一路下一步)

5.2 下载 WeClone

  1. 在你想存放项目的位置(比如 D 盘),右键空白处
  2. 选择 在终端中打开Git Bash Here
  3. 输入以下命令:
git clone https://github.com/xming521/WeClone.git
  1. 等待下载完成,会生成一个 WeClone 文件夹

六、第四步:安装项目依赖

6.1 进入项目目录

打开命令行,输入(把路径换成你的实际路径):

cd D:\WeClone

6.2 创建虚拟环境

虚拟环境是一个独立的 Python 空间,避免和其他程序冲突。

python -m venv .venv

6.3 激活虚拟环境

每次打开新的命令行窗口,都要先运行这个命令:

.venv\Scripts\activate

成功后,命令行前面会出现 (.venv) 字样。

6.4 安装 PyTorch(深度学习框架)

PyTorch 是训练 AI 的核心工具。

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu124

这个命令会下载约 2GB 的文件,请耐心等待。

6.5 安装 WeClone 依赖

pip install -e .

等待所有依赖安装完成(可能需要 5-10 分钟)。


七、第五步:下载 AI 大模型

我们需要下载一个基础 AI 模型,然后用你的聊天记录来训练它。

7.1 安装 ModelScope(模型下载工具)

pip install modelscope

7.2 下载 Qwen2.5-7B 模型

在 WeClone 目录下运行:

modelscope download --model Qwen/Qwen2.5-7B-Instruct --local_dir ./models/Qwen2.5-7B-Instruct

⚠️ 注意:这个模型约 15GB,下载需要较长时间,请保持网络稳定。

7.3 显存不够?用小模型

如果你的显卡显存不足 12GB,可以用更小的模型:

# 1.5B 小模型(约 3GB,8GB 显存可用)
modelscope download --model Qwen/Qwen2.5-1.5B-Instruct --local_dir ./models/Qwen2.5-1.5B-Instruct

八、第六步:导出微信聊天记录

8.1 将手机微信聊天迁移到电脑

  1. 手机微信 → 设置 → 通用 → 聊天记录迁移与备份
  2. 选择 迁移到电脑微信
  3. 按提示操作,把聊天记录传到电脑

8.2 下载 PyWxDump

  1. 访问:pip install -U pywxdump

2.使用

wxdump -h  # 查看具体帮助
# 用法: 
# wxdump 模式 [参数]
#  mode           运行模式:
#    bias         获取微信基址偏移
#    info         获取微信信息
#    wx_path      获取微信文件夹路径
#    decrypt      解密微信数据库
#    merge        [测试功能]合并微信数据库(MSG.db or MediaMSG.db)
#    all          【已废弃】获取微信信息,解密微信数据库,查看聊天记录
#    ui           启动网页图形界面
#    api          启动API服务, 默认端口5000,无图形界面

8.3 导出聊天记录

  1. 保持电脑微信登录状态(这很重要!)
  2. 双击运行 PyWxDump.exe
  3. 浏览器会自动打开一个网页
  4. 点击 解密数据 → 选择微信版本 → 开始解密
  5. 解密成功后,点击 导出聊天记录
  6. 选择 CSV 格式 导出
  7. 记住导出的文件夹位置

8.4 复制聊天记录到项目

将导出的 csv 文件夹复制到 WeClone 项目的 dataset 目录下:

D:\WeClone\dataset\csv\

九、第七步:处理数据并训练

9.1 修改配置文件

用记事本打开 D:\WeClone\settings.jsonc,找到并修改:

{
  "common_args": {
    "model_name_or_path": "./models/Qwen2.5-7B-Instruct",
    "template": "qwen"
  }
}

如果你用的是 1.5B 小模型,改成:

"model_name_or_path": "./models/Qwen2.5-1.5B-Instruct",

9.2 预处理数据

确保虚拟环境已激活(命令行前有 (.venv)),然后运行:

weclone-cli make-dataset

成功后会显示处理了多少条聊天记录。

9.3 开始训练

weclone-cli train-sft

训练时间取决于:

  • 聊天记录数量
  • 显卡性能

一般情况:

  • 几十条记录:2-3 分钟
  • 几百条记录:10-20 分钟
  • 几千条记录:1-2 小时

训练完成后,模型保存在 ./model_output 目录。


十、第八步:与你的数字分身对话

10.1 启动对话界面

weclone-cli webchat-demo

10.2 开始聊天

  1. 等待显示 Running on local URL: http://0.0.0.0:7860
  2. 打开浏览器,访问:http://localhost:7860
  3. 开始和你的数字分身对话!

10.3 退出

在命令行按 Ctrl + C 可以停止服务。


十一、常见问题解答

Q1:显示 “CUDA out of memory”(显存不足)

解决方案

方法1:使用更小的模型(Qwen2.5-1.5B)

方法2:修改 settings.jsonc,添加量化参数:

"quantization_bit": 4

Q2:下载模型太慢

解决方案

使用镜像源:

pip install modelscope -i https://pypi.tuna.tsinghua.edu.cn/simple

或者手动从 HuggingFace 镜像下载。

Q3:训练时报错 “No module named xxx”

解决方案

确保:

  1. 虚拟环境已激活(前面有 (.venv)
  2. 重新安装依赖:pip install -e .

Q4:PyWxDump 无法解密

解决方案

  1. 确保电脑微信是打开并登录的
  2. 尝试重启微信
  3. 确保 PyWxDump 版本支持你的微信版本

Q5:聊天记录太少,效果不好

建议

  • 至少需要 50-100 条有效对话
  • 对话内容越多样,效果越好
  • 可以选择多个聊天对象的记录一起训练

Q6:想在手机上使用

可以参考:

  • AstrBot(本地聊天机器人)
  • Dify(工作流部署)

详细教程:https://blog.051088.xyz/posts/weclone-linux-tutorial/


附录:完整命令速查表

# 1. 进入项目目录
cd D:\WeClone

# 2. 激活虚拟环境
.venv\Scripts\activate

# 3. 预处理数据
weclone-cli make-dataset

# 4. 训练模型
weclone-cli train-sft

# 5. 启动对话
weclone-cli webchat-demo

有问题?

祝你成功创建自己的 AI 数字分身!🎉

上一页
2026-01-03 13:20:34 # 分享篇
下一页