EN

Ollama 设置

Ollama 是一款优秀的本地大模型运行工具。通过 WordOllama,您可以直接在 Word/WPS 中调用本地运行的 Ollama 模型。

前提条件

  • 已安装 Ollama
  • 已下载至少一个模型(如 qwen2.5:7b
  • Ollama 正在后台运行

配置步骤

  1. 打开 WordOllama 设置界面
  2. 在"AI 提供商"中选择 Ollama
  3. 在"API 地址"中输入 http://localhost:11434(默认地址)
  4. 保存配置后,在 WordOllama 面板中选择您下载的模型

常用模型推荐

  • qwen2.5:7b:通义千问 7B,中文能力强,综合表现优秀
  • qwen2.5:3b:轻量级版本,适合低配置电脑
  • llama3.2:3b:Meta 的轻量模型,英文表现好
  • deepseek-r1:8b:DeepSeek 模型,推理能力强

验证连接

在设置界面点击"测试连接"按钮,如果配置正确,会显示连接成功的提示。

常见问题

Ollama 无法连接?

  • 请确认 Ollama 正在运行:打开终端执行 ollama list 查看
  • 默认地址为 http://localhost:11434,请检查是否一致

模型加载缓慢?

首次加载模型时需要将模型加载到内存中,请耐心等待。后续使用会更快。