发布时间:
欢迎使用 Ollama for Windows。
不再需要 WSL 啦!
Ollama 现在作为一个原生 Windows 应用程序运行,包括 NVIDIA 和 AMD Radeon GPU 支持。
安装完成 Ollama for Windows 后,Ollama 将在后台运行,并且 ollama
命令行将可用于 cmd
、powershell
或您的喜爱的终端应用程序。如常,Ollama api 将在 http://localhost:11434
上提供服务。
系统要求 #
- Windows 10 22H2 或更新版本,Home 或 Pro 版本
- 如果您有 NVIDIA 卡,请使用 NVIDIA 452.39 或更新的驱动程序
- 如果您有 Radeon 卡,请使用 AMD Radeon 驱动程序(https://www.amd.com/en/support)
Ollama 使用 Unicode 字符作为进度指示器,可能在一些较旧的 Windows 10 终端字体中渲染为未知方块。如果您看到这种情况,请尝试更改您的终端字体设置。
文件系统要求 #
Ollama 安装不需要管理员权限, 默认安装在 C:\Users\Administrator\AppData\Local\Programs
目录中。安装 Ollama 需要至少 4GB 的空间。完成安装后,您还需要额外的空间来存储 Large Language 模型,这些模型可以达到几十到数百 GB 的大小。如果您的家目录没有足够的空间,请尝试更改安装位置和模型存储位置。
更改安装位置 #
要将 Ollama 应用程序安装在不同的位置(而不是当前用户目录),请在安装时使用以下标记启动安装器:
OllamaSetup.exe /DIR="d:\some\location"
更改模型位置 #
要更改 Ollama 存储下载的模型的位置(而不是当前用户目录),请在您的用户账户中设置环境变量 OLLAMA_MODELS
。
- 启动 Windows 11 的 设置 或 Windows 10 的 控制面板 应用程序,查找 环境变量。
- 点击 编辑环境变量为您的帐户。
- 编辑或创建一个新的变量
OLLAMA_MODELS
以指定存储模型的位置。 - 点击确定/应用以保存更改。
如果 Ollama 已经在运行,退出托盘应用程序并从启动菜单重新启动它,或者在保存环境变量后新打开终端。
API 访问 #
以下是一个快速示例,演示了如何从 powershell
中访问 API:
(Invoke-WebRequest -method POST -Body '{"model":"llama3.2", "prompt":"Why is the sky blue?", "stream": false}' -uri http://localhost:11434/api/generate ).Content | ConvertFrom-json
故障排除 #
Ollama 在 Windows 上存储文件在几个不同的位置。您可以通过以下步骤查看它们:
- 按
<cmd>+R
键并输入:explorer %LOCALAPPDATA%\Ollama
:包含日志和下载的更新- app.log:最近的 GUI 应用程序日志
- server.log:最近的服务器日志
- upgrade.log:升级日志输出
explorer %LOCALAPPDATA%\Programs\Ollama
:包含二进制文件(安装器将其添加到用户 PATH 中)explorer %HOMEPATH%\.ollama
:包含模型和配置explorer %TEMP%
:包含临时执行文件,在一个或多个ollama*
目录中
卸载 #
Ollama Windows 安装程序注册了一个卸载器应用程序。您可以在 Windows 设置中的 添加或删除程序 中卸载 Ollama。
独立 CLI #
在 Windows 上安装 Ollama 的最简单方法是使用 OllamaSetup.exe
安装程序。它会在您的帐户中安装,而不需要管理员权限。我们会定期更新 Ollama 以支持最新的模型,这个安装程序将帮助您保持更新。
如果您想安装或集成 Ollama 为服务,一个独立的 ollama-windows-amd64.zip
zip 文件可用,它包含只有 Ollama CLI 和 Nvidia 和 AMD 的 GPU 库依赖项。这使得可以在现有应用程序中嵌入 Ollama,或使用工具如 NSSM 以 ollama serve
的方式以系统服务的形式运行它。