官方下载页:https://ollama.com/download|核心定位:本地运行开源大模型的极简工具,一键安装、一行命令启动,隐私安全、离线可用
支持系统:Windows 10+ / macOS 14+ / Linux|适用人群:AI新手、开发者、注重隐私的办公人群
Ollama 是目前最火的本地大模型运行工具,不用复杂环境配置、不用折腾高端显卡、不用依赖云端,装上就能在自己电脑上跑 Llama 3、DeepSeek、Qwen、Gemma 等主流开源 LLM,数据全在本地,安全又可控。
官网下载页极简清晰,核心就是“按系统给安装方式”,今天结合官网内容,把下载+安装步骤+基础使用一次性讲全,新手直接照抄,10分钟就能搞定,全程零代码、零门槛。
🔍 Ollama 官网下载页详解
官网下载页(https://ollama.com/download)设计极简,没有多余广告,核心内容只有3部分,一眼就能找到自己需要的安装方式:
顶部标题:Download Ollama(明确核心功能——下载Ollama)
核心区域:分系统展示安装方式,默认显示 macOS、Linux、Windows 三大主流系统
辅助功能:提供「终端一键安装脚本」「脚本源码查看」「手动安装说明」,满足不同用户需求
重点:官网所有安装方式均为免费,无任何付费套路,直接下载即可,不用注册登录。
🖥️ 分系统保姆级安装步骤(和官网完全同步,新手必看)
一、Windows 系统安装(最常用,原生支持,无需WSL)
系统要求:Windows 10 22H2 及以上版本(低于该版本无法安装,需先更新系统)
第一步:访问官网下载
打开浏览器,输入官网地址:https://ollama.com/download
找到「Windows」选项,点击下载「OllamaSetup.exe」安装包(大小约几十MB,下载速度很快)
第二步:运行安装包
找到下载好的「OllamaSetup.exe」,双击打开(若弹出“用户账户控制”,点击「允许」)
无需手动设置,点击「Next」(下一步),默认安装路径即可(也可自定义安装路径,记住路径方便后续查找)
点击「Install」(安装),等待1-2分钟,安装完成后点击「Finish」(完成),自动启动Ollama。
第三步:验证安装成功
按下「Win+R」,输入「cmd」,打开命令提示符(终端)
在终端中输入命令:ollama --version,按下回车
若显示版本号(如 ollama version 0.1.38),说明安装成功;若提示“不是内部或外部命令”,重启电脑后再试即可。
二、macOS 系统安装(两种方式,任选其一)
系统要求:macOS 14 Sonoma 或更高版本(老版本macOS无法安装)
方式1:图形化安装(新手首选,拖拽即用)
访问官网:https://ollama.com/download,找到「macOS」选项,点击下载「dmg安装包」
下载完成后,双击打开dmg文件,将「Ollama」拖拽到「Applications」(应用程序)文件夹中
打开「启动台」,找到Ollama并启动,启动后终端会自动弹出(无需手动操作)
验证安装:在弹出的终端中输入 ollama --version,显示版本号即安装成功。
方式2:终端一键安装(官网原版命令)
打开macOS自带的「终端」(启动台→其他→终端)
复制官网给出的一键安装命令,粘贴到终端中: curl -fsSL https://ollama.com/install.sh | sh
按下回车,终端会自动下载并安装Ollama,等待2-3分钟,出现“Installation complete”即安装成功
验证安装:输入 ollama --version,显示版本号即可。
三、Linux 系统安装(一键脚本,适配所有Linux发行版)
适配版本:Ubuntu、CentOS、Debian等所有主流Linux发行版,自动适配AMD/NVIDIA显卡加速
打开Linux终端(快捷键Ctrl+Alt+T)
复制官网原版一键安装命令,粘贴到终端并回车: curl -fsSL https://ollama.com/install.sh | sh
安装过程中无需手动操作,终端会自动下载依赖、配置环境,等待3-5分钟
验证安装:输入ollama --version,显示版本号即安装成功;若提示权限不足,在命令前加 sudo 重新执行即可。
✨ Ollama 核心亮点(一句话看懂优势)
本地运行:所有对话、数据都存储在本地电脑,不上传云端,隐私安全拉满,适合处理敏感信息
极简操作:安装即能用,无需配置复杂环境、不用懂代码,一行命令就能启动大模型
模型丰富:内置几百个开源大模型,支持 Llama 3、Qwen、DeepSeek、Gemma 等,一键下载运行
跨平台兼容:Windows、macOS、Linux 全支持,一台安装,多设备可同步使用(需手动配置)
免费开源:个人、商用均免费,无任何功能限制,还能对接各类AI工具(如ChatGPT、本地知识库)
自带API:默认开启本地端口11434,可对接AI工具、开发自己的AI应用,扩展性极强
🚀 安装完必学的3条基础命令(新手直接抄)
安装成功后,在终端输入以下命令,就能快速玩转Ollama,无需复杂操作:
验证安装版本(确认安装成功): ollama --version
运行第一个大模型(以Qwen 7B为例,新手首选,占用内存小、运行流畅): ollama run qwen:7b输入命令后,会自动下载Qwen 7B模型(约7GB,下载速度取决于网络),下载完成后直接进入对话界面,输入需求即可使用。
查看已安装的模型(方便管理已下载的模型): ollama list
✅ 总结
Ollama 官网下载页(https://ollama.com/download)是最干净、最实用的本地AI工具入口,没有花里胡哨的内容,只专注于“让用户最快在本地跑起大模型”。
不管你是AI新手,想零门槛体验本地大模型;还是开发者,想搭建本地AI环境、对接工具;又或是注重隐私的办公人群,需要离线使用AI,Ollama 都是目前的首选工具。
按照上面的分系统安装步骤,新手10分钟就能搞定,安装完成后输入简单命令,马上拥有属于你自己的本地AI,不用依赖云端、不用怕数据泄露 🚀