
2020年11月22日小于 1 分钟
一位不秃头开发者!
在进入对比之前,先简单回顾一下 Ollama 的定位和特性:
本地推理:
CPU 即可运行:适合 Mac 或 Linux 环境
若无 GPU 的情况下,也能让开源模型(如 LLaMA、GPT-Neo、Mistral 等)跑起来
轻量易用:
安装方式简洁,一键下载二进制文件或通过 Homebrew、pkg 安装
只需一个命令行工具就能加载模型并进行对话、推理
量化优化:
发展活跃:
由于Ollama的exe安装软件双击安装的时候默认是在C盘,以及后续的模型数据下载也在C盘,导致会占用C盘空间,所以这里单独写了一个自定义安装Ollama安装目录的教程。
Ollama官网地址:https://ollama.com/
首先在你想安装的路径下创建好一个新文件夹,并把Ollama的安装包放在里面。比如我的是:F:\ollama
F:\ollama ollama文件目录
F:\ollama\ollama ollama安装目录
F:\ollama\modules ollama模型目录