Ollama

Ollama,作为一个简明易用的本地大模型运行框架,为用户提供了一个在自己电脑上轻松玩转大模型的平台。

Ollama使用

Ollama官网 Ollama的安装十分简单,支持Mac、Linux、Windows 直接安装,十分方便,当然你也可以使用docker安装,更多的安装方式,大家可以参考 OllamaGitHub

安装完成后您服务器上将可以执行下面命令

ollama run llama2 表示拉去并运行llama2模型,进入llama2模型的对话模式,等待下载完成...,Mac系统的模型默认下载路径: ~/.ollama/models

下面我来体验下模式的对话吧,当然您也可以体验下其他的模型呢

整体对中文的理解能力还是不错的,到这里,如果您运行成功的话,已经体验到触手可及的本地大模型了。

使用API交互

╰─○ lsof -i:11434
COMMAND  PID  USER   FD   TYPE             DEVICE SIZE/OFF NODE NAME
ollama  6849 qichf    3u  IPv4 0x7b2b8cc55fdaa377      0t0  TCP localhost:11434 (LISTEN)

通过文档我们确认了下可以通过http的方式访问,端口11434,我们可以通过curl看下结果

可以看到是按字返回的,通过返回的字段 done 来判断是否结束,结束的时候会返回整体的结果,这就给了我们很大的想象空间,加上壳就是一个本地的GPT啊

{
	"model": "llama2",
	"created_at": "2024-03-07T08:37:26.095987Z",
	"response": "",
	"done": true,
	"context": [这里是内容数组....],
	"total_duration": 30704714167,
	"load_duration": 7079667,
	"prompt_eval_duration": 2530080000,
	"eval_count": 372,
	"eval_duration": 28165916000
}

今天就介绍到这里,后续找时间分享下好用的Web页面,本地搭建一个GPT!Ollama让更多人以最简单快速的方式在本地把大模型跑起来。

如何退出关闭ollama?找到应用程序然后退出,在查看11434,已经发现没有服务了。但是如有你通过kill进程的话,ollama会自动拉起的。