哎,我之前白白受了多少多少苦,才突然发现有这么简单的方法…………

先在Vultr上开一台机器,点击跳转官网链接

我开的是这个,玩8b绰绰有余,玩14b稍微有些慢。系统我选的是Ubuntu 24.04 LTS x64,这个反正以后都可以换。

然后ssh登录,一键安装ollama+open-webui,原链接:https://github.com/open-webui/open-webui

输入以下命令一键安装

docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

安装完成后,在浏览器登录你的ip:3000就可以看到webui界面了,不过这个时候还没有模型。

我没看到快速部署模型的方法,所以进docker装吧,也就是两行命令的事情。

登录ssh。用docker ps命令查看实例,用docker exec -it <CONTAINER ID> bash进入实例,用ollama run deepseek-r1:8b命令拉取并运行deepseek-r1:8b

root@vultr:~# docker ps
CONTAINER ID   IMAGE                                  COMMAND           CREATED          STATUS                    PORTS                                     NAMES
81295ff3d1df   ghcr.io/open-webui/open-webui:ollama   "bash start.sh"   17 minutes ago   Up 17 minutes (healthy)   0.0.0.0:80->8080/tcp, [::]:80->8080/tcp   open-webui
root@vultr:~# docker exec -it 81295ff3d1df bash
root@81295ff3d1df:/app/backend# ollama run deepseek-r1:8b
>>> Send a message (/? for help)