哎,我之前白白受了多少多少苦,才突然发现有这么简单的方法…………
先在Vultr上开一台机器,点击跳转官网链接。
我开的是这个,玩8b绰绰有余,玩14b稍微有些慢。系统我选的是Ubuntu 24.04 LTS x64,这个反正以后都可以换。

Yaodo·13 天前·27 次阅读
哎,我之前白白受了多少多少苦,才突然发现有这么简单的方法…………
先在Vultr上开一台机器,点击跳转官网链接。
我开的是这个,玩8b绰绰有余,玩14b稍微有些慢。系统我选的是Ubuntu 24.04 LTS x64,这个反正以后都可以换。
然后ssh登录,一键安装ollama+open-webui,原链接:https://github.com/open-webui/open-webui
输入以下命令一键安装
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
安装完成后,在浏览器登录你的ip:3000就可以看到webui界面了,不过这个时候还没有模型。
我没看到快速部署模型的方法,所以进docker装吧,也就是两行命令的事情。
登录ssh。用docker ps
命令查看实例,用docker exec -it <CONTAINER ID> bash
进入实例,用ollama run deepseek-r1:8b
命令拉取并运行deepseek-r1:8b
root@vultr:~# docker ps CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES 81295ff3d1df ghcr.io/open-webui/open-webui:ollama "bash start.sh" 17 minutes ago Up 17 minutes (healthy) 0.0.0.0:80->8080/tcp, [::]:80->8080/tcp open-webui root@vultr:~# docker exec -it 81295ff3d1df bash root@81295ff3d1df:/app/backend# ollama run deepseek-r1:8b >>> Send a message (/? for help)
搞定。
Comments | NOTHING