本地部署安装 Llama 3.2 大模型,支持1B、3B、11B、90B 模型
2024-09-29
1 次阅读
会员专享
安装步骤:
 
1、通过Ollama进行部署 ,支持多平台!Windows / Mac /Linux 都可以运行 【点击下载】
并在 Windows 上打开 WSL 功能:
2、安装Docker Desktop :【点击前往】
然后本地安装webUI
(1)在CPU下运行:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
 
(2)支持GPU运行:
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-we...
🔒
登录后继续阅读
登录账号即可免费阅读本文
立即登录
还没账户? 注册
show = false, 3000)"
x-show="show" x-cloak x-transition
class="fixed top-20 right-4 z-50">