首页 AI

本地部署安装 Llama 3.2 大模型,支持1B、3B、11B、90B 模型

2024-09-29 1 次阅读 会员专享
本地部署安装 Llama 3.2 大模型,支持1B、3B、11B、90B 模型

安装步骤:   1、通过Ollama进行部署 ,支持多平台!Windows / Mac /Linux 都可以运行 【点击下载】 并在 Windows 上打开 WSL  功能: 2、安装Docker Desktop :【点击前往】 然后本地安装webUI (1)在CPU下运行: docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main   (2)支持GPU运行: docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-we...

🔒

登录后继续阅读

登录账号即可免费阅读本文

立即登录 还没账户? 注册