迎月兮

关注

使用 ollama 部署本地模型

迎月兮

关注

阅读 27

2024-04-16

最佳实践:私有化本地大模型搭建

1.下载ollama大模型框架

https://ollama.com/download	//建议直接部署linux环境

2.使用ollama部署阿里千问大模型(Qwen7b,需要8G内存)

ollama run qwen:7b

3.部署前端(用户界面),lobe-chat

https://github.com/lobehub/lobe-chat	//强烈建议docker安装

部署建议:linux+docker


相关推荐

犹大之窗

docker 本地部署大模型(ollama)

犹大之窗 31 0 0

我是芄兰

WINDOWS下ollama本地部署RAG大模型

我是芄兰 4 0 0

kolibreath

使用Ollama部署deepseek大模型

kolibreath 27 0 0

大南瓜鸭

Ollama + WebUI本地化部署大模型

大南瓜鸭 36 0 0

草原小黄河

Ollama:本地大语言模型(LLM)部署 && 使用 Ollama 构建一个智能问答系统

草原小黄河 19 0 0

炽凤亮尧

怎么确定ollama部署的本地大模型用了gpu

炽凤亮尧 29 0 0

闲云困兽

Ollama——大语言模型本地部署的极速利器

闲云困兽 15 0 0

幺幺零

使用Docker+ollama部署大模型

幺幺零 34 0 0

水墨_青花

本地部署大模型ollama+docker+open WebUI/Lobe Chat

水墨_青花 38 0 0

爱薇Ivy趣闻

linux,ubuntu,使用ollama本地部署大模型llama3,模型通用,简易快速安装

爱薇Ivy趣闻 29 0 0

精彩评论(0)

0 0 举报