deepseek是由杭州深度求索人工智能基础技术研究有限公司开发的人工智能平台,专注于大语言模型(llms)的研发与应用。以下是deepseek本地部署的详细步骤,旨在帮助用户轻松完成部署。
在部署deepseek之前,请确保满足以下硬件和软件要求:
* 硬件要求:根据所选deepseek模型的大小(如7b、33b等),确保计算机有足够的内存和显存。同时,amd显卡用户需安装特定版本的驱动并配合相关软件使用。
* 操作系统:支持linux(推荐)、macos和windows。
* python版本:需要python 3.7及以上版本。
* 依赖包:pytorch(>=1.7.1)、transformers(>=4.0)以及numpy、pandas、scikit-learn等相关库。
ollama是deepseek的底层框架,支持多平台安装。
* linux系统部署:
1. 访问ollama官网,复制一键安装脚本并执行:`curl -fssl https://ollama.com/install.sh | sh`。
2. 配置权限,避免sudo运行:`sudo usermod -ag ollama $user`,然后`newgrp ollama`刷新用户组。
3. 启动服务:`systemctl start ollama`,并设置开机自启:`systemctl enable ollama`。
4. 验证安装:执行`ollama --version`,输出版本号即表示安装成功。
* macos系统部署:
1. 同样使用一键安装脚本:`curl -fssl https://ollama.com/install.sh | sh`。
2. 启动服务:`ollama serve`前台运行(调试用),或通过homebrew管理后台服务:`brew services start ollama`。
* windows系统部署:
1. 确保已安装windows 10/11 64位和wsl2(推荐ubuntu发行版)。
2. 下载安装包:ollama windows installer,双击安装。
3. 验证安装:执行`ollama list`查看已安装模型。
* 拉取模型:
1. 访问ollama deepseek-r1页面,选择适合本地电脑配置的模型参数版本,如7b、33b等。
2. 在命令行中执行`ollama pull deepseek-r1:7b`(以7b参数版本为例)拉取模型。
* 运行模型:
1. 执行`ollama run deepseek-r1`运行模型。
2. 进入交互模式,可以输入问题进行测试,如“你好,请用中文回答”。模型将回应“你好!我是deepseek-r1,很高兴为您提供帮助!”。
默认情况下,ollama服务仅在本地运行。若需要对外提供服务,需设置环境变量并配置远程访问。具体步骤包括编辑systemd服务配置、设置ollama_host和ollama_origins环境变量、重新加载systemd并重启ollama服务。
为了更方便地与deepseek模型进行交互,可以安装open webui。
* 安装docker:若未安装docker,请从官方下载并安装。
* 运行docker容器:执行`docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main`安装open webui。
* 访问webui界面:打开浏览器,访问`http://localhost:3000/`,进入webui界面并注册管理员账号。
* 配置deepseek模型:登录后,进入模型管理页面,选择“添加本地模型”,并填写模型名称和运行命令。保存设置后,在主界面点击对应模型即可开始与模型对话。
除了命令行和webui交互外,还可以将deepseek模型接入ai问答应用,如maxkb和chatbox。
* 部署maxkb并接入ollama:
1. 通过docker部署maxkb。
2. 配置ollama模型接入,填写模型类型、名称和基础url等参数。
3. 创建应用并测试问答功能。
* 本地安装chatbox并接入本地大模型:
1. 访问chatbox官网下载安装包并安装。
2. 在chatbox设置中选择ollama api,填写api endpoint、api key和model name等参数。
3. 验证使用并进行自定义界面设置。
在部署和使用过程中,可能会遇到一些故障。以下是一些常用的故障排查方法和性能优化建议:
* 故障排查:
1. ollama服务无法启动:查看日志(如使用`journalctl -u ollama -f`命令),检查端口冲突并修改ollama端口。
2. 模型加载失败:重新初始化模型(如使用`ollama rm deepseek-r1 && ollama pull deepseek-r1`命令)。
3. maxkb连接超时:检查网络连接,确保ollama api可达,并处理跨域问题。
* 性能优化:
1. 根据硬件资源选择运行模式,如纯cpu运行、cpu+gpu混合运行等。
2. 使用量化模型减少内存占用。
3. 安装nvidia驱动和cuda toolkit以启用gpu加速。
4. 使用监控工具(如zabbix+grafana)对服务器资源使用情况进行监控。
通过以上步骤,用户可以轻松完成deepseek的本地部署,并享受与本地大模型进行交互的便捷体验。