MacOS本地化部署DeepSeek(M2芯片,16GB内存,极限14b)
MacOS本地化部署DeepSeek(M2芯片,16GB内存,极限14b)
DeepSeek近期非常火爆,但是使用网页版时经常会遇到"服务器繁忙,请稍后再试"的情况。为了能够随时使用DeepSeek,或者出于数据保密等方面的考虑,很多用户选择将DeepSeek本地化部署。以下是具体的操作方法:
1. 在Mac电脑上安装Ollama
Ollama是一个开源的本地大语言模型运行框架,专为在本地机器上便捷部署和运行大型语言模型而设计。首先需要访问ollama中文网(https://ollama.net.cn)进行下载。建议同时下载Chatbox,以便后续实现DeepSeek的本地可视化应用。
2. 使用Ollama安装DeepSeek
打开Mac终端(可以在"其他"菜单中找到"终端"),然后运行以下命令:
ollama run deepseek-r1:14b
当出现"success"提示时,即表示安装成功,此时就可以开始与DeepSeek交互了。
退出DeepSeek时,可以使用control+d
快捷键。
下次需要使用DeepSeek时,只需再次打开终端并执行相同命令即可。根据个人电脑配置,还可以选择其他版本的DeepSeek进行安装:
DeepSeek-R1-1.5b:ollama run deepseek-r1:1.5b
DeepSeek-R1-7B:ollama run deepseek-r1:7b
DeepSeek-R1-8B:ollama run deepseek-r1:8b
DeepSeek-R1-14B:ollama run deepseek-r1:14b
DeepSeek-R1-32B:ollama run deepseek-r1:32b
3. 实现DeepSeek本地可视化应用
虽然通过终端可以直接使用DeepSeek,但为了使用更加便捷,可以借助以下工具实现本地可视化应用:
1)使用ChatboxAI
ChatboxAI提供了本地化的网页界面,使用体验与网页版类似。安装完成后,按照提示选择本地大模型名称,即可开始使用本地网页化的DeepSeek。
2)使用Open-WebUI
虽然Open-WebUI也可以实现本地可视化应用,但经过测试发现其运行效率较低,且占用大量存储空间,因此不推荐使用。
不同版本DeepSeek性能对比
以M2芯片、16GB内存的Mac为例:
经过测试,在M2芯片、16GB内存的Mac上,最多可以安装DeepSeek-R1-14B版本。此时电脑会变得非常热,且在回答问题时几乎无法同时进行其他操作。与较小版本(如1.5b和7b)相比,14b版本的回答质量已经有了显著提升,虽然与网页版相比还不够深入,但基本能够回答大部分问题。