MAC快速本地部署Deepseek的实现步骤

下载安装ollama

地址: https://ollama.com/Ollama 是一个开源的大型语言模型(LLM)本地运行框架,旨在简化大模型的部署和管理流程,使开发者、研究人员及爱好者能够高效地在本地环境中实验和集成最新模型
一路下一步
安装好后
搜索需要的大模型

MAC快速本地部署Deepseek的实现步骤

2. 根据自己需求, 选择合适的大模型版本

3. 本地电脑配置较差,我安装的14b

MAC快速本地部署Deepseek的实现步骤

MAC快速本地部署Deepseek的实现步骤

4. 复制命令 ollama run deepseek-r1:14b 到终端运行

MAC快速本地部署Deepseek的实现步骤

MAC快速本地部署Deepseek的实现步骤

看到 success就成功了

可以开始对话了 (首次较慢)

MAC快速本地部署Deepseek的实现步骤

进阶

不想用黑窗口的话 可以下载cherry Studio
Cherry Studio 是一款开源的多模型 AI 桌面客户端,专为专业用户设计,支持跨平台操作(Windows/macOS/Linux),集成 300+ 大语言模型和本地化部署能力,旨在简化 AI 技术的应用流程,提升工作效率
简单配置就能使用了。

收藏 (0) 打赏

感谢您的支持,我会继续努力的!

使用支付宝扫码打赏,您的支持是我们持续努力的动力!
点赞 (0)

文章内容仅供参考,专业问题请咨询专业人士! 文章内观点、立场为作者个人行为,不代表本站立场! 未经书面许可请勿转载本站内容,否则您将承担侵权责任!

潇湘云服 程序开发 MAC快速本地部署Deepseek的实现步骤 http://www.xxhunan.com/archives/651

常见问题
  • 对于站内付费内容,您需要支付相关费用才能查看,您可以购买单次查看服务,也可以通过升级VIP会员来获取批量查看服务,我们建议您通过升级VIP服务来获得查看权限。
查看详情
  • 您可以通过会员中心的商城功能直接升级VIP会员,VIP会员可以享受更多优惠服务!
查看详情

相关文章

评论
暂无评论
MAC快速本地部署Deepseek的实现步骤-海报

分享本文封面