首页
智能设备
数据安全
绿色科技
栏目分类

绿色科技

你的位置:未来探索网 > 绿色科技 > DeepSeek腹地部署教程来了!只需一台电脑就能终了拜谒解放?

DeepSeek腹地部署教程来了!只需一台电脑就能终了拜谒解放?

发布日期:2025-03-21 14:47    点击次数:195

DeepSeek腹地部署教程来了!只需一台电脑就能终了拜谒解放?

这个春节假期,要说“红得发紫”的科技家具,DeepSeek应该当之无愧。

以致平时对科技新闻绝不在意的长者们,也走过来问小雷有莫得传说过DeepSeek。在我的印象中,上一次AI大模子如斯潜入东说念主心的,照旧OpenAI的ChatGPT。

大富大贵的背后,是DeepSeek遭遇连气儿且高强度的集聚袭击,大部分时候官网都没见解闲居生成内容,即便关闭联网搜索,具备深度推理才能的DeepSeek-R1在线模子照旧无法闲居使用。好在,在华为等繁密科技公司的支柱下,第三方平台纷繁接入DeepSeek的API,让褂讪在线使用成为了可能。

不外这些渠说念本色上照旧线上拜谒,春节技能休息的小雷,还想玩一把更大的,比如把DeepSeek大模子部署到腹地。

于是,在春节技能,小雷动起手来执行了一下。

下载慢还得敲代码,打造“AI电脑”圮绝易

事实上,不论是不是DeepSeek,想要在我方电脑部署一个腹地大模子,执行的才略并未几,难点在于寻找到对应的资源和号召。但需要疑望的少许是,腹地大模子虽说是仍是梭巡好的制品,但也需要有一定的硬件基础,体验才算得上好。

(图片来自Ollama)

领先,咱们不错到Ollama官网下载一个桌面端应用,这个应用尽头于一个承载腹地大模子的“盒子”,除了DeepSeek除外,你不错在Ollama官网的模子库中找到许多开源大模子。

Ollama桌面端并不提供任何收尾界面,想要将大模子下载到腹地,需要在Ollama官网的模子库当中找到对应模子的代码,复制到PowerShell(Win+R输入PowerShell回车通达)当中,就不错执行模子数据的拉取和装置。

(图片来自雷科技)

小雷选的是DeepSeek-R1模子当中的7b版块,也等于带有70亿参数的DeepSeek-R1模子,占用4.7GB。腹地大模子参数目越大当然是越好,不错提供更精确的谈话结伙和更高质料的文本生成才能,具备更强的逻辑推理和学习才能,同期学问储备和泛化才能。但腹地大模子依赖电脑筹划才能,每个东说念主对大模子的需求不同,不应该“硬来”。

一般来说,运行1.5B参数的模子最低需要4GB显存的GPU以及16GB的内存,若是够不上条目,则会强利用用CPU进行筹划,硬件职守更大,且推理的时刻会更长。而满血版的DeepSeek-R1参数目为671b,体积达到404GB,需要更高规格的筹划硬件才能职守得起,关于个东说念主部署需求,小雷提倡1.5b-8b参数最为合适。

(图片来自雷科技)

模子数据拉取完了,系统则会自动执行装置,完成之后就不错班师在PowerShell窗口当中班师调取刚下载的DeepSeek-R1模子,输入框填写问题发送,腹地大模子就会推理并生成。

到这里,DeepSeek-R1腹地大模子的部署就完成了,表面上天下也不错左证这样的行为去部署其它大模子上电脑。

但每次开启电脑都要通达PowerShell界面才能激活大模子,关于芜俚用户而言并不便捷,这个时候咱们需要给DeepSeek-R1装置一套更直不雅的交互界面。小雷礼聘了在Docker应用(图标是一个蓝色海豚)上添加一个Open-WebUI组件,让DeepSeek-R1不错通过浏览器界面交互,并赋予它联系高低文的才能。

具体来看,需要先下载Docker桌面端,按照默许的疏浚完成装置之后(可跳过账号注册等才略),再次通达PowerShell界面复制并执行以下这条教导,小雷帮天下省下去Github查找的时刻了:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

若是是使用NVIDIA GPU的小伙伴,则需要使用以下这条教导:

docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

拉取大模子文献和Open WebUI组件需要一个比较漫长的流程,尤其是集聚不太联想(或者莫得科学上网)的环境,下载器会赓续重试/切换认知,出现下载进程丢失的问题。

装置完成之后,Docker应用中就会出现一个Open-WebUI的有关组件,把它勾选启动,再点击“3000:8080”字样的伙同,系统就会跳转到网页。

(图片来自雷科技)

这个时候,你就得回了一台带有AI腹地大模子的果然的“AI电脑”了。

小雷体验了通盘部署流程,才略并不算复杂,系统的数据拉取和装置都是自动化的,主要照旧在搜索号召行和装置资源,以及拉取和装置组件时花了比较多的时刻,Ollama和Docker都不错通过百度搜索到,小雷也在上头提供了对应的跳转伙同,脱手才能且有风趣的诸君不错尝试尝试。

虽然了,腹地部署大模子的行为并不惟有这一个,像华为刚推出的ModelEngine等,具备一站式梭巡优化和一键部署的才能,应该是面向企业端的开发器用。

离线使用是善事,但生成才能不如云霄版

国内的AI大模子应用礼聘许多,况兼网页端办事很皆全,那么腹地部署的道理道理在那儿?

前边铺垫了这样多职责准备腹地大模子,流弊有两点:第一,腹地大模子的扫数模子数据和对话记载都是满盈离线,存储在腹地,腹地推理反馈时刻更快,也幸免了敏锐内容露馅。同期在飞机等无网环境之下,也不错闲居使用大模子;第二,腹地部署支柱多样开源模子,个东说念主用户不错纯真扩展和切换,也不错左证自身需求进行优化和器用集成,总之操作空间会比线上大模子更多。

不外小雷部署的时刻还不长,许多功能还没摸澄莹,此次就简便计齐截下腹地大模子的体验怎样。

小雷装置DeepSeek-R1 7b模子的电脑是机械创新无界14X,鲁莽本定位,运行内存为24GB,并莫得配备镇定显卡这种硬件,不在腹地部署大模子的保举建立规模内,算是一个“反面课本”。换句话说,DeepSeek-R1 7b模子在这款电脑上,需要更多的推理时刻和资源占用才能够闲居生成内容。

(图片来自雷科技)

像“饭后胀气”等问题的磋商和谜底,大模子需要念念考30秒-1分钟才到谜底生成阶段,技能电脑的负载会达到岑岭,CPU和内存险些被占满,不错假想莫得镇定显卡的电脑带动腹地大模子会比较吃力,小雷合计给出的谜底果然有一定的正向参考的作用。

(图片来自雷科技)

比拟于谜底,小雷更感风趣的照旧DeepSeek拟东说念主化的念念考流程,很少有AI助手把念念考的流程作念到如斯拟东说念主化,不管生成的谜底是否准确,它的拟东说念主化推理流程似乎也能激起许多芜俚用户的风趣。

若是把相似的问题放在网页端的DeepSeek大模子,并启用R1深度念念考,班师生成了一个“办事器劳苦”的回馈,密集的拜谒果然给DeepSeek形成了不少困扰,这个时候想要闲居地和它交谈,腹地部署才能不一定很强,至少能够拜谒得到。

(图片来自DeepSeek)

再换一个问题,小雷用了沿路经典的概率题目向腹地DeepSeek-R1 7b发起发问。网页端DeepSeek-R1捏续劳苦中,腹地DeepSeek可能也有一些七手八脚,列举了多种情况后又自行驳回,终末还混入了之前发问的“饭后胀气”的内容,画面显得尽头滑稽。

(图片来自雷科技)

腹地DeepSeek在连气儿输出十多分钟后也莫得提供谜底,计议到时刻有限,小雷照旧住手了生成。

只可说数学题目关于70亿参数的DeepSeek-R1 7b照旧过于复杂,在线大模子都不一定能够输出准确谜底,腹地就更成问题了,同期高参数的腹地大模子推理的流程中,电脑的负载压力也会拉满。

从开源的角度去分析,腹地大模子的延长性和可玩性会比传统的线上大模子更好玩。但腹地大模子的部署天下也很澄莹,操作起来并不是很容易,想要挖掘更多玩法,照旧要靠脱手才能强的用户。

腹地部署DeepSeek,仅仅图个崭新好玩?

那么,腹地大模子值得东说念主手一个吗?小雷的谜底是议论的。

就现阶段的生成才能来说,腹地大模子很难跟线上大模子忘形,参数限度和筹划才能摆在那,笃定没法跟正规大模子公司背后的算力集群对比。腹地大模子合适脱手才能强的电脑用户折腾,深度发掘果然能带来一些功能上的便利,毕竟腹地大模子在系统底层中运行,能够更好地与硬件集合。

但动作芜俚用户,部署自己也算不上是一件多容易的事情,大模子的附进配套并莫得假想中熟识,Ollama官网全是英文,Docker应用也不提供华文支柱,自己在部署上就有较高的门槛。小雷部署一个腹地DeepSeek大模子,仅仅图个崭新,平均生成用时20秒起步,除了不错离线遍地用,芜俚的生成需求,体验照旧不如在线大模子。

像读取文献分析、联网网罗数据分析这些才能,还需要用户我方来折腾,小雷咫尺部署的DeepSeek还仅仅个运行。另外若是你有一天无谓了想要删掉大模子数据,还需要学习才略来断根,不然它就会一直占用系统盘的存储空间。

(图片来自mockup)

在小雷看来,DeepSeek走开源说念路,最主要的原因照旧为了打响市集影响力,先行占据市局势位,蛊惑行业围绕它来确立完善的办事体系。抛开Ollama这些不说,国内繁密大模子平台率先接入DeepSeek的API,等于开源带来的班师成果。

不错假想,佩戴超高热度的DeepSeek完成各行业的应用和渗入,个东说念主腹地部署的需求也会变得远比咫尺简便,调起PowerShell界面、敲代码这些事情以致都不需要用户来作念。

至于DeepSeek会发展成什么样,小雷还无法掂量,被行业高度柔和利大于弊,不褂讪的办事仅仅短痛,能够提升市集占比走到芜俚用户身边,渗入到各个开发,到阿谁时候,腹地部署这件事情大要自己就莫得必要了。

举报/反馈