您现在的位置是:首页 >学无止境 >本地部署DeepSeek Nodejs版网站首页学无止境
本地部署DeepSeek Nodejs版
简介deepseek nodejs
目录
1.下载 Ollama

下载之后点击安装,等待安装成功后,打开cmd窗口,输入以下指令:
ollama -v
如果显示了版本号,则代表已经下载成功了。
2.下载DeepSeek模型
然后选择自己对应配置的模型,在复制右侧指令到cmd窗口,就可以把模型下载到本地了。

3.下载 ollama.js
npm下载方式:
npm i ollama
yarn下载方式:
yarn add ollama
pnpm下载方式:
pnpm i ollama
下载完成后,按照ollama.js 官方文档指示则可使用,下面是一个最简单的案例:
import { Ollama } from 'ollama'
const ollama = new Ollama({
host: 'http://127.0.0.1:11434'
})
const response = await ollama.chat({
model: 'deepseek-r1:1.5b',
messages: [{ role: 'user', content: '你好' }],
})
console.log(response.message.content)
输出结果:
最后,如果大家不熟悉 Ollama 的指令,可以看上一篇博客:ollama 基本使用教程
风语者!平时喜欢研究各种技术,目前在从事后端开发工作,热爱生活、热爱工作。





QT多线程的5种用法,通过使用线程解决UI主界面的耗时操作代码,防止界面卡死。...
U8W/U8W-Mini使用与常见问题解决
stm32使用HAL库配置串口中断收发数据(保姆级教程)
分享几个国内免费的ChatGPT镜像网址(亲测有效)
Allegro16.6差分等长设置及走线总结