DeepSeek 是什么?
来自中国的世界级开源 AI 大模型(101K+ Stars)
重新定义开源 AI
DeepSeek 是由深度求索(DeepSeek AI)开发的 开源大语言模型系列,总部位于中国杭州。截至 2026 年 3 月,DeepSeek-V3 已获得 101,000+ GitHub Stars、16,500+ Forks,是全球最受关注的开源 AI 项目之一。
"DeepSeek-V3 以仅 2.788M H800 GPU 小时的训练成本,达到了与 GPT-4o 和 Claude Sonnet 3.5 媲美的性能。" — DeepSeek 技术报告
模型家族
| 模型 | 参数量 | 激活参数 | 上下文 | 特点 | 下载 |
|---|---|---|---|---|---|
| DeepSeek-V3 | 671B | 37B | 128K | 通用旗舰,MoE 架构 | Hugging Face |
| DeepSeek-R1 | 671B | 37B | 128K | 推理专精,媲美 o1 | Hugging Face |
| R1-Distill-Qwen-32B | 32B | 32B | 128K | 蒸馏版,超越 o1-mini | Hugging Face |
| R1-Distill-Llama-70B | 70B | 70B | 128K | Llama 架构蒸馏版 | Hugging Face |
| R1-Distill-Qwen-7B | 7B | 7B | 128K | 轻量蒸馏,本地可跑 | Hugging Face |
| DeepSeek-Coder | — | — | — | 代码专用模型 | GitHub |
API 定价(极致性价比)
| 模型 | 输入 ($/M tokens) | 输出 ($/M tokens) | 上下文 |
|---|---|---|---|
| DeepSeek-V3.2 | $0.27 | $1.10 | 128K-164K |
| DeepSeek-R1 | $0.55 | $2.19 | 128K |
| R1-Distill-Llama-70B | $0.03 | $0.11 | 128K |
对比:GPT-5 输入 $5.00/M、Claude Opus $5.00/M — DeepSeek V3.2 便宜 18.5 倍。
需要 DeepSeek API 充值?通过 Neuronicx 平台 获取,支持支付宝、微信等本地支付。也可获取 Claude API 和 OpenAI API 进行对比。
DeepSeek 部署与使用指南
三种方式:免费网页 / API 调用 / 本地部署
方式一:免费网页聊天(零门槛)
访问 chat.deepseek.com 即可免费使用 DeepSeek-V3 和 R1。支持 Deep Think(深度思考)模式、Web 搜索、文件上传、语音输入。iOS/Android App 可在应用商店搜索 "DeepSeek" 下载。131M+ 月活用户,157 个国家 App Store 排名第一。
方式二:API 调用(推荐开发者)
访问 platform.deepseek.com 注册账号,获取 API Key。新用户赠送 500 万免费 tokens。DeepSeek API 兼容 OpenAI 格式,只需修改 base_url 和 api_key 即可无缝切换。V3.2 输入仅 $0.27/M tokens。
方式三A:Ollama 本地部署(最简单)
安装 Ollama(ollama.com),然后运行 ollama pull deepseek-r1 拉取模型。支持蒸馏版 1.5B/7B/8B/14B/32B/70B,根据硬件选择合适大小。搭配 Open WebUI 获得类 ChatGPT 界面。完全离线、数据隐私。
方式三B:vLLM 部署(生产级)
适合企业级部署。pip install vllm 安装,从 Hugging Face 下载模型权重,使用 tensor parallelism 跨多 GPU 分布式推理。支持 FP8 和 BF16 精度。适合 NVIDIA H100/H200 GPU 集群。
方式三C:SGLang 部署(官方推荐)
DeepSeek 官方推荐的推理框架,支持 MLA 优化、DP Attention、FP8 KV Cache、Torch Compile。同时支持 NVIDIA 和 AMD GPU。提供最佳延迟和吞吐量性能。支持多节点 tensor parallelism。
开始使用
无论哪种方式,DeepSeek 都提供 OpenAI 兼容 API。前端可用 Open WebUI、LobeChat 等对接。需要 API 充值可通过 Neuronicx 平台获取 DeepSeek API、Claude API、OpenAI API。
DeepSeek 部署命令速查
复制即用(来源:github.com/deepseek-ai 官方文档)
# 1. 安装 Ollama(macOS / Linux / Windows)
curl -fsSL https://ollama.com/install.sh | sh
# 2. 拉取 DeepSeek 模型(根据硬件选择大小)
ollama pull deepseek-r1:1.5b # 最小,CPU 可跑
ollama pull deepseek-r1:7b # 推荐,8GB+ GPU
ollama pull deepseek-r1:14b # 中等,16GB+ GPU
ollama pull deepseek-r1:32b # 高质量,24GB+ GPU
ollama pull deepseek-r1:70b # 最强蒸馏版
# 3. 运行对话
ollama run deepseek-r1:7b
# 4. 搭配 Open WebUI(可选,获得 ChatGPT 风格界面)
docker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
-e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
ghcr.io/open-webui/open-webui:mainDeepSeek 核心能力
基于 GitHub 仓库和官方技术报告的功能列表
MoE 混合专家架构
671B 总参数,每 token 仅激活 37B,实现极高参数效率。Multi-head Latent Attention (MLA) + DeepSeekMoE 架构,推理效率远超同参数量级密集模型。
DeepThink 深度推理
DeepSeek-R1 系列推理模型,通过纯 RL 训练(无需 SFT)实现自我验证、反思和长链推理。数学、代码和推理任务媲美 OpenAI o1。
代码生成
DeepSeek-Coder 系列专攻代码任务。V3 在 HumanEval 达到 82.6% Pass@1、LiveCodeBench 40.5%、Codeforces 排名 51.6 百分位,全面领先开源模型。
极致性价比
API 输入仅 $0.27/M tokens(V3.2),比 GPT-5 便宜 18.5 倍。Context Caching 可再降 90%。新用户免费 500 万 tokens。训练仅需 2.664M H800 GPU 小时。
MIT 开源
代码 MIT 许可证,模型支持商业使用。完整权重开放下载(Hugging Face),社区可自由微调、蒸馏、部署。32 个公开仓库、86K+ 关注者。
丰富的蒸馏模型
6 个蒸馏版本(1.5B/7B/8B/14B/32B/70B),基于 Llama 和 Qwen 架构。32B 版本超越 OpenAI o1-mini。小模型也可本地运行(Ollama)。
多框架部署
官方支持 SGLang(推荐)、vLLM、LMDeploy、TensorRT-LLM、LightLLM。兼容 NVIDIA GPU、AMD GPU、华为昇腾 NPU。FP8/BF16 精度推理。
OpenAI 兼容 API
API 完全兼容 OpenAI 格式,支持 streaming、function calling、JSON mode、vision。只需修改 base_url 即可从 GPT 无缝切换到 DeepSeek。
DeepSeek 界面与生态
来自 deepseek.com 和 GitHub 的产品展示
免费网页聊天
chat.deepseek.com 支持 DeepThink 和 Web 搜索
API 平台
platform.deepseek.com OpenAI 兼容 API
Ollama 部署
一条命令本地运行 DeepSeek 蒸馏模型
Hugging Face
完整模型权重开放下载
GitHub 开源
32 个仓库、101K+ Stars、MIT 许可证
性能评测
数学、代码、推理全面领先开源模型
视频教程
跟着视频快速上手 DeepSeek
本地部署 DeepSeek-R1 — 搭建私人 AI 聊天机器人
DeepSeek R1 — 你需要知道的一切
DeepSeek 完整指南 — 在 AWS Bedrock 上部署 R1
常见问题
关于 DeepSeek 部署和使用的常见问题解答
开始使用 DeepSeek
免费网页聊天、极致性价比 API、完全开源本地部署 — DeepSeek 让每个人都能用上世界级 AI。需要 API 充值?Neuronicx 为你提供一站式服务。