DeepSeek是什么
DeepSeek的官方网址:https://www.deepseek.com/
DeepSeek的官方API
DeepSeek的API开放平台:https://platform.deepseek.com/usage
DeepSeek私有化部署
一、安装Ollama
Ollama官方网站:https://ollama.com/
Ollama,一个支持很多大模型本地调用的应用程序。
直接点击下方的 Download 进行下载安装即可,安装完成后会发现一个羊驼一样的图标。

二、安装模型
安装好Ollama之后接着就是安装模型.
打开deepseek-r1模型的下载地址是:https://ollama.com/library/deepseek-r1

入门级:1.5B版本(4GB内存+核显可运行)
进阶推荐:7B版本(8GB内存+4GB显存)
高性能设备:32B版本(32GB内存+12GB显存)
这里推荐下载7B版本。大部分电脑配置都能跑起来。
按下 win+R 输入 cmd 调起命令行

输入
ollama run deepseek-r1:7b
下载一个7b的模型试试效果。
下载完模型之后执行
ollama run deepseek-r1:7b
启动模型。搞完之后就可以正常体验了,先让他生成个代码试试效果。

这种能输出结果,但是不方便查看,怎么办呢?搞一个客户端来处理下。
三、安装ChatBox
访问官网:https://chatboxai.app/zh#download
➊ 手机用户:AppStore/应用市场直接搜索
➋ 电脑用户:选择对应系统版本(Win/Mac/Linux)

下载并安装好之后→ 点击【⚙️】进入设置:
-
使用自己的API key或本地模型
-
API模式,选择“添加自定义提供方“



接下来就可以正常使用了。
DeepSeek满血版使用
本地部署版本,说实话,还是很卡顿的。原因是:

首先,R1-7b版本,属于蒸馏版本,本来就比较弱。其次,R1的满血推荐显卡是 GPU 96G的8块,且一般的显卡也只是达到了勉强能用的级别。如果你只是部署了个7b版本,且显卡一般,那你肯定体验是极差的。
DeepSeek 提示词技巧指南
本文章将提出10种具体的技巧,每种技巧基于特定的认知原理和技术原理,并通过实际案例展示如何应用这些技巧以及它们带来的效果提升。这些技巧可以帮助用户更精准地表达需求,减少模型生成中的误差和幻觉,提升方案的适用性和执行性。

1. 角色锚定法
-
认知原理:工作记忆容量限制理论(Miller’s Law)。
-
技术原理:通过角色声明激活特定领域知识图谱节点,聚焦模型注意力机制。
-
方法:前置身份标签 + 专业场景定义。
-
案例:
-
低效指令:“如何提高工作效率”。
-
优化指令:“作为GTD认证时间管理教练,请为经常跨时区会议的跨国团队设计每日3小时深度工作保护方案”。
-
效果:方案适用性提升40%(角色标签缩小决策空间)。
-
2. 三维约束法
-
认知原理:决策疲劳规避机制。
-
技术原理:通过资源/精力/环境约束构建决策边界,实现帕累托最优解搜索。
-
方法:同步声明时间/精力/工具限制。
-
案例:
-
基础指令:“制定学习计划”。
-
进阶指令:“在每日可用2小时(19:00-21:00)、脑力峰值下降30%的晚间时段,设计Python机器学习进阶计划(需兼容Anki记忆曲线)”。
-
效果:计划可持续性提升55%。
-
3. 结构化退问
-
认知原理:组块化记忆理论。
-
技术原理:通过指令分片降低transformer架构的认知负荷。
-
方法:强制分步执行路径。
-
案例:
-
模糊需求:“优化我的晨间流程”。
-
结构化:“请按:①30分钟运动与认知激活的生化平衡→②信息摄入优先级矩阵构建→③跨平台日程自动同步方案分步优化”。
-
效果:执行链路清晰度提升63%。
-
4. 反幻觉验证
-
认知原理:元认知监控理论。
-
技术原理:建立可验证的时间日志数据锚点,对抗概率生成端差。
-
方法:要求标注时间记录方法论。
-
案例:
-
普通指令:“分析我的时间使用情况”。
-
防幻觉:“基于RescueTime连续两周屏幕使用数据,按《深度工作》四象限法分类,并说明统计显著性验证方法”。
-
效果:诊断准确度提升58%。
-
5. 模式嵌套法
-
认知原理:双加工理论系统激活。
-
技术原理:组合认知框架形成多维特征空间。
-
方法:混合经典时间管理模型。
-
案例:
-
单模型:“用艾森豪威尔矩阵规划任务”。
-
嵌套:“在四象限法基础上,叠加《番茄工作法》的注意力周期律动,整合《搞定》的每周回顾机制”。
-
效果:系统适配性提升47%。
-
6. 可视化驱动
-
认知原理:图优效应(Picture Superiority Effect)。
-
技术原理:激活视党皮层关联的神经网络通路。
-
方法:指定时间地理学表达范式。
-
案例:
-
文字需求:“展示我的时间分配”。
-
可视化:“用时区热力图呈现跨洲协作周日程,X轴为UTC时间,Y轴为协作方,色阶表示认知负荷强度(附颜色映射公式)”。
-
效果:模式识别效率提升61%。
-
7. 增量修正协议
-
认知原理:动态一致性理论。
-
技术原理:通过梯度下降实现方案选代优化。
-
方法:建立“约束变更→方案调整”映射。
-
案例:
-
初始方案:“每周40小时工作计划”。
-
修正:“若新增3小时通动时间但必须保证7小时睡眠,如何重新分配学习/工作/运动模块?需提供调整后的益夜节律匹配度评估”。
-
效果:方案弹性提升44%。
-
8. 技术雷达锚定
-
认知原理:认知脚手架理论。
-
技术原理:锁定特定方法论版本防止概念漂移。
-
方法:绑定经典理论版本号。
-
案例:
-
通用指令:“推荐任务管理工具”。
-
锚定:“依据《Getting Things Done》2015修订版第7章,设计OmniFocus与Todoist的跨设备同步实施方案”。
-
效果:方法保真度提升66%。
-
9. 多模态验证
-
认知原理:多重缩码理论。
-
技术原理:跨模态表征增强记忆提取。
-
方法:三维时间立方体构建。
-
案例:
-
单模态:“说明时间阻塞法”。
-
多模态:“阐述时间立方体方法论,给出每日能量波动计算公式,并绘制三维时间块分配图(附Blender建模参数)”。
-
效果:方法掌握度提升52%。
-
10. 效能监测绑定
-
认知原理:霍桑效应强化机制。
-
技术原理:建立量化反馈回路。
-
方法:嵌入PDCA循环监测点。
-
案例:
-
普通需求:“制定阅读计划”。
-
监测绑定:“设计6周主题阅读计划,需包含:①每周认知负荷评估公式②Readwise同步规则③Notion仪表盘关键指标(完成率/理解度/输出转化率)”。
-
效果:目标达成率提升57%。
-
相关导航
![FastChat[小羊驼]](https://www.aicn.me/wp-content/uploads/2023/04/36395-github.com.png)
FastChat[小羊驼]
以 Meta 开源 LLaMA(直译为「大羊驼」)系列模型为起点,斯坦福大学等机构的研究人员先后在其上进行「二创」,开源了基于 LLaMA 的 Alpaca(羊驼)、Alpaca-Lora、Luotuo(骆驼)等轻量级类 ChatGPT 模型,大大降低了这类模型的研究、应用门槛,训练、推理成本一再降低。 由于「二创」过于丰富,生物学羊驼属的英文单词都快不够用了,但富有创意的研究者似乎总能给他们的模型找到新名字。近日,来自加州大学伯克利分校、卡内基梅隆大学、斯坦福大学、加州大学圣迭戈分校的研究者们又提出了一个新的模型 ——Vicuna(小羊驼)。这个模型也是基于 LLaMA,不过用到的是 13B 参数量的版本(作者表示,初步人工评测显示 13B 版本比 7B 版本模型要好不少,不过这不是一个严谨的结论)。
暂无评论...