所有文章 > 当前标签:deepseek

Deepseek+AI思维导图&图表-7款免费好用格式转换工具
2025/03/10
使用Deepseek生成AI思维导图/图表的基本思路是: 1、向Deepseek等大模型输入需求 2、大模型根据需求输出结构化、逻辑强的高质量内容,且带一定格式,如Markdown / Mermaid代码 3、将带格式的文本,通过渲染工具(如Xmind、Mermaid在线编辑器)生成思维导图/图表

学Deepseek+AI思维导图前,快速了解什么是Markdown,什么是Mermaid
【AI驱动】
本文分为三小节 一、学习AI,为什么要了解Markdown和Mermaid 二、对两者进行基本介绍 三、说明两者的区别与关系
2025/03/10

3分钟速成,用DeepSeek制作哪吒2走秀视频,保姆级教程
【AI驱动】
行者AI视频发布了一篇教程,展示了如何利用DeepSeek和哩布AI工具在短短三分钟内制作出哪吒2走秀视频。文章首先介绍了通过DeepSeek生成走秀场景的AI绘画提示词,然后指导读者在哩布官网使用预设的哪吒IP模型生成走秀图片。接下来,使用可灵AI将图片转化为视频,并进行后期剪辑,添加背景音乐和调整节奏以完成最终作品。整个过程简便快捷,使得每个人都能成为内容创作者,且DeepSeek在多个领域都能发挥巨大作用。文章最后提到,通过这些步骤,可以轻松制作出高质量的视频,并鼓励读者加入AI公开课分享群以获取更多AI干货。
2025/03/08

用 DeepSeek 做 AI 古诗词视频
【AI驱动】
如何使用DeepSeek工具制作AI古诗词视频,以此在社交媒体上快速增粉。文章详细拆解了视频制作流程,包括利用DeepSeek生成古诗分镜脚本、绘画提示词,使用即梦AI工具根据提示词生成图片,并通过即梦AI将图片转化为视频。此外,还涉及了视频配音和剪辑的步骤。文章还探讨了此类视频账号的变现方法,如通过视频平台的创作者分成计划、小红书商单、橱窗带货和定制课程等方式实现盈利。作者强调了AI工具在内容创作中的普及和重要性,并提供了DeepSeek使用指南的领取方式。
2025/03/08

Open-R1 技术解密:HuggingFace 如何完整复现 DeepSeek 推理模型
【日积月累】
当 DeepSeek 发布其推理模型 DeepSeek-R1 时,AI 社区为之震动。这个模型不仅在性能上媲美 OpenAI o1,更重要的是提供了详细的技术报告,揭示了训练方法的关键步骤。然而,DeepSeek 虽然开源了模型权重,却没有公开训练数据和代码。这种状况促使 HuggingFace 团队启动了 Open-R1 项目,致力于系统性地重构 DeepSeek-R1 的训练流
2025/03/04

DeepSeek一键接入WPS和Office(保姆级教程)
【日积月累】
我们工作中有大量需要使用Office或WPS等办公软件,那有没有什么办法在上面集成DeepSeek呢?答案是肯定的!今天分享的这个方法那简直就是白嫖,只需要一个DeepSeek的API Key即可搞定。
2025/03/03

总结10个免费的DeepSeek使用平台
【日积月累】
想要体验deepsee满血版功能,推荐官网和硅基流动,但需注意可能存在的卡顿问题; 追求稳定流畅的使用体验,纳米搜索、秘塔AI搜索、超算互联网、小艺和英伟达是不错的选择;
2025/03/03

如何在VSCode中免费集成DeepSeek API服务(分步指南)
【日积月累】
本文将提供两种接入方案(直接调试和API服务),并包含VSCode特有配置技巧。
2025/03/03

DeepSeek × 时间序列 :DeepSeek-TS,基于状态空间增强MLA与GRPO的时序预测新框架
【日积月累】
本文介绍 DeepSeek-TS,该框架受到 DeepSeek 中高效的多头潜在注意力(MLA)和群组相对策略优化(GRPO)技术的启发,并将其应用于多产品时间序列预测。 这个的方法扩展了 MLA,提出了 MLA-Mamba。MLA-Mamba 允许潜在特征通过具有非线性激活的状态空间模型动态演变,为模型提供自适应记忆,使其能够适应趋势变化。
2025/02/27

DeepSeek技术报告解析:为什么DeepSeek-R1 可以用低成本训练出高效的模型
【日积月累】
DeepSeek-R1 通过创新的训练策略实现了显著的成本降低,同时保持了卓越的模型性能。本文将详细分析其核心训练方法以及降低成本逻辑
2025/02/26

用PyTorch从零构建 DeepSeek R1:模型架构和分步训练详解
【日积月累】
DeepSeek R1 的完整训练流程核心在于,在其基础模型 DeepSeek V3 之上,运用了多种强化学习策略。本文将从一个可本地运行的基础模型起步,并参照其技术报告,用PyTorch完全从零开始构建 DeepSeek R1,理论结合实践,逐步深入每个训练环节。通过可视化方式,由浅入深地解析 DeepSeek R1 的工作机制。
2025/02/26

如何用SpringBoot开发API
【日积月累】
Spring Boot是一个用于构建高效服务的框架,提供了简化的项目配置和开发过程。在开发API时,Spring Boot通过注解和自动配置功能,使开发者能够快速建立强大而优雅的接口。本文将介绍如何使用Spring Boot进行API开发,并结合Swagger实现API文档化,帮助开发者更好地构建和维护项目中的RESTful服务。
2025/02/26

DeepSeekAPI调用教程
【学习各类API】
本文详细介绍了如何通过调用DeepSeek API,将其集成到项目中,从而实现智能问答等功能。通过选择适合的第三方平台并使用Java代码示例,用户可以轻松掌握API的调用方法。此外,文章还提供了多个平台的对比,帮助用户根据需求选择最优方案。文章内容丰富,覆盖了从API密钥获取到实际应用的完整流程。
2025/02/25

开源新进展:DeepSeek 与 FlashMLA 合力,H800 算力狂飙,低成本策略揭晓
【AI驱动】
DeepSeek 开源周第一天,推出了名为 FlashMLA 的技术,该技术为 Hopper GPU 开发的高效 MLA 解码内核,专门针对可变长度序列进行了优化,已投入生产。FlashMLA 使用后,H800 可达到 3000GB/s 内存,实现 580TFLOPS 计算性能。MLA 是 DeepSeek 提出的创新注意力架构,从 V2 开始,MLA 使得 DeepSeek 在系列模型中实现成本大幅降低,但计算、推理性能仍能与顶尖模型持平。此次发布的 FlashMLA 支持 BF16,分页 KV 缓存,块大小为 64。环境要求为 Hopper GPU、CUDA 12.3 及以上版本、PyTorch 2.0 及以上版本。MLA 通过低秩联合压缩技术,将多头注意力中的键(Key)和值(Value)矩阵投影到低维潜在空间,从而显著减少键值缓存(KV Cache)的存储需求。V2 版本中,显存占用降到了过去最常用的 MHA 架构的 5%-13%,推理成本仅为 Llama 370B 的 1/7、GPT-4 Turbo 的 1/70。V3 版本中,降本提速更为明显。DeepSeek-R1 在 HuggingFace 上获得了超过 10000 个赞,成为该平台近 150 万个模型之中最受欢迎的大模型。
2025/02/24

漫谈DeepSeek及其背后的核心技术
【AI驱动】
本文深入探讨了DeepSeek大模型的核心技术,从公司背景、模型能力、训练与推理成本到核心技术细节进行了全面分析。DeepSeek由幻方量化于2023年7月在杭州成立,其推出的V3模型在性能上已与OpenAI的GPT-4o媲美,训练成本不到600万美元,API定价远低于国内其他头部厂商。DeepSeek-V3采用了自研的MLA(多头潜在注意力)机制和无辅助损失的MoE(Mixture of Experts)架构,显著减少了KV缓存和训练成本。训练框架HAI-LLM支持多种并行策略,优化了通信和计算效率。推理部署采用预填充和解码分离策略,确保高吞吐量和低延迟。文章还指出,DeepSeek的成功在于其深厚的技术积累和对基础研究的重视,其技术创新将推动AI行业的快速且低成本迭代。
2025/02/20

DeepSeek接入飞书:开启智能办公新篇章
【日积月累】
DeepSeek接入飞书,开启智能办公新篇章。通过接入DeepSeek-R1,飞书不仅提升了用户体验,还优化了工作流程。DeepSeek的智能文案生成、数据分析等功能在飞书中得到充分发挥。用户可利用DeepSeek进行文本生成、数据分析和智能搜索等,同时支持多语言处理与翻译。API接口的灵活调用确保了系统的稳定性与安全性,为用户提供高效的办公解决方案。
2025/02/17
搜索文章
文章精选