
机器学习模型的保存与加载,完全指南
2025/03/03
本文详细介绍了机器学习模型保存与加载的方法及最佳实践,涵盖模型存储格式、序列化方法、主流框架的保存方式以及深度学习框架的模型保存策略。常用序列化方法包括 Python 内置的 `pickle` 和专为科学计算设计的 `joblib`,两者各有优缺点,`pickle` 使用简单但存在安全风险且跨版本兼容性差,`joblib` 对 numpy 数组处理效率高且支持压缩。主流机器学习框架如 Scikit-learn、XGBoost、LightGBM 和 CatBoost 均提供了原生的模型保存方法,推荐使用其原生格式以确保兼容性和效率。深度学习框架 PyTorch 和 TensorFlow/Keras 也提供了灵活的模型保存方式,包括完整模型保存和仅保存模型参数。此外,本文还提出了模型保存的完整方案、版本控制建议、安全性建议、性能优化建议以及格式选择指南,并针对版本兼容性问题、大型模型处理和跨平台迁移等常见问题提供了实用的解决方案,旨在帮助开发者高效、安全地管理和部署机器学习模型。

深度学习入门:万字长文带你回顾RCNN,带你了解Fast RCNN到Faster RCNN
【日积月累】
Fast RCNN 是一种经典的目标检测算法,通过共享特征提取和 ROI 池化层解决了 RCNN 中重复计算的问题,显著提升了计算效率和检测速度,同时采用融合分类损失与回归损失的高效损失函数,进一步优化了训练过程。其核心创新在于对整张图像提取共享特征图后,通过 ROI 池化层为每个候选区域生成固定长度的特征向量,再进行分类和边界框回归。然而,Fast RCNN 仍依赖外部的选择性搜索算法生成候选区域,效率受限。Faster RCNN 则在此基础上引入区域提议网络(RPN),实现了从卷积特征图中直接生成候选区域的功能,避免了外部算法的依赖,大幅提升了检测速度和精度,成为目标检测领域的标杆模型。Faster RCNN 通过将 RPN 与 Fast RCNN 结合,实现了端到端的训练流程,其架构包括卷积特征提取、RPN、ROI 池化层及分类与回归模块,并通过联合损失函数进行优化,在 COCO 和 PASCAL VOC 等数据集上表现出色,为后续目标检测技术的发展奠定了坚实基础。
2025/03/03

什么是GPT-4?完整指南
【API术语解释】
近年来,OpenAI让“GPT”一词成为了热议的话题。GPT,即生成式预训练Transformer,是人工智能领域中一股强大的语言模型,掀起了不小的波澜。GPT-4 将 AI 的功能提升到一个全新的水平。但在我们深入研究其功能之前,先来对名称本身进行一下解析。
2025/03/03

如何使用 DeepSeek-R1、LangChain和 Ollama 搭建隐私优先的RAG系统
【日积月累】
我立即下载并使用了这套代码,它基于DeepSeek-R1、LangChain 和 Ollama 搭建了一个隐私优先的检索增强生成(RAG)系统的文章。
2025/03/03

Istio 使用 GatewayAPI实现流量管理
【日积月累】
Gateway API 是由 SIG-NETWORK 社区管理的开源项目,项目地址:https://gateway-api.sigs.k8s.io/。主要原因是 Ingress 资源对象不能很好的满足网络需求,很多场景下 Ingress 控制器都需要通过定义 annotations 或者 crd 来进行功能扩展,这对于使用标准和支持是非常不利的,新推出的 Gateway API 旨在通过可扩展的面向角色的接口来增强服务网络
2025/03/03

NL2SQL之DB-GPT-Hub:text2sql任务的微调框架和基准对比
【日积月累】
基于 prompt 的方法相对来说成本较低,方法和效果都有相对成熟的结果;微调 LLM 的方法受限于消耗资源比较大,计算成本过高,没有得到很好地探索。B-GPT-Hub是一款很好的项目,这是一个基于 LLM 微调的 text2SQL 的训练推理框架和 benchmark,主要侧重于大规模微调 LLM 的方式。
2025/03/03

大模型RAG问答行业最佳案例及微调、推理双阶段实现模式
【AI驱动】
该工作所提出的模块化(Modular)RAG比较有趣,因此,今天我们来看看这个话题,价值之一在于,对RAG各个模块的方案进行了归置,对建立体系认知有帮助,供大家一起参考
2025/03/03

使用 GraphQL、Prisma 和 React 实现端到端的类型安全:API 准备
【日积月累】
在本节中,您将设置构建 GraphQL API 所需的所有部分。您将启动一个 TypeScript 项目,预置一个 PostgreSQL 数据库,在项目中初始化 Prisma,最后为您的数据库设定种子。 在此过程中,您将设置端到端类型安全难题的一个重要部分:数据形状的真实来源。
2025/03/03

DeepSeek一键接入WPS和Office(保姆级教程)
【日积月累】
我们工作中有大量需要使用Office或WPS等办公软件,那有没有什么办法在上面集成DeepSeek呢?答案是肯定的!今天分享的这个方法那简直就是白嫖,只需要一个DeepSeek的API Key即可搞定。
2025/03/03

如何获取华为硅基流动平台API Key 密钥(分步指南)
【日积月累】
在Cherry Studio里配置好来自这几家的API和密钥。然后,就能愉快地跟DeepSeek-R1进行对话了。接下来,我就手把手教大家稳定用上云厂商提供的DeepSeek满血版大模型。本文以硅基流动为例来展示一下整个过程
2025/03/03

总结10个免费的DeepSeek使用平台
【日积月累】
想要体验deepsee满血版功能,推荐官网和硅基流动,但需注意可能存在的卡顿问题; 追求稳定流畅的使用体验,纳米搜索、秘塔AI搜索、超算互联网、小艺和英伟达是不错的选择;
2025/03/03

卷积神经网络和循环神经网络的代码实现
【AI驱动】
在 TensorFlow 中,通过 tensorflow.keras 模块构建 CNN 模型。首先加载 MNIST 数据集并进行归一化处理,接着构建包含卷积层(Conv2D)、池化层(MaxPooling2D)和全连接层(Dense)的顺序模型。训练模型时,使用 adam 优化器和 sparse_categorical_crossentropy 损失函数,通过 model.fit 方法进行训练。评估模型性能则通过 model.evaluate 方法。 在 PyTorch 中,同样加载 MNIST 数据集,并使用 torchvision.transforms 进行数据预处理。定义一个继承自 torch.nn.Module 的模型类,添加卷积层、池化层和全连接层。使用 torch.optim.Adam 和交叉熵损失函数训练模型,通过循环迭代数据加载器进行模型训练和评估。 循环神经网络(RNN): TensorFlow 实现的 RNN 使用 tensorflow.keras.layers.SimpleRNN 层。定义模型时,指定 RNN 单元数量和返回序列的参数,最后通过全连接层连接到输出层。PyTorch 实现的 RNN 定义一个自定义模型类,包含 nn.RNN 层和全连接层。使用 torch.optim.Adam 优化器和均方误差损失函数训练模型,通过循环迭代数据进行训练,并在测试集上评估模型性能。
2025/03/03

5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署)
【AI驱动】
文章介绍了两种使用 DeepSeek R1 模型搭建个人知识库的方法:API 搭建和本地部署。对于不涉密数据且追求最佳效果的用户,推荐使用 API 搭建方式,具体步骤包括下载 Cherry Studio 软件、注册硅基流动平台获取免费额度、配置 API Key、选择 DeepSeek R1 模型、配置嵌入模型、创建知识库并上传文件进行向量化。对于有充足算力和希望保护数据安全的用户,可以选择本地部署方案,步骤包括下载 Ollama 软件、安装 DeepSeek R1 模型、使用 Cherry Studio 作为 UI 界面连接本地模型。文章还提到,DeepSeek 作为中国团队开发的世界级大模型,为用户提供了强大的 AI 功能,同时也展示了中国 AI 技术的进步。
2025/03/03

如何在VSCode中免费集成DeepSeek API服务(分步指南)
【日积月累】
本文将提供两种接入方案(直接调试和API服务),并包含VSCode特有配置技巧。
2025/03/03

DeepSeek 使用指南:从 API Key 到本地部署,一步到位,推荐 3 款 AI 客户端
【AI驱动】
DeepSeek 近期在 AI 领域及大众中备受关注,预示着 2025 年 AI 技术将更普及。但其服务器卡顿问题影响了用户体验,为此 Chris 提供了包括获取官方 API Key、本地部署 DeepSeek 和推荐第三方 AI 客户端的解决方案。获取 API Key 可访问 DeepSeek 平台创建,但目前官方暂停充值服务。本地部署 DeepSeek 可通过 Ollama 工具实现,支持多种 AI 模型。对于不熟悉命令行的用户,推荐使用 ChatBox、CherryStudio 和 AnythingLLM 三款第三方 AI 客户端,它们支持多平台和多种 AI 模型,且注重本地数据存储与隐私保护。这些方法旨在帮助用户更高效地使用 DeepSeek,推动 AI 技术的普及与应用。
2025/03/03

基于DeepSeek-R1实现本地/API知识库,并接入微信BOT
【AI驱动】
本文详细介绍了搭建知识库并接入微信机器人的完整流程,包括环境配置、知识库部署、资料上传及细节调优技巧。DeepSeek 部署分为本地部署和第三方 API 调用两种方式,本地部署数据私有且响应快,但需较高硬件配置;API 调用快速接入且免维护,但数据需传输至第三方,长期成本不可控。知识库搭建使用开源框架 AnythingLLM,支持多模态模型,强调本地化和隐私保护。通过火山方舟和硅基流动平台获取 API 密钥,配置知识库时需填写相关参数,如请求地址、模型名称等。资料上传后需优化文档格式以提高 AI 理解准确性,如整理关键内容、删除无关信息。最后,通过生成 AnythingLLM 秘钥并配置 NGCBOT,将知识库接入微信机器人,实现智能问答功能。
2025/03/03
搜索文章
热门话题