
LangChain的问题所在
2025/03/03
如果你在过去几个月里一直关注人工智能的爆炸式炒作,你可能已经听说过 LangChain。由 Harrison Chase 开发的 LangChain 是一个用于与 OpenAI 的 GPT API(后来扩展到更多模型)进行人工智能文本生成交...

深度学习入门系列:AlexNet和LeNet详细介绍和实现
【日积月累】
AlexNet和LeNet详细介绍和实现 说到深度学习,大概很多人都会想到那些能够“看图识物”的神经网络,比如帮手机识别照片里的猫咪,或者让汽车知道眼前是红灯还是绿灯。今天,我想跟大家聊聊两位“大功臣”——LeNet和AlexNet。...
2025/03/03

基于 Gin 从0到1搭建 Web 管理后台系统后端服务(一)项目初始化、配置和日志
【日积月累】
1、项目初始化 1.1 目录结构 ├── api | ├── v1 # v1版本接口服务 | ├── system # 系统级服务 | └── enter.go # 统一入口 ├── config #...
2025/03/03

Go高性能JSON库:Sonic
【日积月累】
介绍 我们在日常开发中,常常会对JSON进行序列化和反序列化。Golang提供了encoding/json包对JSON进行Marshal/Unmarshal操作。但是在大规模数据场景下,该包的性能和开销确实会有点不够看。在生产环境下,...
2025/03/03

NLP文本分类任务实战,附代码模板,手把手带你跑通
【日积月累】
本文介绍了使用 ModernBert 和原版 BERT 进行文本分类的实战案例,任务是基于真假新闻数据集进行分类。作者详细阐述了从数据处理到模型训练和验证的完整流程。首先,通过 `AutoTokenizer` 和自定义的 `collate_fn` 函数处理文本数据,实现动态填充和批量处理。接着,定义了四种池化方法(平均池化、最大池化、最小池化和注意力池化),用于将序列特征压缩为固定大小的向量。模型部分,作者自定义了 `FakeNewsModel`,结合预训练的 ModernBert 和 BERT,支持四种池化方式,并通过全连接层输出分类结果。训练过程包括数据加载、模型初始化、优化器和学习率调度器配置,以及使用交叉熵损失进行训练和验证。最终,通过验证集和测试集评估模型性能,ModernBert 在长文本输入和优化后的架构上表现优于原版 BERT。
2025/03/03

Vue3.4+Element-plus+Vite通用后台管理系统
【日积月累】
一个基于 Vue3.4、Element-Plus、Vite 和 Pinia 搭建的轻量级后台管理模板,旨在提供简洁易用的开发体验。项目包含基本的刷新、全屏和暗黑模式功能,采用 Mock.js 模拟数据,支持简单的权限划分。技术栈还包括 ECharts、VueUse、Animate.css 和 WangEditor 等,适用于快速开发和学习。项目配置了 ESLint、Prettier 和 Stylelint 以规范代码风格,并通过 UnoCSS 实现原子化 CSS 开发。此外,项目还集成了 SVG 图标、WangEditor 编辑器等功能模块,并提供了详细的运行、打包和语法检查指南。整体而言,该项目是一个适合初学者和小型项目的后台管理系统模板,易于扩展和维护。
2025/03/03

机器学习模型的保存与加载,完全指南
【日积月累】
本文详细介绍了机器学习模型保存与加载的方法及最佳实践,涵盖模型存储格式、序列化方法、主流框架的保存方式以及深度学习框架的模型保存策略。常用序列化方法包括 Python 内置的 `pickle` 和专为科学计算设计的 `joblib`,两者各有优缺点,`pickle` 使用简单但存在安全风险且跨版本兼容性差,`joblib` 对 numpy 数组处理效率高且支持压缩。主流机器学习框架如 Scikit-learn、XGBoost、LightGBM 和 CatBoost 均提供了原生的模型保存方法,推荐使用其原生格式以确保兼容性和效率。深度学习框架 PyTorch 和 TensorFlow/Keras 也提供了灵活的模型保存方式,包括完整模型保存和仅保存模型参数。此外,本文还提出了模型保存的完整方案、版本控制建议、安全性建议、性能优化建议以及格式选择指南,并针对版本兼容性问题、大型模型处理和跨平台迁移等常见问题提供了实用的解决方案,旨在帮助开发者高效、安全地管理和部署机器学习模型。
2025/03/03

深度学习入门:万字长文带你回顾RCNN,带你了解Fast RCNN到Faster RCNN
【日积月累】
Fast RCNN 是一种经典的目标检测算法,通过共享特征提取和 ROI 池化层解决了 RCNN 中重复计算的问题,显著提升了计算效率和检测速度,同时采用融合分类损失与回归损失的高效损失函数,进一步优化了训练过程。其核心创新在于对整张图像提取共享特征图后,通过 ROI 池化层为每个候选区域生成固定长度的特征向量,再进行分类和边界框回归。然而,Fast RCNN 仍依赖外部的选择性搜索算法生成候选区域,效率受限。Faster RCNN 则在此基础上引入区域提议网络(RPN),实现了从卷积特征图中直接生成候选区域的功能,避免了外部算法的依赖,大幅提升了检测速度和精度,成为目标检测领域的标杆模型。Faster RCNN 通过将 RPN 与 Fast RCNN 结合,实现了端到端的训练流程,其架构包括卷积特征提取、RPN、ROI 池化层及分类与回归模块,并通过联合损失函数进行优化,在 COCO 和 PASCAL VOC 等数据集上表现出色,为后续目标检测技术的发展奠定了坚实基础。
2025/03/03

什么是GPT-4?完整指南
【API术语解释】
近年来,OpenAI让“GPT”一词成为了热议的话题。GPT,即生成式预训练Transformer,是人工智能领域中一股强大的语言模型,掀起了不小的波澜。GPT-4 将 AI 的功能提升到一个全新的水平。但在我们深入研究其功能之前,先来对名称本身进行一下解析。
2025/03/03

如何使用 DeepSeek-R1、LangChain和 Ollama 搭建隐私优先的RAG系统
【日积月累】
我立即下载并使用了这套代码,它基于DeepSeek-R1、LangChain 和 Ollama 搭建了一个隐私优先的检索增强生成(RAG)系统的文章。
2025/03/03

Istio 使用 GatewayAPI实现流量管理
【日积月累】
Gateway API 是由 SIG-NETWORK 社区管理的开源项目,项目地址:https://gateway-api.sigs.k8s.io/。主要原因是 Ingress 资源对象不能很好的满足网络需求,很多场景下 Ingress 控制器都需要通过定义 annotations 或者 crd 来进行功能扩展,这对于使用标准和支持是非常不利的,新推出的 Gateway API 旨在通过可扩展的面向角色的接口来增强服务网络
2025/03/03

NL2SQL之DB-GPT-Hub:text2sql任务的微调框架和基准对比
【日积月累】
基于 prompt 的方法相对来说成本较低,方法和效果都有相对成熟的结果;微调 LLM 的方法受限于消耗资源比较大,计算成本过高,没有得到很好地探索。B-GPT-Hub是一款很好的项目,这是一个基于 LLM 微调的 text2SQL 的训练推理框架和 benchmark,主要侧重于大规模微调 LLM 的方式。
2025/03/03

大模型RAG问答行业最佳案例及微调、推理双阶段实现模式
【AI驱动】
该工作所提出的模块化(Modular)RAG比较有趣,因此,今天我们来看看这个话题,价值之一在于,对RAG各个模块的方案进行了归置,对建立体系认知有帮助,供大家一起参考
2025/03/03

使用 GraphQL、Prisma 和 React 实现端到端的类型安全:API 准备
【日积月累】
在本节中,您将设置构建 GraphQL API 所需的所有部分。您将启动一个 TypeScript 项目,预置一个 PostgreSQL 数据库,在项目中初始化 Prisma,最后为您的数据库设定种子。 在此过程中,您将设置端到端类型安全难题的一个重要部分:数据形状的真实来源。
2025/03/03

DeepSeek一键接入WPS和Office(保姆级教程)
【日积月累】
我们工作中有大量需要使用Office或WPS等办公软件,那有没有什么办法在上面集成DeepSeek呢?答案是肯定的!今天分享的这个方法那简直就是白嫖,只需要一个DeepSeek的API Key即可搞定。
2025/03/03

如何获取华为硅基流动平台API Key 密钥(分步指南)
【日积月累】
在Cherry Studio里配置好来自这几家的API和密钥。然后,就能愉快地跟DeepSeek-R1进行对话了。接下来,我就手把手教大家稳定用上云厂商提供的DeepSeek满血版大模型。本文以硅基流动为例来展示一下整个过程
2025/03/03
搜索文章
热门话题