
LLM之RAG实战| 高级RAG:通过使用LlamaIndex重新排序来提高检索效率
2025/03/03
基本RAG的检索是静态的,会检索到固定数字(k)个相关文档,而如果查询需要更多的上下文(例如摘要)或更少的上下文,该怎么办? 可以通过在以下两个阶段来实现动态检索: 预检索:检索器初步选择...

开源| 伯克利AI分布式框架Ray,兼容TensorFlow、PyTorch与MXNet
【日积月累】
不久之前,机器之心推荐了一篇论文,介绍 UC Berkeley 研究员发布的分布式系统 Ray(参见:学界 | Michael Jodan 等人提出新型分布式框架 Ray:实时动态学习的开端》。开发者称,Ray 专门为人工智能应用设计,通过...
2025/03/03

数据库融入DevOps基因后,运维再也不用做背锅侠了!
【日积月累】
本文将会分四个章节来讲述。 首先我们来看一下数据库和DevOps的关系,或者说它们是如何建立联系的? 数据库怎样融入DevOps基因? 可以从如下这几方面切入: 标准化 自动化 监控...
2025/03/03

Airbnb开源框架,真响应式架构——MvRx
【日积月累】
真响应式架构 响应式(React)架构并没有什么定义,只是我觉得这么描述 MvRx 比较准确。这里所说的响应式架构是指,数据响应式以及界面响应式。数据响应式大体指数据以流的形式呈现(RxJava 那套东西),界面响应式大体指数据驱动界...
2025/03/03

【AIGC】 一文带你了解什么是AIGC!(全面详解)
【日积月累】
Moss前沿工具 【OpenAI】获取OpenAI API Key的多种方式全攻略:从入门到精通,再到详解教程!! 【VScode】VSCode中的智能AI-GPT编程利器,全面揭秘ChatMoss & ChatGPT中...
2025/03/03

使用LangChain和LangGraph大幅提升RAG效果
【日积月累】
一、简介 LangGraph是LangChain、LangServe和LangSmith系列的最新成员,旨在使用LLM构建生成式人工智能应用程序。请记住,所有这些都是独立的包,必须单独进行pip安装。 在深入学习LangGrap...
2025/03/03

解锁AgenticRAG,使用LangChain和OpenAI进行实践
【日积月累】
Agentic RAG技术是一种新兴的智能体驱动解决方案,能够应对复杂的多文档问答挑战。这项技术通过智能化手段,不仅提升了我们处理文本数据的效率,还极大地增强了问答系统的准确性和深度。本文带大家来了解这项技术,阐述其如何提升信息检索和分析的...
2025/03/03

LangChain的问题所在
【日积月累】
如果你在过去几个月里一直关注人工智能的爆炸式炒作,你可能已经听说过 LangChain。由 Harrison Chase 开发的 LangChain 是一个用于与 OpenAI 的 GPT API(后来扩展到更多模型)进行人工智能文本生成交...
2025/03/03

深度学习入门系列:AlexNet和LeNet详细介绍和实现
【日积月累】
AlexNet和LeNet详细介绍和实现 说到深度学习,大概很多人都会想到那些能够“看图识物”的神经网络,比如帮手机识别照片里的猫咪,或者让汽车知道眼前是红灯还是绿灯。今天,我想跟大家聊聊两位“大功臣”——LeNet和AlexNet。...
2025/03/03

基于 Gin 从0到1搭建 Web 管理后台系统后端服务(一)项目初始化、配置和日志
【日积月累】
1、项目初始化 1.1 目录结构 ├── api | ├── v1 # v1版本接口服务 | ├── system # 系统级服务 | └── enter.go # 统一入口 ├── config #...
2025/03/03

Go高性能JSON库:Sonic
【日积月累】
介绍 我们在日常开发中,常常会对JSON进行序列化和反序列化。Golang提供了encoding/json包对JSON进行Marshal/Unmarshal操作。但是在大规模数据场景下,该包的性能和开销确实会有点不够看。在生产环境下,...
2025/03/03

NLP文本分类任务实战,附代码模板,手把手带你跑通
【日积月累】
本文介绍了使用 ModernBert 和原版 BERT 进行文本分类的实战案例,任务是基于真假新闻数据集进行分类。作者详细阐述了从数据处理到模型训练和验证的完整流程。首先,通过 `AutoTokenizer` 和自定义的 `collate_fn` 函数处理文本数据,实现动态填充和批量处理。接着,定义了四种池化方法(平均池化、最大池化、最小池化和注意力池化),用于将序列特征压缩为固定大小的向量。模型部分,作者自定义了 `FakeNewsModel`,结合预训练的 ModernBert 和 BERT,支持四种池化方式,并通过全连接层输出分类结果。训练过程包括数据加载、模型初始化、优化器和学习率调度器配置,以及使用交叉熵损失进行训练和验证。最终,通过验证集和测试集评估模型性能,ModernBert 在长文本输入和优化后的架构上表现优于原版 BERT。
2025/03/03

Vue3.4+Element-plus+Vite通用后台管理系统
【日积月累】
一个基于 Vue3.4、Element-Plus、Vite 和 Pinia 搭建的轻量级后台管理模板,旨在提供简洁易用的开发体验。项目包含基本的刷新、全屏和暗黑模式功能,采用 Mock.js 模拟数据,支持简单的权限划分。技术栈还包括 ECharts、VueUse、Animate.css 和 WangEditor 等,适用于快速开发和学习。项目配置了 ESLint、Prettier 和 Stylelint 以规范代码风格,并通过 UnoCSS 实现原子化 CSS 开发。此外,项目还集成了 SVG 图标、WangEditor 编辑器等功能模块,并提供了详细的运行、打包和语法检查指南。整体而言,该项目是一个适合初学者和小型项目的后台管理系统模板,易于扩展和维护。
2025/03/03

机器学习模型的保存与加载,完全指南
【日积月累】
本文详细介绍了机器学习模型保存与加载的方法及最佳实践,涵盖模型存储格式、序列化方法、主流框架的保存方式以及深度学习框架的模型保存策略。常用序列化方法包括 Python 内置的 `pickle` 和专为科学计算设计的 `joblib`,两者各有优缺点,`pickle` 使用简单但存在安全风险且跨版本兼容性差,`joblib` 对 numpy 数组处理效率高且支持压缩。主流机器学习框架如 Scikit-learn、XGBoost、LightGBM 和 CatBoost 均提供了原生的模型保存方法,推荐使用其原生格式以确保兼容性和效率。深度学习框架 PyTorch 和 TensorFlow/Keras 也提供了灵活的模型保存方式,包括完整模型保存和仅保存模型参数。此外,本文还提出了模型保存的完整方案、版本控制建议、安全性建议、性能优化建议以及格式选择指南,并针对版本兼容性问题、大型模型处理和跨平台迁移等常见问题提供了实用的解决方案,旨在帮助开发者高效、安全地管理和部署机器学习模型。
2025/03/03

深度学习入门:万字长文带你回顾RCNN,带你了解Fast RCNN到Faster RCNN
【日积月累】
Fast RCNN 是一种经典的目标检测算法,通过共享特征提取和 ROI 池化层解决了 RCNN 中重复计算的问题,显著提升了计算效率和检测速度,同时采用融合分类损失与回归损失的高效损失函数,进一步优化了训练过程。其核心创新在于对整张图像提取共享特征图后,通过 ROI 池化层为每个候选区域生成固定长度的特征向量,再进行分类和边界框回归。然而,Fast RCNN 仍依赖外部的选择性搜索算法生成候选区域,效率受限。Faster RCNN 则在此基础上引入区域提议网络(RPN),实现了从卷积特征图中直接生成候选区域的功能,避免了外部算法的依赖,大幅提升了检测速度和精度,成为目标检测领域的标杆模型。Faster RCNN 通过将 RPN 与 Fast RCNN 结合,实现了端到端的训练流程,其架构包括卷积特征提取、RPN、ROI 池化层及分类与回归模块,并通过联合损失函数进行优化,在 COCO 和 PASCAL VOC 等数据集上表现出色,为后续目标检测技术的发展奠定了坚实基础。
2025/03/03

什么是GPT-4?完整指南
【API术语解释】
近年来,OpenAI让“GPT”一词成为了热议的话题。GPT,即生成式预训练Transformer,是人工智能领域中一股强大的语言模型,掀起了不小的波澜。GPT-4 将 AI 的功能提升到一个全新的水平。但在我们深入研究其功能之前,先来对名称本身进行一下解析。
2025/03/03
搜索文章
热门话题