所有文章
> 当前分类:AI驱动

全面认识AI Agent,一文读懂AI智能体的架构指南
2024/12/06
AI Agent的重要性在于其能够提高效率、降低成本、增强用户体验,并在某些情况下提供超越人类能力的决策支持。随着技术的发展,AI Agent正逐渐成为现代社会不可或缺的一部分。

如何用LLM和自有知识库搭建智能agent?
【AI驱动】
1.背景 llm大模型的强大能力可以让llm大模型充当智能机器人进行问答,比如作为企业的智能客服,回答一些常见的问题。但由于llm模型主要是基于通用数据的,对于特定数据的回答就难以胜任了。这就衍生了基于知识库的ai大模型方案。 ...
2024/12/06

万字长文!何谓Agent,为何Agent?
【AI驱动】
AI应用层出不穷爆发式涌现出来,在深思护城河深度之后,市场的玩家齐刷刷地转向到AI Agent是模型能力的不断提升?还是资方的倒逼?本质上是每个人都想有解决特定任务的AI 在探寻了算法,工程,数据等核心要素价值后,AI应用设计方到底能...
2024/12/06

手把手教你用LangChain实现大模型Agent
【AI驱动】
关于智能体(Agent) 通常,大型语言模型(LLM)通常通过RAG(Retrieval-Augmented Generation)架构来增强其存储器能力。然而,LLM智能体(LLM Agents)不仅能增强存储器,还将推理、...
2024/12/06

LLM Agent最常见的九种设计模式(图解+代码)
【AI驱动】
相关的资料(包括论文链接,原作者博客,langchain 代码实现等)已经整理在成表格(关注公众号发送“Agent”即可获得)。 接下来讲讲每个模式的原理,以及代码实现(看代码能帮助产品经理加深理解,因为这些设计模式都是以结构化 pr...
2024/12/06

《大模型应用开发 动手做AI Agent》读书笔记-第2章-试着做个Agent
【AI驱动】
2.5 Agent的推理引擎:ReAct框架 Agent的推理引擎是其规划和决策制定过程以及调用工具执行行动的核心。 在各种论文中,研究人员提出了多种智能Agent的推理逻辑(也称认知框架或框架),如CoT、ToT、LLM+P等...
2024/12/06

AI Agent应用——AgentGPT技术详解
【AI驱动】
背景 由于chatgpt的发展,除了基础的问答需求,利用chatgpt完成一系列复杂任务的需求也应用而生,产生了很多关于ai agent的应用框架,具体应用如下图,包括开源和商业的。 得益于llm模型的强大能力,将llm...
2024/12/06

LLM之RAG实战(十)| 如何构建一个RAG支持的聊天机器人,包括聊天、嵌入和重排序
【AI驱动】
在人工智能和机器学习不断发展的环境中,聊天机器人变得越来越复杂,从简单的基于规则的回复转变为基于上下文的对话。在这篇博客文章中,我们将深入研究创建一个RAG支持的聊天机器人,该聊天机器人利用先进的NLP模型进行聊天、嵌入和重新排序,并使用...
2024/12/06

LLM之RAG实战(七)| 使用llama_index实现多模态RAG
【AI驱动】
一、多模态RAG OpenAI开发日上最令人兴奋的发布之一是GPT-4V API( 在过去的一年里,大部分应用程序开发都是围绕文本输入/文本输出范式。最典型的例子之一是检索增强生成(RAG)——将LLM...
2024/12/06

LLM之RAG实战(四):Self-RAG如何革命工业LLM
【AI驱动】
尽管LLM(大型语言模型)的模型和数据规模不断增加,但它们仍然面临事实错误的问题。现有的Retrieval-Augmented Generation (RAG)方法可以通过增强LLM的输入来减少知识密集任务中的事实错误,但可能会影响模型的通...
2024/12/06

LLM之RAG实战(三):LlamaIndex解锁自定义LLM关键步骤分块、索引、查询介绍
【AI驱动】
一、LLamaIndex介绍 LLamaIndex是一个由Jerry Liu创建的Python库,它可以使用语言模型对大型文档集进行高效的文本搜索和摘要。开发人员可以使用LLamaIndex快速添加私有/自定义数据,以增...
2024/12/06

LLM之RAG实战(二):使用LlamaIndex + Metaphor实现知识工作自动化
【AI驱动】
最先进的大型语言模型(LLM),如ChatGPT、GPT-4、Claude 2,具有令人难以置信的推理能力,可以解锁各种用例——从洞察力提取到问答,再到通用工作流自动化。然而,他们检索上下文相关信息的能力有限。检索增强生成(RAG)系统可以...
2024/12/06

LLM推理部署(七):FireAttention——通过无损量化比vLLM快4倍
【AI驱动】
Mixtral作为第一个在数万亿tokens上训练的OSS模型,最近在人工智能社区掀起了波澜,它支持“混合专家”(MoE),并且训练和推理速度非常快。 Fireworks AI是第...
2024/12/06

LLM推理部署(六):TogetherAI推出世界上LLM最快推理引擎,性能超过vLLM和TGI三倍
【AI驱动】
LLM能有多快?答案在于LLM推理的最新突破。 TogetherAI声称,他们在CUDA上构建了世界上最快的LLM推理引擎,该引擎运行在NVIDIA Tensor Core GPU上。Together推理引擎可以支持10...
2024/12/06

LLM推理部署(五):AirLLM使用4G显存即可在70B大模型上进行推理
【AI驱动】
众所周知,大模型的训练和推理需要大量的GPU资源,70B参数的大模型需要130G的GPU显存来存储,需要两个A100(显存为100G)。 在推理过程中,整个输入序列也需要加载到内存中进行复杂的...
2024/12/06

LLM推理部署(四):一个用于训练、部署和评估基于大型语言模型的聊天机器人的开放平台FastChat
【AI驱动】
FastChat是用于对话机器人模型训练、部署、评估的开放平台。体验地址为: FastChat核心特性包括: 提供了SOTA模型(比如Vicuna,FastChat-T5)的模型权重,训练代码,评估代码; 分...
2024/12/06
搜索文章
热门话题