所有文章
> 当前分类:AI驱动
一文彻底搞懂大模型 - Fine-tuning三种微调方式
2024/12/31
在生成式AI和大语言模型(如GPT、LLaMA)的广泛应用中,微调(Fine-tuning)作为模型适应特定任务的关键步骤,其重要性不言而喻。以下将详细介绍三种流行的微调方式:Prompt-tuning、Prefix-tuning和LoRA...
一文彻底搞懂大模型 – RAG(检索、增强、生成)
【AI驱动】
RAG(Retrieval-Augmented Generation,检索增强生成) 是一种结合了信息检索技术与语言生成模型的人工智能技术。该技术通过从外部知识库中检索相关信息,并将其作为提示(Prompt)输入给大型语言模型(LLMs),...
2024/12/31
一文彻底搞懂多模态 – 多模态学习
【AI驱动】
多模态学习(Multimodal Learning)是一种利用来自不同感官或交互方式的数据进行学习的方法,这些数据模态可能包括文本、图像、音频、视频等。多模态学习通过融合多种数据模态来训练模型,从而提高模型的感知与理解能力,实现跨模态的信息...
2024/12/31
一文彻底搞懂深度学习(4)
【AI驱动】
激活函数(Activation Function) 神经网络中的线性组合(即加权求和)本身只能表示线性关系。然而,现实世界中的大多数问题都是非线性的。通过引入激活函数,决定神经元是否应该被激活(将信号传递给下一个神经元)以及信号的强度...
2024/12/31
一文彻底搞懂深度学习(3)
【AI驱动】
超参数(Hyperparameter) 超参数(Hyperparameter),是深度学习算法中的调优参数,用于控制模型的学习过程和结构。与模型参数(Model Parameter)不同,模型参数是在训练过程中通过数据学习得到的,而超...
2024/12/31
一文彻底搞懂深度学习(2)
【AI驱动】
优化器(Optimizer) 在深度学习中,优化器(Optimizer)是一个核心概念,它负责调整神经网络的权重和偏置,以便最小化损失函数,从而提高模型的准确性和性能。 常见的优化器,包括梯度下降系列(批量梯度下降BGD、随机梯...
2024/12/31
一文彻底搞懂深度学习(1)
【AI驱动】
归一化(Normalization) 在深度学习中,归一化是数据预处理中一个至关重要的步骤。归一化技术通过调整输入数据的尺度,使得数据具有相似的分布范围,提高模型的求解速度和泛化能力。 常用的归一化方法,包括批量归一化(Batc...
2024/12/31
大模型开发 – 一文搞懂 LangChain(二):Model I/O
【AI驱动】
一、Model I/O的本质 Model I/O是什么?在LangChain中,模型输入/输出(Model I/O)是指与 LLM 进行交互的组件,它弥合了原始输入数据和结构化输出之间的鸿沟。 格式化(Format):负责格式...
2024/12/30
大模型开发 – 一文搞懂 LangChain(一):总体介绍
【AI驱动】
一、LangChain的本质 LangChain是什么?LangChain是一个用于开发由 LLM 支持的应用程序的框架。它使应用程序能够: 具有上下文感知能力:将语言模型连接到上下文源(提示说明、few shot examp...
2024/12/30
大模型开发 – 一文搞懂Fine-tuning(大模型微调)
【AI驱动】
一、Fine-tuning的本质 Fine-tuning(微调):通过特定领域数据对预训练模型进行针对性优化,以提升其在特定任务上的性能。 一、微调的定义大模型微调是利用特定领域的数据集对已预训练的大模型进行进一步训练的过程。...
2024/12/30
大模型开发 – 一文搞懂人工智能基础(下):神经网络结构
【AI驱动】
一、什么是CNN? 卷积神经网络(CNN):通过卷积和池化操作有效地处理高维图像数据,降低计算复杂度,并提取关键特征进行识别和分类。 网络结构: 卷积层:用来提取图像的局部特征。 池化层:用来大幅降低参数量级,实现...
2024/12/30
大模型开发 – 一文搞懂人工智能基础(上):模型
【AI驱动】
一、什么是模型? 模型是一个函数:将现实问题转化为数学问题(Encoder编码器),通过求解数学问题来得到现实世界的解决方案(Decoder解码器)。 详细了解看这篇:《一文搞懂Encoder-Decoder(编码器-解码器)》...
2024/12/30
大模型开发 – 一文搞懂Transformer工作原理
【AI驱动】
一、单头Attention工作原理 单头Attention(Single-Head Attention):单头注意力是一种注意力机制,它只求一次注意力。在这个过程中,对同样的查询(Q)、键(K)和值(V)求一次注意力,得到一个输出。这...
2024/12/30
大模型开发 – 一文搞懂Encoder-Decoder工作原理
【AI驱动】
不懂Encoder-Decoder,何以深入序列数据处理?本文将从Seq2Seq工作原理、Attention工作原理、Transformer工作原理三个方面,带您一文搞懂Encoder-Decoder工作原理。 一、Seq2S...
2024/12/30
大模型开发 – 一文搞懂Embedding工作原理
【AI驱动】
一、Text Embedding工作原理 文本向量化(Text Embedding):将文本数据(词、句子、文档)表示成向量的方法。 词向量化将词转为二进制或高维实数向量,句子和文档向量化则将句子或文档转为数值向量,通过平均、神...
2024/12/30
TransGNN:Transformer 和 GNN 能互相帮助吗?
【AI驱动】
1.模型背景 图神经网络(GNN)和Transformer模型各自以其独特的优势在处理复杂数据和捕捉序列依赖关系上取得了显著成果。 图神经网络 GNN,即图神经网络(Graph Neural Network),是一种基于图...
2024/12/30
搜索文章
热门话题