所有文章 > 当前分类:AI驱动
人工智能数学基础 - 线性代数之向量篇
人工智能数学基础 - 线性代数之向量篇
2024/12/31
本文将从向量的哲学三问:向量是什么?向量从哪来?向量用到哪里去?带您一文搞懂人工智能数学基础-线性代数之向量。 一、向量是什么? 向量定义:向量是一组有序的数字(标量),用于在多维空间中表示数据点或特征。这些数字构成了一...
神经网络算法 – 一文搞懂Embedding(嵌入)
神经网络算法 – 一文搞懂Embedding(嵌入)
【AI驱动】 本文将从Embedding的本质、Embedding的原理、Embedding的应用三个方面,带您一文搞懂Embedding(嵌入)。 一、Embedding的本质 “Embedding”在字面上的翻译是“嵌入”,但在机...
2024/12/31
神经网络算法 – 一文搞懂GPT(Generative Pre-trained Transformer)
神经网络算法 – 一文搞懂GPT(Generative Pre-trained Transformer)
【AI驱动】 本文将从GPT的本质、GPT的原理、GPT架构改进三个方面,带您一文搞懂Generative Pre-trained Transformer | GPT。 一、GPT的本质 GPT架构:一种基于Transformer的预...
2024/12/31
神经网络算法 – 一文搞懂GAN(生成对抗网络)
神经网络算法 – 一文搞懂GAN(生成对抗网络)
【AI驱动】 本文将从GAN的本质、GAN的原理、GAN架构改进三个方面,带您一文搞懂生成对抗网络Generative Adversarial Networks | GAN。 一、GAN的本质 GAN架构:GAN(Generative...
2024/12/31
神经网络算法 – 一文搞懂BERT(基于Transformer的双向编码器)
神经网络算法 – 一文搞懂BERT(基于Transformer的双向编码器)
【AI驱动】 本文将从BERT的本质、BERT的原理、BERT的应用三个方面,带您一文搞懂Bidirectional Encoder Representations from Transformers| BERT。 一、BERT的本质 ...
2024/12/31
人工智能数学基础 – 线性代数之特征值与特征向量篇
人工智能数学基础 – 线性代数之特征值与特征向量篇
【AI驱动】 本文将从特征值与特征向量的需求、特征值与特征向量的求解、特征值与特征向量的应用三个方面,带您一文搞懂人工智能数学基础-线性代数之特征值与特征向量。 一、特征值与特征向量的需求 数据降维:通过映射函数将高维数据转换为低维表...
2024/12/31
神经网络算法 – 一文搞懂Self-Attention和Multi-Head Attention
神经网络算法 – 一文搞懂Self-Attention和Multi-Head Attention
【AI驱动】 随着Transformer模型的迅速普及,Self-Attention(自注意力机制)和Multi-Head Attention(多头注意力机制)成为了自然语言处理(NLP)领域中的核心组件。本文将从简要介绍、工作流程、两者对比三个方面,为...
2024/12/31
神经网络算法 – 一文搞懂RNN(循环神经网络)
神经网络算法 – 一文搞懂RNN(循环神经网络)
【AI驱动】 本文将从RNN解决了什么问题、RNN的基本原理、RNN的优化算法、RNN的应用场景四个方面,带您一文搞懂循环神经网络RNN。 一、RNN解决了什么问题 传统神经网络算法存在局限: 输入输出一一对应:传统神经网络算法通常是...
2024/12/31
手把手教你使用 OpenAI 和 Node.js 构建 AI 图像生成器
手把手教你使用 OpenAI 和 Node.js 构建 AI 图像生成器
【AI驱动】 介绍📖 OpenAI API 几乎可以应用于任何涉及理解或生成自然语言或代码的任务。他们提供一系列适用于不同的任务模型,并且还能够根据自己的需求微调自定义模型。这些模型可用于从内容生成到语义搜索和分类的所有领域,例如文本补充、代码编写...
2024/12/31
自主AI Agent 的构建|Function Calling 技术实例探索
自主AI Agent 的构建|Function Calling 技术实例探索
【AI驱动】 函数调用并非一个新鲜概念。早在 2023 年 7 月,  OpenAI 就为其 GPT 模型引入了这一功能,现在这一功能也被其他竞争对手采用。比如,谷歌的 Gemini API 最近也开始支持函数调用, Anthropic 也在将其整合到 ...
2024/12/31
超详细!聚类算法总结及对比!
超详细!聚类算法总结及对比!
【AI驱动】 一、聚类的简介 聚类分析,也称为聚类,是一种无监督的机器学习任务。与监督学习不同,聚类算法仅依赖输入数据,并致力于在特征空间中找到自然的组或群集。这些群集通常是特征空间中的密度区域,其中同一群集的数据点比其他群集更紧密地聚集在一起。聚...
2024/12/31
全面!图神经网络(GNN)系统介绍及实践(Pytorch)
全面!图神经网络(GNN)系统介绍及实践(Pytorch)
【AI驱动】 本文介绍了有关图神经网络的所有内容,包括 GNN 是什么、不同类型的图神经网络以及它们的用途。此外,还展示了如何使用 Pytorch 构建图神经网络。 什么是图形? 图形是包含节点和边的数据结构类型。节点可以是人、地点或...
2024/12/31
最全总结!机器学习优化算法!
最全总结!机器学习优化算法!
【AI驱动】 机器学习的最优化算法是用于找到最佳模型参数,以最小化预测误差的算法。这些算法通过迭代地调整模型参数,以不断改进模型的性能。 本文系统地介绍了优化算法,基本脉络是从优化的基础知识,到各种优化算法原理的介绍及代码示例,最后放上各种算法的对...
2024/12/31
6个机器学习的核心算法!
6个机器学习的核心算法!
【AI驱动】 (机器学习中)不断学习与更新基础知识是十分重要的。与其他技术领域一样,随着研究人员的增加、研究成果数量的增长,机器学习领域也在不断发展,但有些基础算法与核心思想的贡献是经得起时间考验的。 这六种算法分别是:线性回归、逻辑回归、梯度下降...
2024/12/31
人工智能数学基础 – 贝叶斯统计(Bayesian Statistics)
人工智能数学基础 – 贝叶斯统计(Bayesian Statistics)
【AI驱动】 一、贝叶斯统计的本质 频率学派与贝叶斯学派:频率学派强调通过大量数据揭示客观规律,而贝叶斯学派则注重结合先验知识与新数据来更新信念。 频率学派与贝叶斯学派 一、频率学派 基本观点: 世界是客观的,概率...
2024/12/31
神经网络算法 – 一文搞懂Gradient Descent(梯度下降)
神经网络算法 – 一文搞懂Gradient Descent(梯度下降)
【AI驱动】 梯度下降 一、梯度下降的本质 机器学习“三板斧”:选择模型家族,定义损失函数量化预测误差,通过优化算法找到最小化损失的最优模型参数。 机器学习 vs 人类学习 定义一个函数集合(模型选择) 目标:确定一个...
2024/12/31
1 9 10 11 12 13 52