时空图神经网络原理及Pytorch实现
2024/12/30
在我们周围的各个领域,从分子结构到社交网络,再到城市设计结构,到处都有相互关联的图数据。图神经网络(GNN)作为一种强大的方法,正在用于建模和学习这类数据的空间和图结构。它已经被应用于蛋白质结构和其他分子应用,例如药物发现,以及模拟系统,如...
Mamba、RNN及Transformer的模型架构!可视化对比!
【AI驱动】
Transformer体系结构已经成为大型语言模型(llm)成功的主要组成部分。为了进一步改进[llm]( 是关键任务之一,具有广泛的应用,如人体活动识别和系统监测等。近年来,深度学习在TSC领域逐渐受到关注,具有自动从原始时间序列数据中学习并抽取有意义特征的能力。 本文首先...
2024/12/30
Transformer+时间序列预测实战(Python)
【AI驱动】
概率预测 通常,经典方法针对数据集中的每个时间序列单独拟合。然而,当处理大量时间序列时,在所有可用时间序列上训练一个“全局”模型是有益的,这使模型能够从许多不同的来源学习潜在的表示。 深度学习非常适合训练 全局概率模型...
2024/12/30
实例解析神经网络的工作原理
【AI驱动】
在机器学习和相关领域,人工神经网络的计算模型灵感正是来自生物神经网络:每个神经元与其他神经元相连,当它兴奋时,就会像相邻的神经元发送化学物质,从而改变这些神经元内的电位;如果某神经元的电位超过了一个阈值,那么它就会被激活(兴奋),向其他神经...
2024/12/30
图神经网络研究综述(GNN)
【日积月累】
图神经网络由于其在处理非欧空间数据和复杂特征方面的优势,受到广泛关注并应用于推荐系统、知识图谱、交通道路分析等场景。 大规模图结构的不规则性、节点特征的复杂性以及训练样本的依赖性给图神经网络模型的计算效率、内存管理以及分布式系统中的通...
2024/12/30
逻辑回归优化技巧总结(全)
【AI驱动】
一、LR的特征生成 逻辑回归是简单的广义线性模型,模型的拟合能力很有限,无法学习到特征间交互的非线性信息:一个经典的示例是LR无法正确分类非线性的XOR数据,而通过引入非线性的特征(特征生成),可在更高维特征空间实现XOR线性可分,如...
2024/12/30
机器学习数据不满足同分布,怎么整?
【日积月累】
机器学习作为一门科学,不可避免的是,科学本身是基于归纳得到经验总结,必然存在历史经验不适用未来的情况(科学必可证伪)。这里很应景地讲一个小故事--By 哲学家罗素: 农场有一群火鸡,农夫每天来给它们喂食。经过长期观察后,一只火...
2024/12/30
机器学习数据工程的概述
【AI驱动】
0 前言 吴恩达:过去十年,人工智能最大的转变是深度学习,而接下来的十年,我认为会转向以数据为中心Data-centric Artificial Intelligence(DCAI)。随着神经网络架构的成熟,对于许多实际...
2024/12/30
如何解释机器学习模型的决策?(Python)
【AI驱动】
机器学习模型变得越来越复杂和准确,但它们的不透明性仍然是一个重大挑战。理解为什么一个模型会做出特定的预测,对于建立信任和确保它按照预期行事至关重要(扩展阅读:机器学习模型可解释性的综述)。在本文中,我们将介绍LIME,并使用它来解释各种常见...
2024/12/30
11个机器学习的高级可视化图表
【AI驱动】
可视化对于理解复杂的数据模式和关系至关重要,它们在数据分析中发挥着至关重要的作用,提供了通常难以从原始数据或传统数字表示中辨别出来的见解。我们将介绍11个机器学习最重要和必须知道的图表,这些图表有助于揭示数据中的信息,使复杂数据更加可理解和...
2024/12/30
图神经网络(GNN)和神经网络的关系
【AI驱动】
1 介绍 深度神经网络由神经元组成,组织成层并相互连接,通过计算图捕捉其架构,其中神经元表示为节点,有向边连接不同层神经元。神经网络性能取决于其架构,但目前对神经网络精度与底层图结构之间的关系尚缺乏系统理解。这直接影响到设...
2024/12/30
挑战Transformer!Mamba的架构及实现(Pytorch)
【AI驱动】
__Mamba一经出现就在人工智能界掀起波澜,被吹捧为[Transformer]( 今天我们来详细研究这篇论文《Mamba:具有选择性状态空间的线性时间序列建模》 
【AI驱动】
上文我们介绍了OpenAI Sora 文生视频模型再次震撼了AI 圈,并提到了Sora模型实际上是一个扩散模型+Transformer,本文继续讲述扩散模型的发展、原理及代码实践。 扩散模型的导火索,是始于2020 年所提出的...
2024/12/30
搜索文章
热门话题