KDD 2023 图神经网络方向论文总结

ACM SIGKDD(国际数据挖掘与知识发现大会,KDD)是数据挖掘领域历史最悠久、规模最大的国际顶级学术会议,也是首个引入大数据、数据科学、预测分析、众包等概念的会议。今年,第29届 KDD 大会在美国加州长滩举行,大会包含研究方向(Research)和应用数据科学方向(Applied Data Science,ADS)两个 track,共公布了8篇获奖论文。本文主要收集大会中与图神经网络相关的论文。

KDD23图神经网络

      • All in One: Multi-task Prompting for Graph Neural Networks(KDD最佳论文奖)
      • When to Pre-Train Graph Neural Networks? From Data Generation Perspective!
      • Improving Expressivity of GNNs with Subgraph-specific Factor Embedded Normalization
      • MGNN: Graph Neural Networks Inspired by Distance Geometry Problem
      • Localised Adaptive Spatial-Temporal Graph Neural Network
      • Pyramid Graph Neural Network: A Graph Sampling and Filtering Approach for Multi-scale Disentangled Representations
      • Multiplex Heterogeneous Graph Neural Network with Behavior Pattern Modeling
      • Clenshaw Graph Neural Networks
      • A Data-centric Framework to Endow Graph Neural Networks with Out-Of-Distribution Detection Ability
      • Frigate: Frugal Spatio-temporal Forecasting on Road Networks
      • Graph Neural Processes for Spatio-Temporal Extrapolation
      • Leveraging Relational Graph Neural Network for Transductive Model Ensemble
      • Task-Equivariant Graph Few-shot Learning

All in One: Multi-task Prompting for Graph Neural Networks(KDD最佳论文奖)

标题:All in One: 多任务提示用于图神经网络
地址:https://doi.org/10.1145/3580305.3599256
关键词:pre-training; prompt tuning; graph neural networks

背景:最近,"预训练和微调"已被采用为许多图任务的标准工作流,因为它可以使用通用的图知识来缓解每个应用程序的图注释的缺乏。然而,节点级、边级和图级的图任务非常多样化,使得预训练伪装往往与这些多任务不兼容。这种差距甚至可能导致对特定应用的“负迁移”,导致较差的结果。受自然语言处理(NLP)中的快速学习(在利用先验知识于各种NLP任务中表现出显著有效性)的启发,本文研究了图的提示主题,以填补预训练模型和各种图任务之间的空白
在这里插入图片描述

内容:本文提出了一种新颖的图模型多任务提示方法。首先,将图形提示和语言提示的格式与提示词、标记结构和插入模式统一起来。通过这种方式,NLP的提示思想可以无缝地引入到图形领域。为了进一步缩小各种图任务和最先进的预训练策略之间的差距,进一步研究了各种图应用的任务空间,并将下游问题重新表述为图级任务引入元学习,有效地为图的多任务提示学习更好的初始化,使提示框架对不同的任务更加可靠和通用。
在这里插入图片描述

When to Pre-Train Graph Neural Networks? From Data Generation Perspective!

标题:何时对图神经网络进行预训练?从数据生成的角度!
地址:https://doi.org/10.1145/3580305.3599548
关键词:graph neural networks, graph pre-training

背景:近年来,图预训练获得了极大的关注,专注于从无标签图数据中获取可迁移知识,以提高下游性能。尽管最近做出了这些努力,但在将图预训练模型用于下游任务时,负迁移问题仍然是一个主要问题。之前的研究通过设计各种图的预训练和微调策略,在预训练什么和如何预训练的问题上做了大量的工作。然而,在某些情况下,即使是最先进的“预训练和微调”范式也无法产生明显的好处。本文介绍了一个通用框架W2PGNN,以回答在进行努力的预训练或微调之前,何时进行预训练(即在什么情况下可以利用图预训练)的关键问题。
在这里插入图片描述
内容:本文从一个新的角度出发,探索从预训练数据到下游数据的复杂生成机制。特别是,W2PGNN首先将预训练数据拟合到图函数集合(graphon bases)中,图函数集合的每个元素(graphon basis)识别预训练图集合共享的基本可转移模式。图函数集合的所有凸组合产生一个生成器空间,从中生成的图形成可以从预训练中受益的下游数据的解空间。通过这种方式,预训练的可行性可以被量化为生成器空间中任何生成器的下游数据的生成概率。W2PGNN提供了三个广泛的应用:提供图预训练模型的应用范围,量化预训练的可行性,以及帮助选择预训练数据以提高下游性能
在这里插入图片描述

Improving Expressivity of GNNs with Subgraph-specific Factor Embedded Normalization

标题:利用子图特定因子嵌入归一化提高GNN的表达性
地址:https://doi.org/10.1145/3580305.3599388
关键词:graph neural networks, graph normalization, subgraph-specific factor, graph isomorphism test, oversmoothing issue

背景:图神经网络(gnn)已经成为一种强大的学习架构类别,用于处理图结构数据。然而,现有的图神经网络通常忽略了节点诱导子图中的关键结构特征,从而限制了它们对各种下游任务的表达能力。

内容:本文努力通过设计一种专用的即插即用规范化方案,称为子图特定因子嵌入规范化(SuperNorm),明确考虑每个节点诱导子图内的连接信息,来加强gnn的代表性能力。在标准批处理规范的开始和结束处嵌入子图特定的因子,以及合并图实例特定的统计信息,以改进可区分能力。同时,本文提供了理论分析来支持,在阐述的超范数下,任意GNN在区分非同构图方面至少与1-WL测试一样强大。此外,提出的超范数方案也被证明可以缓解过平滑现象

MGNN: Graph Neural Networks Inspired by Distance Geometry Problem

标题:MGNN:基于距离几何问题的图神经网络
地址:https://doi.org/10.1145/3580305.3599431
关键词:graph neural networks, distance geometry problem, metric matrix

背景:图神经网络(gnn)已经成为机器学习领域的一个重要研究课题。现有的GNN模型通常分为两类:基于多项式图滤波器设计的谱图神经网络(spectral GNN)和以消息传递方案为模型基础的空间图神经网络(spatial GNN)。为了提高谱图神经网络的表达能力和普适性,一种自然的方法是改进基函数的设计,以获得更好的逼近能力。对于空间图神经网络,图同构网络(GIN)等模型基于图同构测试来分析其表达能力。最近,有人试图在空间gnn和几何概念(如曲率和细胞束)以及物理现象(如振荡器)之间建立联系。然而,尽管最近取得了一些进展,但仍缺乏从几何和物理角度全面分析空间图神经网络的普适性。

在这里插入图片描述

内容:本文中提出了 MetricGNN (MGNN),这是一种空间 GNN 模型,其灵感来自于 GNN 分类阶段分类器的全等不敏感特性。 本文证明,如果 GNN 模型能够生成与任何给定嵌入矩阵一致的嵌入矩阵,那么它在空间域中是通用的。 该性质与距离几何问题(DGP)密切相关。 由于 DGP 是一个 NP-Hard 组合优化问题,因此本文建议优化由弹簧网络和多维尺度(MDS)问题导出的能量函数。 这种方法还允许我们的模型处理同质图和异质图。 最后,本文建议采用迭代方法来优化我们的能量函数。

Localised Adaptive Spatial-Temporal Graph Neural Network

标题:局部自适应时空图神经网络
地址:https://doi.org/10.1145/3580305.3599418
关键词:graph sparsification, spatial-temporal graph neural network, spatialtemporal data

背景:时空图模型是对空间和时间依赖关系进行抽象和建模的主流模型。本文提出以下问题:我们是否以及在多大程度上可以局部化时空图模型?本文将研究范围限制在自适应时空图神经网络(ASTGNNs),即最先进的模型架构。定位方法涉及对空间图邻接矩阵进行稀疏化

在这里插入图片描述
内容本文探讨了局部自适应时空图神经网络(ASTGNNs)的可行性和程度。作者提出了一种名为自适应图稀疏化(AGS)的图稀疏化算法,成功地实现了ASTGNNs的局部化,甚至可以完全局部化,变成只关注时间关系。作者将AGS应用于两种不同的ASTGNN架构和九个时空数据集上,发现即使对ASTGNNs进行超过99.5%的稀疏化,测试准确率也没有下降。此外,ASTGNNs的局部化有可能减少大规模时空数据所需的大量计算开销,进一步实现ASTGNNs的分布式部署

Pyramid Graph Neural Network: A Graph Sampling and Filtering Approach for Multi-scale Disentangled Representations

标题:金字塔图神经网络:一种多尺度解纠缠表示的图采样和滤波方法
地址:https://doi.org/10.1145/3580305.3599478
关键词:Graph Neural Networks, Spectral Graph Theory, Graph Algorithms

背景:图神经网络(gnn)的谱方法已经取得了巨大的成功。尽管取得了成功,但许多工作表明,现有方法主要集中在低频信息,可能与手头的任务无关。最近,人们努力为更广泛的频率剖面设计新的图滤波器,但如何学习图傅立叶域中的多尺度解缠节点嵌入仍然是一个开放问题
在这里插入图片描述

内容:本文提出了一种图(信号)采样和滤波框架,命名为金字塔图神经网络(PyGNN),遵循下采样-滤波-上采样-解码的方案。提出𝜔−带限下采样方法将输入图分割为子图以减少高频成分,然后在子图上进行谱图滤波器以实现不同频带的节点嵌入,并提出基于拉普拉斯平滑的上采样方法来将子图上的节点嵌入外推到原始图上的全部顶点集。最后,加入频率感知门控单元,为下游任务解码不同频率的节点嵌入。在同构图和异构图数据集上的结果表明,所提出的PyGNN模型在节点分类方面可以超过许多最先进的基线。

在这里插入图片描述

Multiplex Heterogeneous Graph Neural Network with Behavior Pattern Modeling

标题:基于行为模式建模的多路异构图神经网络
地址:https://doi.org/10.1145/3580305.3599441
关键词:Graph Representation Learning; Multiplex Heterogeneous Networks; Graph Neural Networks; Basic Behavior Pattern

背景:异构图神经网络在处理异构网络数据的各种网络分析任务中获得了广泛的应用。然而,现有工作主要关注一般的异构网络,并假设两个节点之间只存在一种类型的边,而忽略了多元异构网络中多类型节点之间的多元特性以及节点之间多元结构的不同重要性,从而进行节点嵌入。此外,图神经网络的过平滑问题限制了现有模型只能捕获局部结构信号,而难以学习网络的全局相关信息
在这里插入图片描述

内容:本文提出了一种基于行为模式的异构图神经网络模型(Behavior Pattern based Heterogeneous Graph Neural Network, BPHGNN)。具体而言,BPHGNN通过深度行为模式聚合和广度行为模式聚合,从局部和全局的角度自适应地学习多异构网络中具有不同多结构节点之间的节点表示。在6个真实网络上进行的实验表明,BPHGNN在各项评价指标上均明显优于现有方法。
在这里插入图片描述

Clenshaw Graph Neural Networks

标题:克伦肖图神经网络
地址:https://doi.org/10.1145/3580305.3599275
关键词:Graph Neural Networks, Residual Connection, Graph Polynomial
Filter

背景:图卷积网络(GCNs)使用具有堆叠卷积层的消息传递范式,是学习图表示的基本空间方法。从图卷积的谱角度来看,在异质图上具有优势的多项式滤波器的动机不同。最近的空间GCN模型使用各种残差连接技术来缓解模型退化问题,如过平滑和梯度消失。然而,目前的残差连接并没有有效利用多项式滤波器的全部潜力,而多项式滤波器通常用于GNN的谱域

在这里插入图片描述
内容:本文提出ClenshawGCN,一种GNN模型,通过一个简单的Clenshaw残差连接子模块将光谱模型的特性注入到空间模型中,Clenshaw残差连接本质上是一个二阶负残差与初始残差相结合。由于具有Clenshaw残差的堆叠(空间)卷积的迭代过程可以用Clenshaw求和算法来解释,因此ClenshawGCN隐式地模拟了Chebyshev基下的任意多项式滤波器

A Data-centric Framework to Endow Graph Neural Networks with Out-Of-Distribution Detection Ability

标题:赋予图神经网络分布外检测能力的以数据为中心的框架
地址:https://doi.org/10.1145/3580305.3599244
关键词:Graph Neural Networks, Out-of-distribution Detection

背景:分布外(OOD)检测是机器学习中的一个重要问题,旨在在测试时间内从分布内(ID)中识别出OOD样本。然而,现有工作主要针对欧氏数据,在图结构数据上的问题仍未得到充分探索。最近的一些工作开始研究图OOD检测,但它们都需要从头训练图神经网络(GNN),计算成本很高。本文首次尝试赋予一个训练有素的GNN OOD检测能力,而不修改其参数
在这里插入图片描述

内容:本文设计了一种带有自适应放大器的面向图OOD检测的事后框架AAGOD,专注于以数据为中心的操作。AAGOD的思想是在每个原始输入图的邻接矩阵上叠加一个参数化放大器矩阵放大器可以被认为是一种prompt,期望能够帮助模型关注到图OOD检测的关键模式,从而扩大OOD图和ID图之间的差距。借此便可以重复使用已有的GNN将强化后的图编码为向量,预定义的评分函数进一步将表示转换成检测分数。设计了一个可学习的放大器生成器(LAG)来为不同的图定制放大器,并提出了一种正则化学习策略(RLS)来训练参数,不需要OOD数据。

在这里插入图片描述

Frigate: Frugal Spatio-temporal Forecasting on Road Networks

标题:护卫舰:道路网络的节俭时空预测
地址:https://doi.org/10.1145/3580305.3599357
关键词:spatio-temporal prediction, graph neural networks, road networks

背景:对道路网络的时空过程进行建模是一项日益重要的任务。虽然在开发时空图神经网络(GNN)方面取得了重大进展,但现有工作是建立在3个在真实世界道路网络上不实际的假设基础上的。首先,他们假设在道路网络的每个节点上进行感知。在现实中,由于预算限制或传感器故障,可能所有位置(节点)都没有配备传感器。其次,它们假设所有安装的传感器都有感知历史。由于传感器故障、通信过程中的数据包丢失等原因,这也是不现实的。最后,给出了静态路网的假设。由于道路封闭、新道路建设等原因,网络内的连通性发生变化。

在这里插入图片描述
内容:本文开发护卫舰(Frigate)来解决所有这些缺点。Frigate由时空GNN提供动力,将位置、拓扑和时间信息集成到丰富的归纳节点表示中。通过门控Lipschitz嵌入与lstm的新组合,使这种多样化信息的联合融合成为可能。所提出的GNN架构比最先进算法中使用的消息传递GNN更具表达力。Frigate较高的表达能力自然转化为在现实世界网络受限的流量数据上进行的优越的经验性能。此外,Frigate对低成本的传感器部署、路网连通性的变化以及感知的时间不规则性具有鲁棒性

Graph Neural Processes for Spatio-Temporal Extrapolation

标题:图神经过程的时空外推
地址:https://doi.org/10.1145/3580305.3599372
关键词:Spatio-temporal data mining, neural processes, data extrapolation

背景:收集数据的传感器部署稀疏,导致由于高部署和维护成本而缺乏细粒度信息。现有方法要么使用基于学习的模型(如神经网络),要么使用统计方法(如高斯过程)来完成这项任务。然而,前者缺乏不确定性估计,后者无法有效捕捉复杂的空间和时间相关性。

内容:本文提出时空图神经过程(STGNP),一种同时控制这些能力的神经潜变量模型。首先通过堆叠因果卷积层和跨集图神经网络来学习确定性的时空表示。然后,通过沿层的垂直潜状态转换来学习目标位置的潜变量,并获得外推。在过渡过程中,本文提出了图贝叶斯聚合(GBA),一种考虑到上下文数据和图结构的不确定性的贝叶斯图聚合器,可以聚合上下文。广泛的实验表明,STGNP具有理想的性质,如不确定性估计和强大的学习能力,并以明显的优势取得了最先进的结果。

Leveraging Relational Graph Neural Network for Transductive Model Ensemble

标题:利用关系图神经网络实现转导模型集成
地址:https://doi.org/10.1145/3580305.3599414
关键词:graph neural networks, transfer learning, information bottlenecks

背景传统的预训练、微调和集成方法往往忽略了基本的关系数据和任务之间的联系。为解决这一差距,本文提出一种新方法,通过基于关系图的模型来利用这种关系信息。
在这里插入图片描述
内容:本文提出RAMBLE(关系图模型集成),一种基于关系图的模型,旨在从多个预训练模型中提取特定任务的知识。RAMBLE生成一个关系图,封装了多个预训练模型之间的任务和数据关系。该方法通过直推式地利用所有有标签和无标签的数据样本和任务信息,实现对关系信息的有效建模,从而提高目标任务的性能。为了减轻噪声的影响,采用一种新的变分信息瓶颈引导的嵌入融合和聚合方案,生成针对目标任务优化的信息融合嵌入

Task-Equivariant Graph Few-shot Learning

标题:等变任务图少样本学习
地址:https://doi.org/10.1145/3580305.3599515
关键词:Node Classification; Few-shot Learning; Graph Neural Networks; Equivariant Neural Networks

背景:尽管图神经网络(GNNs)在节点分类任务中取得了成功,但其性能在很大程度上依赖于每个类别有足够数量的标记节点。在现实世界中,并不是所有的类都有许多标记的节点,并且可能存在模型需要分类新类别的情况,使得手动标记变得困难。为了解决这个问题,对于gnn来说,能够用有限数量的标记节点对节点进行分类是很重要的,这称为少样本节点分类。之前基于情景元学习的方法已经在少样本节点分类中取得了成功,但我们的发现表明,只有在大量不同的训练元任务下才能实现最佳性能。
在这里插入图片描述

内容:为解决基于元学习的少样本学习(FSL)的这一挑战,本文提出一种新方法,即任务等变图少样本学习(TEG)框架。TEG框架使模型能够使用有限数量的训练元任务学习可迁移的任务适应策略,使其能够为广泛的元任务获取元知识。通过引入等变神经网络,TEG可以利用其强大的泛化能力来学习高度自适应的特定任务策略。因此,TEG在有限的训练元任务上实现了最先进的性能。在各种基准数据集上的实验表明,即使在使用最小元训练数据时,TEG也在精度和泛化能力方面具有优越性,突出了所提出方法在解决基于元学习的少样本节点分类挑战方面的有效性。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://xiahunao.cn/news/2808706.html

如若内容造成侵权/违法违规/事实不符,请联系瞎胡闹网进行投诉反馈,一经查实,立即删除!

相关文章

YOLO如何训练自己的模型

目录 步骤 一、打标签 二、数据集 三、跑train代码出模型 四、跑detect代码出结果 五、详细操作 步骤 一、打标签 (1)在终端 pip install labelimg (2)在终端输入labelimg打开 如何打标签: 推荐文章&#xf…

【初始RabbitMQ】延迟队列的实现

延迟队列概念 延迟队列中的元素是希望在指定时间到了之后或之前取出和处理消息,并且队列内部是有序的。简单来说,延时队列就是用来存放需要在指定时间被处理的元素的队列 延迟队列使用场景 延迟队列经常使用的场景有以下几点: 订单在十分…

蓝桥杯备战刷题(自用)

1.被污染的支票 #include <iostream> #include <vector> #include <map> #include <algorithm> using namespace std; int main() {int n;cin>>n;vector<int>L;map<int,int>mp;bool ok0;int num;for(int i1;i<n;i){cin>>nu…

Redis实现滑动窗口限流

常见限流算法 固定窗口算法 在固定的时间窗口下进行计数&#xff0c;达到阈值就拒绝请求。固定窗口如果在窗口开始就打满阈值&#xff0c;窗口后半部分进入的请求都会拒绝。 滑动窗口算法 在固定窗口的基础上&#xff0c;窗口会随着时间向前推移&#xff0c;可以在时间内平滑控…

HUAWEI Programming Contest 2024(AtCoder Beginner Contest 342)

D - Square Pair 题目大意 给一长为的数组&#xff0c;问有多少对&#xff0c;两者相乘为非负整数完全平方数 解题思路 一个数除以其能整除的最大的完全平方数&#xff0c;看前面有多少个与其余数相同的数&#xff0c;两者乘积满足条件&#xff08;已经是完全平方数的部分无…

C#,动态规划(DP)模拟退火(Simulated Annealing)算法与源代码

1 模拟退火 *问题:**给定一个成本函数f:r^n–>r*&#xff0c;找到一个 n 元组&#xff0c;该元组最小化 f 的值。请注意&#xff0c;最小化函数值在算法上等同于最大化(因为我们可以将成本函数重新定义为 1-f)。 很多有微积分/分析背景的人可能都熟悉单变量函数的简单优化。…

深度学习手写字符识别:推理过程

说明 本篇博客主要是跟着B站中国计量大学杨老师的视频实战深度学习手写字符识别。 第一个深度学习实例手写字符识别 深度学习环境配置 可以参考下篇博客&#xff0c;网上也有很多教程&#xff0c;很容易搭建好深度学习的环境。 Windows11搭建GPU版本PyTorch环境详细过程 数…

万字长文带你由浅入深夯实ARM汇编基础——汇编指令及寻址方式最全梳理(附示例)!

《嵌入式工程师自我修养/C语言》系列——由浅入深夯实ARM汇编基础&#xff0c;汇编指令及寻址方式梳理&#xff08;附示例&#xff09;&#xff01; 一、引言二、ARM汇编语言2.1 ARM汇编的特点2.2 ARM指令集格式标准2.2.1 机器指令格式2.2.2 汇编指令格式 三、ARM寻址方式3.1 立…

如何做到三天内完成智能直流伺服电机系统开发?

适应EtherCAT/CANopen协议三相伺服电机直流伺服电机直线伺服音圈电机 如何开发高性能直流伺服电机驱动控制器&#xff1f; 需要熟悉高性能单片机&#xff08;至少是ARM或DSP水平的&#xff09;&#xff0c;需要掌握空间磁场矢量控制FOC&#xff0c;需要掌握运动轨迹算法……此…

谁是单身狗?——C语言刷题

创造不易&#xff0c;可以点点赞吗~ 如有错误&#xff0c;欢迎指出~ 单身狗1 题述 在一个整型数组中&#xff0c;只有一个数字出现一次&#xff0c;其他数组都是成对出现的&#xff0c;请找出那个只出现一次的数字。 例如&#xff1a; 数组中有&#xff1a;1 2 3 4 5 1 2 3 4&a…

FairyGUI × Cocos Creator 3.7.3 引入报错解决

Cocos Creator 3.7.3引入fgui库 package.json添加这个依赖 "devDependencies": {"fairygui-cc": "latest"}执行npm i 报错解决 使用import引入fairygui-cc&#xff0c;就会有报错和警告&#xff0c;简单处理一下。 鼠标随便点一下也会出警告…

2024“薪”风口、学习鸿蒙开发就业钱景如何?

随着华为的鸿蒙系统从诞生之初就备受关注&#xff0c;对于那些对鸿蒙开发感兴趣并希望在这一领域寻找职业发展的人来说&#xff0c;这是一个非常重要的问题。 那么&#xff0c;2024年学鸿蒙开发的就业前景如何呢&#xff1f; 一、彻底摆脱“安卓套壳”&#xff01; HarmonyO…

天拓四方:工业智能网关如何助力企业实现智能制造升级

工业智能网关是一种具备数据处理、通信转换和智能控制功能的硬件设备。它能够采集来自不同传感器和执行器的数据&#xff0c;通过标准化协议将数据上传到云端或本地服务器进行分析处理&#xff0c;并实现对设备的远程监控和控制。同时&#xff0c;工业智能网关还具备强大的数据…

靡语IT:JavaScript数组

目录 1.数组&#xff1a;Array 2.Array.length 3.数组的声明(创建)方法 4.数组去重 5.数组遍历 6.类数组对象 1.数组&#xff1a;Array 数组对象的作用是&#xff1a;使用单独的变量名来存储一系列的值。 参数 参数 size 是期望的数组元素个数。返回的数组&#xff0…

抖音视频提取软件怎么用|抖音数据抓取工具

针对用户获取抖音视频的需求&#xff0c;我们开发了一款功能强大的抖音视频提取软件&#xff0c;旨在帮助用户轻松获取他们感兴趣的视频内容。无需逐个复制链接&#xff0c;无需繁琐的下载步骤&#xff0c;我们的软件让抖音视频获取变得简单快捷。 使用我们的软件非常简单&…

深入探究Nginx的使用方法

目录 引言 一、网络状态页 二、Nginx 第三方模块 三、变量 &#xff08;一&#xff09;内置变量 &#xff08;二&#xff09;自定义变量 四、自定义日志 &#xff08;一&#xff09;有关日志的配置信息 &#xff08;二&#xff09;error日志的设置 1.日志的等级 2.自…

Python循环结构你学会了吗?

1.while 循环 需求&#xff1a;输出 10 遍的 今天天气不错 python 中的循环分为 while 循环和 for 循环 """ while 循环的基础语法&#xff1a; 1.初始化的表达式 while 2.条件表达式循环体&#xff08;重复执行的程序&#xff09;3.更新条件执行流程&#x…

我是如何深入学习理解Linux权限的,答案就在这里。

目录 1. shell命令以及运行原理2. Linux权限的概念3.Linux权限管理01.文件访问者的分类&#xff08;三种人&#xff09;02.文件类型和访问权限&#xff08;事物属性&#xff09;(1)文件类型 03.文件权限值的表示方法a)字符表示方法&#xff08;三三为一组&#xff09;b)8进制数…

市场复盘总结 20240223

仅用于记录当天的市场情况&#xff0c;用于统计交易策略的适用情况&#xff0c;以便程序回测 短线核心&#xff1a;不参与任何级别的调整&#xff0c;采用龙空龙模式 一支股票 10%的时候可以操作&#xff0c; 90%的时间适合空仓等待 二进三&#xff1a; 进级率中 57% 最常用的…

python 运算符总结

什么是运算符 什么是运算符? 先看如下示例 549 例子中&#xff0c;4 和 5 被称为操作数&#xff0c; 称为运算符。 而Python 语言支持以下类型的运算符: 算术运算符比较&#xff08;关系&#xff09;运算符赋值运算符逻辑运算符位运算符成员运算符身份运算符运算符优先级 …