julia语言中的决策树

  决策树(Decision Tree)是一种基本的分类与回归方法,它呈现出一种树形结构,可以直观地展示决策的过程和结果。在决策树中,每个内部节点表示一个属性上的判断条件,每个分支代表一个可能的属性值,每个叶节点代表一个类别或者具体的数值。决策树的主要优点是模型具有可读性,分类速度快。

主要算法

构建决策树的主要算法有ID3、C4.5、CART等。这些算法的主要区别在于如何选择最优划分属性。

ID3算法

  以信息增益为准则来选择划分属性。信息增益表示得知特征A的信息而使得类Y的信息不确定性减少的程度。

C4.5算法

  是ID3算法的改进,采用信息增益比来选择划分属性,克服了ID3算法偏向选择取值多的属性的缺点。

CART算法

  既可以用于分类也可以用于回归。CART分类时,使用基尼指数(Gini index)最小化准则来选择划分属性;CART回归时,使用平方误差最小化准则来选择划分属性。

算法公式 

信息熵(Entropy)

  信息熵是度量样本集合纯度最常用的一种指标。它表示随机变量不确定性的度量,也就是数据的混乱程度。信息熵越大,数据的混乱程度越高;信息熵越小,数据的纯度越高。

公式:Ent(S) = -\sum_{k=1}^{n} p_k \log_{2} p_{k}

S是当前样本集合。

p_{k}是集合中第 k类样本所占的比例。

n是类别的总数。

信息熵是通过计算每个类别的概率与其对应的信息量-\log_{2} p_{k}的加权和来得到的。如果所有样本都属于同一类别,则信息熵为0,表示数据完全纯净。

信息增益(Information Gain)

  信息增益表示在得知特征A的信息后,使得类y的信息不确定性减少的程度,它衡量了使用某个特征进行划分后,数据的混乱程度降低了多少,正确的信息增益基于特征 A对数据集 S进行划分后,集合 S的信息熵与划分后各子集信息熵的加权和之差。

公式:Gain(A) = Ent(S) - \sum_{v \in Values(A)} \frac{|S_v|}{|S|} Ent(S_v)

A是待考察的特征。

Values(A)是特征 A所有可能取值的集合。

S_{v}是集合 S 中特征 A 取值为 v 的子集。

|S_{v}| 和 |S|分别表示集合 S_v 和 S 的元素数量。

信息增益比(Information Gain Ratio)

  信息增益比是为了校正信息增益容易偏向于选择取值较多的特征的问题而提出的。它通过引入一个称为分裂信息熵的项来惩罚取值较多的特征。

SplitEntropy(A) = -\sum_{v \in Values(A)} \frac{|S_v|}{|S|} \log_{2} \frac{|S_v|}{|S|}

信息增益比则是信息增益与分裂信息熵的比值:

GainRatio(A) = \frac{Gain(A)}{SplitEntropy(A)}

分裂信息熵衡量了按照特征 A进行划分时产生的信息量的多少。将其与信息增益结合使用,可以平衡特征取值多少对选择的影响。

基尼指数(Gini Index)

  基尼指数是另一种度量数据混乱程度的指标。与信息熵类似,基尼指数越小,数据的纯度越高。

Gini(S) = 1 - \sum_{k=1}^{n} p_k^2

基尼指数通过从1中减去每个类别的概率的平方和来计算。当所有样本都属于同一类别时,基尼指数为0。当类别分布均匀时,基尼指数达到最大值1 - \frac{1}{n}对于 n个类。因此,基尼指数越小,表示集合中被选中的样本被分错的概率越小,即集合的纯度越高。

 构建决策树

决策树的构建通常包括以下几个步骤:

特征选择

  从训练数据的特征集合中选择一个特征作为当前节点的划分标准。按照所选特征的每一个取值,将训练数据集划分为若干子集,使得每个子集在当前特征上具有相同的取值。

决策树生成

  根据所选特征评估标准(如信息增益、信息增益比、基尼指数等),从根节点开始,递归地生成子节点。直到满足停止条件(如达到最大深度、所有样本属于同一类别、划分后的样本数小于预设阈值等)。

决策树剪枝

  为了避免过拟合,可以对决策树进行剪枝。剪枝分为预剪枝(在决策树生成过程中进行)和后剪枝(在决策树生成后进行)。通过剪枝,可以删除一些不必要的分支,使决策树更加简洁和高效。

分类与回归

  使用生成的决策树对新的数据进行分类或回归预测。从根节点开始,根据新数据的特征值,沿着决策树向下遍历,直到到达某个叶节点,该叶节点所代表的类别或数值即为预测结果。

 

使用Julia语言实现

  以下代码于 DecisionTree包  官方示例有进行修改,在使用前需安装DecisionTree包和ScikitLearn包、KnetMetrics包

# 加载 DecisionTree 软件包
using DecisionTree

分离 Fisher 的 Iris 数据集要素和标注

features, labels = load_data("iris")    # 同样可以查看 "adult" 和 "digits" 数据集  # 加载的数据类型是 Array{Any}  
# 为了获得更好的性能,将它们转换为具体的类型  
features = float.(features)  
labels   = string.(labels)
修剪树分类器
# 训练一个深度受限的分类器  
model = DecisionTreeClassifier(max_depth=2)  
fit!(model, features, labels)  
# 以美观的格式打印决策树,深度为 5 个节点(可选)  
print_tree(model, 5)  
# 应用已训练的模型  
predict(model, [5.9,3.0,5.1,1.9])  
# 获取每个标签的概率  
predict_proba(model, [5.9,3.0,5.1,1.9])  
println(get_classes(model)) # 返回 predict_proba 输出中的列顺序  
# 在 3 折交叉验证上运行  
# 请查看 ScikitLearn.jl 了解安装说明  
using ScikitLearn.CrossValidation: cross_val_score  
accuracy = cross_val_score(model, features, labels, cv=3)

 输出决策树

原生API

决策树分类器
using KnetMetrics
using DecisionTreefeatures, labels = load_data("iris")    # 同样可以查看 "adult" 和 "digits" 数据集  # 加载的数据类型是 Array{Any}  
# 为了获得更好的性能,将它们转换为具体的类型  
features = float.(features)  
labels   = string.(labels)# 训练完整的决策树分类器  
model = build_tree(labels, features)  # 修剪决策树:合并纯度大于等于90%的叶子节点(默认值为100%)  
# 这里的纯度指的是节点中样本属于同一类别的比例  
model = prune_tree(model, 0.9)  # 以美观的格式打印决策树,深度为5个节点(可选)  
# 这有助于我们可视化决策树的结构和决策过程  
print_tree(model, 5)  # 应用已训练的模型进行预测  
apply_tree(model, [5.9,3.0,5.1,1.9])  # 将模型应用于所有样本,得到预测结果  
preds = apply_tree(model, features)  # 生成混淆矩阵,以及准确率和Kappa分数  
# 混淆矩阵可以帮助我们了解模型的分类性能  
confusion_matrix(labels, preds)  # 获取每个标签的概率  
# 这对于需要了解分类置信度的场景很有用  
apply_tree_proba(model, [5.9,3.0,5.1,1.9], ["Iris-setosa", "Iris-versicolor", "Iris-virginica"])  # 对修剪后的决策树进行3折交叉验证  
# 交叉验证是一种评估模型性能的方法,可以帮助我们了解模型在未知数据上的表现  
n_folds = 3  
accuracy = nfoldCV_tree(labels, features, n_folds)  # 设置分类参数及其默认值  
# 这些参数可以控制决策树的构建和修剪过程,从而影响模型的性能  
# pruning_purity: 用于后修剪的纯度阈值(默认值:1.0,不进行修剪)  
# max_depth: 决策树的最大深度(默认值:-1,没有最大深度限制)  
# min_samples_leaf: 每个叶子节点所需的最小样本数(默认值:1)  
# min_samples_split: 进行分裂所需的最小样本数(默认值:2)  
# min_purity_increase: 分裂所需的最小纯度增加量(默认值:0.0)  
# n_subfeatures: 随机选择的特征数(默认值:0,保留所有特征)  
# rng: 使用的随机数生成器或种子(默认值:Random.GLOBAL_RNG)  
n_subfeatures = 0; max_depth = -1; min_samples_leaf = 1; min_samples_split = 2  
min_purity_increase = 0.0; pruning_purity = 1.0; seed = 3  # 使用指定的参数构建决策树分类器  
model = build_tree(labels, features,  n_subfeatures,  max_depth,  min_samples_leaf,  min_samples_split,  min_purity_increase;  rng = seed)  # 使用指定的参数进行n折交叉验证,并返回准确率  
# verbose参数设置为true可以打印出详细的验证过程信息  
accuracy = nfoldCV_tree(labels, features,  n_folds,  pruning_purity,  max_depth,  min_samples_leaf,  min_samples_split,  min_purity_increase;  verbose = true,  rng = seed)

输出模型

Feature 3 < 2.45 ?
├─ Iris-setosa : 50/50
└─ Feature 4 < 1.75 ?├─ Feature 3 < 4.95 ?├─ Iris-versicolor : 47/48└─ Feature 4 < 1.55 ?├─ Iris-virginica : 3/3└─ Feature 1 < 6.95 ?├─ Iris-versicolor : 2/2└─ Iris-virginica : 1/1└─ Feature 3 < 4.85 ?├─ Feature 1 < 5.95 ?├─ Iris-versicolor : 1/1└─ Iris-virginica : 2/2└─ Iris-virginica : 43/43
Fold 1
Classes:  ["Iris-setosa", "Iris-versicolor", "Iris-virginica"]
Matrix:   3×3 Matrix{Int64}:16   0   00  14   00   1  19
Accuracy: 0.98
Kappa:    0.9697702539298669Fold 2
Classes:  ["Iris-setosa", "Iris-versicolor", "Iris-virginica"]
Matrix:   3×3 Matrix{Int64}:18   0   00  12   30   3  14
Accuracy: 0.88
Kappa:    0.819494584837545Fold 3
Classes:  ["Iris-setosa", "Iris-versicolor", "Iris-virginica"]
Matrix:   3×3 Matrix{Int64}:16   0   00  19   20   0  13
Accuracy: 0.96
Kappa:    0.9393939393939393Mean Accuracy: 0.94Fold 1
Classes:  ["Iris-setosa", "Iris-versicolor", "Iris-virginica"]
Matrix:   3×3 Matrix{Int64}:19   0   00  15   20   2  12
Accuracy: 0.92
Kappa:    0.8790810157194682Fold 2
Classes:  ["Iris-setosa", "Iris-versicolor", "Iris-virginica"]
Matrix:   3×3 Matrix{Int64}:16   0   00  14   20   1  17
Accuracy: 0.94
Kappa:    0.9097472924187725Fold 3
Classes:  ["Iris-setosa", "Iris-versicolor", "Iris-virginica"]
Matrix:   3×3 Matrix{Int64}:15   0   00  17   00   0  18
Accuracy: 1.0
Kappa:    1.0Mean Accuracy: 0.9533333333333333
 随机森林分类器 
# 训练随机森林分类器  
# 使用2个随机特征,10棵树,每棵树使用0.5的样本比例,最大树深度为6  
model = build_forest(labels, features, 2, 10, 0.5, 6)  # 应用已学习的模型  
apply_forest(model, [5.9,3.0,5.1,1.9])  # 获取每个标签的概率  
apply_forest_proba(model, [5.9,3.0,5.1,1.9], ["Iris-setosa", "Iris-versicolor", "Iris-virginica"])  # 对森林进行3折交叉验证,每次分割使用2个随机特征  
n_folds=3; n_subfeatures=2  
accuracy = nfoldCV_forest(labels, features, n_folds, n_subfeatures)  # 分类参数及其默认值设置  
# n_subfeatures: 每次分割要考虑的随机特征数(默认值:-1,即特征数的平方根)  
# n_trees: 要训练的树的数量(默认值:10)  
# partial_sampling: 每棵树训练所需的样本比例(默认值:0.7)  
# max_depth: 决策树的最大深度(默认值:无最大限制)  
# min_samples_leaf: 每个叶子节点所需的最小样本数(默认值:5)  
# min_samples_split: 分割所需的最小样本数(默认值:2)  
# min_purity_increase: 分割所需的最小纯度增加量(默认值:0.0)  
# 关键字 rng: 使用的随机数生成器或种子(默认值:Random.GLOBAL_RNG)  
#              多线程森林必须使用Int类型的种子  
n_subfeatures=-1; n_trees=10; partial_sampling=0.7; max_depth=-1  
min_samples_leaf=5; min_samples_split=2; min_purity_increase=0.0; seed=3  model = build_forest(labels, features,  n_subfeatures,  n_trees,  partial_sampling,  max_depth,  min_samples_leaf,  min_samples_split,  min_purity_increase;  rng = seed)  accuracy = nfoldCV_forest(labels, features,  n_folds,  n_subfeatures,  n_trees,  partial_sampling,  max_depth,  min_samples_leaf,  min_samples_split,  min_purity_increase;  verbose = true,  rng = seed)

输出结果

Fold 1
Classes:  ["Iris-setosa", "Iris-versicolor", "Iris-virginica"]
Matrix:   3×3 Matrix{Int64}:15   0   00  18   10   1  15
Accuracy: 0.96
Kappa:    0.9396863691194209Fold 2
Classes:  ["Iris-setosa", "Iris-versicolor", "Iris-virginica"]
Matrix:   3×3 Matrix{Int64}:15   0   00  12   20   2  19
Accuracy: 0.92
Kappa:    0.877899877899878Fold 3
Classes:  ["Iris-setosa", "Iris-versicolor", "Iris-virginica"]
Matrix:   3×3 Matrix{Int64}:20   0   00  14   30   1  12
Accuracy: 0.92
Kappa:    0.878787878787879Mean Accuracy: 0.9333333333333332Fold 1
Classes:  ["Iris-setosa", "Iris-versicolor", "Iris-virginica"]
Matrix:   3×3 Matrix{Int64}:19   0   00  15   20   2  12
Accuracy: 0.92
Kappa:    0.8790810157194682Fold 2
Classes:  ["Iris-setosa", "Iris-versicolor", "Iris-virginica"]
Matrix:   3×3 Matrix{Int64}:16   0   00  13   30   1  17
Accuracy: 0.92
Kappa:    0.8795180722891568Fold 3
Classes:  ["Iris-setosa", "Iris-versicolor", "Iris-virginica"]
Matrix:   3×3 Matrix{Int64}:15   0   00  17   00   3  15
Accuracy: 0.94
Kappa:    0.9099099099099098Mean Accuracy: 0.9266666666666667
 自适应增强决策树桩分类器
# train adaptive-boosted stumps, using 7 iterations
model, coeffs = build_adaboost_stumps(labels, features, 7);
# apply learned model
apply_adaboost_stumps(model, coeffs, [5.9,3.0,5.1,1.9])
# get the probability of each label
apply_adaboost_stumps_proba(model, coeffs, [5.9,3.0,5.1,1.9], ["Iris-setosa", "Iris-versicolor", "Iris-virginica"])
# 对boosted stumps进行3折交叉验证,使用7次迭代
n_iterations=7; n_folds=3
accuracy = nfoldCV_stumps(labels, features,n_folds,n_iterations;verbose = true)

输出结果

old 1
Classes:  ["Iris-setosa", "Iris-versicolor", "Iris-virginica"]
Matrix:   3×3 Matrix{Int64}:18   0   00  15   00   4  13
Accuracy: 0.92
Kappa:    0.880239520958084Fold 2
Classes:  ["Iris-setosa", "Iris-versicolor", "Iris-virginica"]
Matrix:   3×3 Matrix{Int64}:17   0   00  17   20   0  14
Accuracy: 0.96
Kappa:    0.9399038461538461Fold 3
Classes:  ["Iris-setosa", "Iris-versicolor", "Iris-virginica"]
Matrix:   3×3 Matrix{Int64}:15   0   00  15   10   4  15
Accuracy: 0.9
Kappa:    0.8500299940011996Mean Accuracy: 0.9266666666666666

 

回归示例 
n, m = 10^3, 5
features = randn(n, m)
weights = rand(-2:2, m)
labels = features * weights

 回归树 

using DecisionTreefeatures, labels = load_data("iris")    # also see "adult" and "digits" datasetsn, m = 10^3, 5
features = randn(n, m)
weights = rand(-2:2, m)
labels = features * weights# 训练回归树  
model = build_tree(labels, features)  
# 应用已学习的模型  
apply_tree(model, [-0.9,3.0,5.1,1.9,0.0])  
# 运行3折交叉验证,返回决定系数(R^2)的数组  
n_folds = 3  
r2 = nfoldCV_tree(labels, features, n_folds)  # 回归参数集及其相应的默认值  
# pruning_purity: 用于后剪枝的纯度阈值(默认:1.0,不剪枝)  
# max_depth: 决策树的最大深度(默认:-1,无最大值)  
# min_samples_leaf: 每个叶子所需的最小样本数(默认:5)  
# min_samples_split: 分裂所需的最小样本数(默认:2)  
# min_purity_increase: 分裂所需的最小纯度(默认:0.0)  
# n_subfeatures: 随机选择的特征数(默认:0,保留所有)  
# 关键字 rng: 要使用的随机数生成器或种子(默认 Random.GLOBAL_RNG)  
n_subfeatures = 0; max_depth = -1; min_samples_leaf = 5  
min_samples_split = 2; min_purity_increase = 0.0; pruning_purity = 1.0 ; seed=3  model = build_tree(labels, features,  n_subfeatures,  max_depth,  min_samples_leaf,  min_samples_split,  min_purity_increase;  rng = seed)  r2 =  nfoldCV_tree(labels, features,  n_folds,  pruning_purity,  max_depth,  min_samples_leaf,  min_samples_split,  min_purity_increase;  verbose = true,  rng = seed)

输出结果

Fold 1
Mean Squared Error:     1.1192402911257475
Correlation Coeff:      0.9472838062763782
Coeff of Determination: 0.8971356247350447Fold 2
Mean Squared Error:     1.111874839232273
Correlation Coeff:      0.9348375925443003
Coeff of Determination: 0.8736744843129887Fold 3
Mean Squared Error:     1.183298319862818
Correlation Coeff:      0.9341422313248625
Coeff of Determination: 0.8705440012888646Mean Coeff of Determination: 0.8804513701122992Fold 1
Mean Squared Error:     1.0323579387631954
Correlation Coeff:      0.9422656678561453
Coeff of Determination: 0.8862358467110852Fold 2
Mean Squared Error:     1.0151297530543415
Correlation Coeff:      0.9447969369155476
Coeff of Determination: 0.8926327449004646Fold 3
Mean Squared Error:     1.085847261851617
Correlation Coeff:      0.9460144474841884
Coeff of Determination: 0.894208955983675Mean Coeff of Determination: 0.8910258491984083
 回归随机森林 
# 训练回归森林,使用2个随机特征,10棵树,
# 每个叶子平均5个样本,每棵树使用0.7的样本比例
model = build_forest(labels, features, 2, 10, 0.7, 5)
# apply learned model
apply_forest(model, [-0.9,3.0,5.1,1.9,0.0])
# run 3-fold cross validation on regression forest, using 2 random features per split
n_subfeatures=2; n_folds=3
r2 = nfoldCV_forest(labels, features, n_folds, n_subfeatures)#=
build_forest()函数的回归参数集及其相应的默认值
n_subfeatures: 每次分割要考虑的随机特征数(默认:-1,即特征数的平方根)
n_trees: 要训练的树的数量(默认:10)
partial_sampling: 每棵树训练所需的样本比例(默认:0.7)
max_depth: 决策树的最大深度(默认:无最大值)
min_samples_leaf: 每个叶子所需的最小样本数(默认:5)
min_samples_split: 分裂所需的最小样本数(默认:2)
min_purity_increase: 分裂所需的最小纯度(默认:0.0)
关键字 rng: 要使用的随机数生成器或种子(默认:Random.GLOBAL_RNG)
多线程森林必须使用Int类型的种子
=#n_subfeatures=-1; n_trees=10; partial_sampling=0.7; max_depth=-1
min_samples_leaf=5; min_samples_split=2; min_purity_increase=0.0; seed=3model = build_forest(labels, features,n_subfeatures,n_trees,partial_sampling,max_depth,min_samples_leaf,min_samples_split,min_purity_increase;rng = seed)r2 =  nfoldCV_forest(labels, features,n_folds,n_subfeatures,n_trees,partial_sampling,max_depth,min_samples_leaf,min_samples_split,min_purity_increase;verbose = true,rng = seed)

输出结果

Fold 1
Mean Squared Error:     1.3599903131498468
Correlation Coeff:      0.9515587356817066
Coeff of Determination: 0.8663047566031118Fold 2
Mean Squared Error:     1.3831299735363378
Correlation Coeff:      0.9477732726231708
Coeff of Determination: 0.8548766665136407Fold 3
Mean Squared Error:     1.3108585932358423
Correlation Coeff:      0.9444344709074005
Coeff of Determination: 0.856713400894658Mean Coeff of Determination: 0.8592982746704702Fold 1
Mean Squared Error:     1.3542680364781128
Correlation Coeff:      0.9470579766572528
Coeff of Determination: 0.8566121773382684Fold 2
Mean Squared Error:     1.3027839706551103
Correlation Coeff:      0.9472514130926669
Coeff of Determination: 0.8685137573058215Fold 3
Mean Squared Error:     1.0809211711553741
Correlation Coeff:      0.9587274410123069
Coeff of Determination: 0.8851291475337838Mean Coeff of Determination: 0.8700850273926246
 保存模型

模型可以保存到磁盘,并使用 JLD2.jl 包重新加载。 

using JLD2
@save "model_file.jld2" model

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://xiahunao.cn/news/2871657.html

如若内容造成侵权/违法违规/事实不符,请联系瞎胡闹网进行投诉反馈,一经查实,立即删除!

相关文章

Mybatis-xml映射文件与动态SQL

xml映射文件 动态SQL <where><if test"name!null">name like concat(%,#{name},%)</if><if test"username!null">and username#{username}</if></where> <!-- collection&#xff1a;遍历的集合--> <!-- …

AI基础知识(2)--决策树,神经网络

1.什么是决策树&#xff1f; 决策树是一类常见的机器学习方法&#xff0c;决策树是基于树的结构来进行决策。决策过程中提出的每一个问题都是对于属性的“测试”&#xff0c;决策的最终结论对应了我们希望的判定结果。一个决策树包含一个根节点&#xff0c;若干个内部节点和若…

Jenkins通知目标服务器拉取Harbor镜像部署

1.告诉目标服务器拉取哪个镜像 2.判断当前有没有正在运行此容器&#xff0c;有就删除 3.接着查看拉取的镜像目标服务器上是否已存在&#xff0c;有就删除 4.拉取Harbor镜像 5.运行容器 目标服务器编写脚本 创建个部署脚本 vim deploy.sh告诉目标服务器Harbor地址、仓库、镜像…

小白DB补全计划Day1-LeetCode:SQL基本操作select

前言&#xff1a;找工作&#xff08;主人&#xff09;的任务罢了 链接&#xff1a;1757. 可回收且低脂的产品 - 力扣&#xff08;LeetCode&#xff09; 584. 寻找用户推荐人 - 力扣&#xff08;LeetCode&#xff09; 来源&#xff1a;LeetCode 对DB篇的SQL章不太知道怎么写…

智能合约设计模式:讲解代理模式及其安全漏洞

苏泽 大家好 这里是苏泽 一个钟爱区块链技术的后端开发者 本篇专栏 ←持续记录本人自学两年走过无数弯路的智能合约学习笔记和经验总结 如果喜欢拜托三连支持~ 我们首先来看看什么是设计模式 和我们软件工程里面的设计模式有什么异同&#xff1f; 智能合约设计模式是一种在区…

使用 GitHub Actions 通过 CI/CD 简化 Flutter 应用程序开发

在快节奏的移动应用程序开发世界中&#xff0c;速度、可靠性和效率是决定项目成功或失败的关键因素。持续集成和持续部署 (CI/CD) 实践已成为确保满足这些方面的强大工具。当与流行的跨平台框架 Flutter 和 GitHub Actions 的自动化功能相结合时&#xff0c;开发人员可以创建无…

实战!wsl 与主机网络通信,在 wsl 中搭建服务器。学了计算机网络,但只能刷刷面试题?那也太无聊了!这篇文章可以让你检测你的计网知识!

前言&#xff08;碎碎念&#xff09;&#xff1a;每次发布文章时&#xff0c;我都是一个纠结的过程。因为我给自己写笔记时&#xff0c;只需要记录自己不清晰或者易忘的知识点就可以了&#xff0c;但一旦想要作为文章发布&#xff0c;那么我就得考虑到很多人是纯新手&#xff0…

智慧公厕是什么?让公共厕所的“生命体征”有了“监测大脑”

智慧公厕是指将公共厕所进行信息化、数字化、智慧化的升级改造&#xff0c;针对公共厕所使用、运行、管理、养护等全方位业务流程进行优化。它不仅仅是传统公共厕所的升级版&#xff0c;更是公共厕所管理的一种全新方式。智慧公厕的独特之处在于&#xff0c;把公共厕所作为一个…

RequestResponse案例

文章目录 一、用户登录1、环境准备数据库准备导入MyBatis坐标&#xff0c;MySQL驱动坐标mybatis-config.xml准备UserMapper.xml 2、流程说明UserMapper接口login.htmlLoginServlet 二、用户注册register.htmlRegisterServlet 一、用户登录 1、环境准备 数据库准备 create data…

深度学习-面经(part2、CNN)

2 CNN 对图像&#xff08;不同的数据窗口数据&#xff09;和滤波矩阵做内积&#xff08;逐个元素相乘再求和&#xff09;的操作就是所谓的『卷积』操作。 卷积神经网络由输入层、卷积层、激励层、池化层、全连接层组成。 ① 最左边: 数据输入层&#xff0c;对数据做一些处理…

2024年腾讯云免费服务器在哪领取?

腾讯云免费服务器申请入口 https://curl.qcloud.com/FJhqoVDP 免费服务器可选轻量应用服务器和云服务器CVM&#xff0c;轻量配置可选2核2G3M、2核8G7M和4核8G12M&#xff0c;CVM云服务器可选2核2G3M和2核4G3M配置&#xff0c;腾讯云服务器网txyfwq.com分享2024年最新腾讯云免费…

wordpress子比主题7.6美化插件及新手零基础搭建教程源码下载

版权申请&#xff1a;本文A5资源网原创&#xff0c;经原创作者允许转载许可声明。下载地址http://a5.org.cn/a5_ziyuan/39172.html 本源码由网友在某宝二十几元购买&#xff0c;现分享给大家。下图为源码文件及演示图&#xff0c;安装教程比较详细新手零基础就可搭建 子比主…

操作系统IO模型

IO模型 如何进行网络通信 Socket通信是进程通讯的一种方式&#xff0c;通过调用这个网络库的一些API函数可以实现分布在不同主机的相关进程之间的数据交换 网络编程的基本流程是什么&#xff1f; 服务端先创建socket套接字&#xff0c;然后用这个套接字去绑定并监听某个端口&a…

YOLOv9改进策略:注意力机制 | 用于微小目标检测的上下文增强和特征细化网络ContextAggregation,助力小目标检测,暴力涨点

&#x1f4a1;&#x1f4a1;&#x1f4a1;本文改进内容&#xff1a;用于微小目标检测的上下文增强和特征细化网络ContextAggregation&#xff0c;助力小目标检测 yolov9-c-ContextAggregation summary: 971 layers, 51002153 parameters, 51002121 gradients, 238.9 GFLOPs 改…

Redis数据结构对象之列表对象

列表对象 概述 ziplist编码的列表对象使用压缩列表作为底层实现&#xff0c;每个压缩列表节点(entry)保存了一个列表元素。 例子如下。如果numbers键的值对象使用的是ziplist编码&#xff0c;这个这个值对对象将会是如图所示的样子。 另一方面&#xff0c;linkedlist编码的列…

SAR ADC教程系列5——FFT频谱泄露以及相干采样

频谱泄露的出现以及如何规避&#xff1f; 为什么要相干采样&#xff1f; 1.分析ADC输出信号的频谱工具&#xff1a;DFT&#xff08;Discrete Fourier Transform) 重点&#xff1a;DFT相邻频谱频率间隔为fs/N 如何规避频谱泄露&#xff1f; 对于DFT&#xff0c;它对于接收到的信…

算法打卡day15|二叉树篇04|Leetcode 110.平衡二叉树、257. 二叉树的所有路径、404.左叶子之和

算法题 Leetcode 110.平衡二叉树 题目链接:110.平衡二叉树 大佬视频讲解&#xff1a;平衡二叉树视频讲解 个人思路 可以用递归法&#xff0c;计算左右子树的高度差&#xff0c;当超过1时就不为平衡二叉树了&#xff1b; 解法 回顾一下二叉树节点的深度与高度&#xff1b; …

旧华硕电脑开机非常慢 电脑开机黑屏很久才显示品牌logo导致整体开机速度非常的慢怎么办

前提条件 电池需要20&#xff05;&#xff08;就是电池没有报废&#xff09;且电脑接好电源&#xff0c;千万别断电&#xff0c;电脑会变成砖头的 解决办法 更新bios即可解决&#xff0c;去对应品牌官网下载最新的bios版本就行了 网上都是一些更新驱动啊

leetcode代码记录(每日温度

目录 1. 题目&#xff1a;2. 我的代码&#xff1a;小结&#xff1a; 1. 题目&#xff1a; 给定一个整数数组 temperatures &#xff0c;表示每天的温度&#xff0c;返回一个数组 answer &#xff0c;其中 answer[i] 是指对于第 i 天&#xff0c;下一个更高温度出现在几天后。如…

Docker 哲学 - 容器操作 -cp

1、拷贝 容器绑定的 volume的 数据&#xff0c;到指定目录 2、匿名挂载 volume 只定义一个数据咋在容器内的path&#xff0c;docker自动生成一个 sha256 的key作为 volume 名字。这个 sha256 跟 commitID 一致都是唯一的所以 &#xff0c;docker利用这个机制&#xff0c;可以…