动手学深度学习V2每日笔记(模型选择+过拟合和欠拟合)

本文主要参考沐神的视频教程 https://www.bilibili.com/video/BV1K64y1Q7wu/?spm_id_from=333.788.recommend_more_video.0&vd_source=c7bfc6ce0ea0cbe43aa288ba2713e56d
文档教程 https://zh-v2.d2l.ai/

本文的主要内容对沐神提供的代码中个人不太理解的内容进行笔记记录,内容不会特别严谨仅供参考。

1.函数目录

1.1 numpy

numpy位置
zeros4.1
array4.1
np.random.normal4.1
np.random.shuffle4.1
np.power4.1

1.2 torch.Tensor

Tensor位置
sum4.2
numel4.2

1.3 pandas

pandas位置
DataFrame4.2

1.4 matplotlib.pyplot

plt位置
figure4.3
subplot4.3
plot4.3
legend4.3
xlabel or ylabel4.3
show4.3

2.模型选择

2.1训练误差和泛化误差

  • 训练误差:模型在训练数据上的误差
  • 泛化误差:模型在新数据上的误差
    我们关心的是泛化误差

2.2 验证数据集和测试数据集

  • 验证数据集:一个用来评估模型好坏的数据集。
    1.拿出50%的训练数据。
    2.不要跟训练数据混在一起。
    3.验证数据集也有可能是虚高的,并不代表你在新数据集上的泛化能力。
  • 测试数据集:**只用一次的数据集。**例如
    1.未来的考试。
    2.我出价的房子的实际成交价。
    3.用在Kaggle私有排行榜中的数据集。

2.3 K-则交叉验证

  • 在没有足够多数据时使用(这是常态)
  • 算法:
    1.将训练数据分成K块
    2.For i=i,…,K
    使用第i块作为验证数据集,其余的作为训练数据集
    3.报告K个验证集误差的平均
  • 常用:K=5或10

3. 过拟合和欠拟合

3.1 模型容量

  • 拟合各种函数的能力
  • 低容量的模型难以你和训练数据
  • 高容量的模型可以记住所有的训练数据
    在这里插入图片描述
    在这里插入图片描述

3.2 估计模型容量

  • 难以在不同的种类算法之间比较
    例如树模型和神经网络
  • 给定一个模型种类,将有两个主要因素
    1.参数个数
    2.参数值的选择范围
线性模型单隐藏层感知机
d+1(d+1)m+(m+1)k

在这里插入图片描述

3.2 数据复杂度

  • 多个重要因素
  • 样本个数
  • 每个样本的元素个数
  • 时间、空间结构
  • 多样性

4. 多项式回归

4.1 生成数据集

4.1.1 np.zeros

返回给定形状和类型的新数组,并填充零。

def zeros(shape, dtype=None, order='C', *args, **kwargs):
  • 参数
  • shape:int或者int元组
  • dtype:数据类型,可选项
import math
import numpy as np
import torch
from torch import nn
from d2l import torch as d2lmax_degree = 20
n_train, n_test = 100, 100
true_w = np.zeros(max_degree)
print(true_w)
#输入为
[0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.]

4.1.2 array

np.array()用于将输入数据(如列表、元组等)转换为 NumPy 数据库的函数。

def array(p_object, dtype=None, *args, **kwargs):
  • 参数
  • p_object:输入的数据(例如列表、元组)

4.1.3 np.random.normal

np.random.normal() 用于生成服从指定均值和标准差的正态分布的随机数,可以生成单个随机数,也可以生成多维数组形式的随机数。

# 默认均值为0,方差为1
numpy.random.normal(loc=0.0, scale=1.0, size=None)
  • 参数
  • loc:浮点数或数组,表示正态分布的均值(默认值为 0.0)。
  • scale:浮点数或数组,表示正态分布的标准差(默认值为 1.0)。
  • size:整数或元组,表示输出的形状。如果是整数,则返回指定数量的随机数。如果是元组,则返回相应形状的数组。
  • 返回值
  • 返回一个或多个服从指定正态分布的随机数。

4.1.4 np.random.shuffle

np.random.shuffle() 是 NumPy 库中的一个函数,用于对数组中的元素进行就地随机打乱(shuffle)。它可以作用于一维数组,也可以沿着指定的轴对多维数组进行打乱。

numpy.random.shuffle(x)
  • 参数
  • x:需要打乱顺序的数组。
  • 返回值
  • np.random.shuffle() 不返回任何值,因为它是就地操作,直接修改输入数组 x。

4.1.5 np.power

np.power() 是 NumPy 库中的一个函数,用于逐元素地计算两个数组的幂次。它返回一个数组,其中每个元素是对应输入数组元素的幂次结果。这个函数可以处理标量和数组作为输入。

numpy.power(x1, x2, /, out=None, *, where=True, casting='same_kind', order='K', dtype=None, subok=True[, signature, extobj])
  • 参数
  • x1:数组或标量,表示底数。
  • x2:数组或标量,表示指数。
  • out(可选):输出数组,保存结果。如果提供,该数组的形状必须与输入数组的形状相同。
  • where(可选):数组或条件,可选,用于指定计算位置,默认为 True。
  • casting(可选):字符串,用于指定数组的类型转换规则。
  • order(可选):指定输出数组的存储顺序。
  • dtype(可选):指定输出数组的数据类型。
  • subok(可选):布尔值,表示是否使用子类进行输出。
  • 返回值
  • 返回一个数组,其中每个元素是 x1 中对应元素的 x2 次幂。
a = np.array([1, 2, 3, 4])
b = np.power(a, np.arange(len(a)))
print(b)
# [ 1  2  9 64]

4.1.6 np.arange

np.arange 是 NumPy 库中的一个函数,用于生成一个包含等差序列的数组。它类似于 Python 内置的 range 函数,但返回的是一个 NumPy 数组,而不是列表。

numpy.arange([start, ]stop, [step, ]dtype=None, *, like=None)
  • 参数
  • start(可选):序列的起始值。默认为 0。
  • stop:序列的终止值(不包含在内)。
  • step(可选):序列的步长。默认为 1。
  • dtype(可选):输出数组的数据类型。如果未指定,则推断数据类型以最小化内存消耗。
  • like(可选):参考数组。如果提供,结果将与该数组具有相同的类型和属性。
  • 返回值
  • 返回一个包含等差序列的 NumPy 数组。
max_degree = 20
n_train, n_test = 100, 100
true_w = np.zeros(max_degree)
true_w[0:4] = np.array([5.0, 1.2, -3.4, 5.6])features = np.random.normal(size=(n_test+n_train, 1))#features的shape为(200,1)
np.random.shuffle(features)
poly_features = np.power(features, np.arange(max_degree).reshape(1, -1))#poly_features的shape为(200,20)
for i in range(max_degree):poly_features[:, i] /= math.gamma(i+1)
labels = np.dot(poly_features, true_w)
labels += np.random.normal(scale=0.1, size=labels.shape)
true_w, features, poly_features, labels = [torch.tensor(x, dtype=torch.float32) for x in [true_w, features, poly_features, labels]]
print(features[:2])
print(poly_features[:2,:])
print(labels[:2])

4.2 对模型进行训练和测试

4.2.1 Tensor.sum()

Tensor.sum() 是 PyTorch 中用于计算张量所有元素的总和的函数。它有多个参数,可以灵活地应用于不同维度,或根据需要返回标量或张量。

sum(dim=None, keepdim=False, dtype=None) → Tensor
  • 参数说明
  • dim (int or tuple of ints, optional): 指定沿哪个维度计算总和。如果不指定,则计算所有元素的总和。
  • keepdim (bool, optional): 如果为 True,则保留原来的维度。默认值为 False。
  • dtype (torch.dtype, optional): 指定输出的数据类型。如果不指定,则与输入张量的数据类型相同。
x = torch.tensor([[1, 2, 3], [4, 5, 6]])sum_dim0 = x.sum(dim=0)
print(sum_dim0)  # 输出: tensor([5, 7, 9])sum_dim1 = x.sum(dim=1)
print(sum_dim1)  # 输出: tensor([ 6, 15])sum_keepdim = x.sum(dim=0, keepdim=True)
print(sum_keepdim)  # 输出: tensor([[5, 7, 9]])

4.2.2 Tensor.numel()

返回输入张量中元素的总数。

a = torch.randn(1, 2, 3, 4, 5)
a.numel() #输出为120

4.2.3 pandas.DataFrame()

pd.DataFrame() 是 pandas 库中用于创建 DataFrame 对象的函数。DataFrame 是一种二维的、带标签的数据结构,可以看作是共享相同索引的 Series 的集合,类似于数据库中的表或 Excel 表格。

class pandas.DataFrame(data=None, index=None, columns=None, dtype=None, copy=None)
  • 参数说明
  • data:数据,支持多种格式,例如字典、列表、NumPy 数组等。
  • index:索引标签,用于指定行标签。如果不指定,默认使用 RangeIndex (从 0 开始)。
  • columns:列标签,用于指定列标签。如果不指定,从数据中推断。
  • dtype:数据类型,用于指定 DataFrame 的数据类型。如果不指定,从数据中推断。
  • copy:布尔值,默认为 False。如果为 True,则复制输入数据。
    1. 从字典创建 DataFrame
import pandas as pddata = {'name': ['Alice', 'Bob', 'Charlie'],'age': [25, 30, 35],'city': ['New York', 'Los Angeles', 'Chicago']
}
df = pd.DataFrame(data)
print(df)

在这里插入图片描述
2. 从列表创建 DataFrame

data = [['Alice', 25, 'New York'],['Bob', 30, 'Los Angeles'],['Charlie', 35, 'Chicago']
]
df = pd.DataFrame(data, columns=['name', 'age', 'city'])
print(df)

3. 从 NumPy 数组创建 DataFrame

import numpy as npdata = np.array([['Alice', 25, 'New York'],['Bob', 30, 'Los Angeles'],['Charlie', 35, 'Chicago']
])
df = pd.DataFrame(data, columns=['name', 'age', 'city'])
print(df)

计算损失

def evaluate_loss(net, data_iter, loss):metric = d2l.Accumulator(2)for X,y in data_iter:out = net(X)y = y.reshape(out.shape)l = loss(out, y)#l.sum():用于累加当前批量的总损失。#l.numel():用于累加当前批量的样本数量。metric.add(l.sum(), l.numel())return metric[0] / metric[1]

单轮训练

def train_epoch_ch3(net, train_iter, loss, trainer):#@saveif isinstance(net, nn.Module):net.train()metric = d2l.Accumulator(3)for X, y in train_iter:y_hat = net(X)l = loss(y_hat, y)if isinstance(trainer,torch.optim.Optimizer):# 将梯度初始化为0trainer.zero_grad()# 反向传播计算l.mean().backward()# 根据网络反向传播的梯度信息来更新网络的参数,以起到降低loss函数计算值的作用trainer.step()else:l.sum().backward()trainer(X.shape[0])metric.add(float(l.sum()), d2l.accuracy(y_hat,y), y.numel())return metric[0]/metric[2], metric[1]/metric[2]

多轮训练

def train(train_features, test_features, train_labels, test_labels, num_epochs=400):loss = nn.MSELoss(reduction='none')input_shape = train_features.shape[-1]# 不设置偏置,因为我们已经在多项式中实现了它net = nn.Sequential(nn.Linear(input_shape, 1, bias=False))batch_size = min(10, train_labels.shape[0])train_iter = d2l.load_array((train_features, train_labels.reshape(-1,1)),batch_size)test_iter = d2l.load_array((test_features, test_labels.reshape(-1,1)),batch_size, is_train=False)trainer = torch.optim.SGD(net.parameters(), lr=0.01)# 训练集损失列表train_loss_all = []# 验证集损失列表val_loss_all = []for epoch in range(num_epochs):train_loss, _ = train_epoch_ch3(net, train_iter, loss, trainer)test_loss = evaluate_loss(net, test_iter, loss)train_loss_all.append(train_loss)val_loss_all.append(test_loss)if epoch==0 or ((epoch+1)%20)==0:print(f"第{epoch + 1}轮训练集中的损失为{train_loss}")print(f"第{epoch + 1}轮验证集中的损失为{test_loss}")train_process = pd.DataFrame(data={"epoch": range(num_epochs),"train_loss_all": train_loss_all,"val_loss_all": val_loss_all,})return train_process

4.3 图形显示

4.3.1 plt.figure

plt.figure() 是 matplotlib 库中用于创建一个新的绘图窗口(figure)的函数。它提供了多种参数来定制绘图窗口的属性,包括大小、分辨率和背景颜色等。下面是 plt.figure() 的详细作用和用法。

matplotlib.pyplot.figure(num=None, figsize=None, dpi=None, *, facecolor=None, edgecolor=None, frameon=True, 
FigureClass=<class 'matplotlib.figure.Figure'>, clear=False, **kwargs)[source]
  • 参数说明
  • num:int 或 str,默认为 None
    如果传递一个整数,将设置该 figure 的 ID。如果该 ID 已存在,则选择该 figure,而不创建新的。如果传递一个字符串,将该字符串作为 figure 的标题。
  • figsize:tuple,默认为 None
    指定 figure 的大小,格式为 (宽, 高),单位为英寸。
  • dpi:int,默认为 100
    指定 figure 的分辨率(每英寸的点数)。
  • facecolor:color,默认为 ‘white’
    指定 figure 的背景颜色。
  • edgecolor:color,默认为 ‘white’
    指定 figure 的边框颜色。
  • frameon:bool,默认为 True
    指定是否绘制 figure 的边框。
  • tight_layout:bool 或 dict,默认为 None
    如果为 True 或传递一个字典,将自动调整子图参数以适合 figure 区域。
  • constrained_layout:bool,默认为 None
    如果为 True,将自动调整子图参数以适合 figure 区域,并且不会重叠。
fig = plt.figure(facecolor='lightgray', edgecolor='blue')  # 背景颜色为浅灰色,边框颜色为蓝色
plt.plot([1, 2, 3], [4, 5, 6])
plt.show()

在这里插入图片描述

4.3.2 plt.subplot

plt.subplot() 是 Matplotlib 中用于在一个绘图窗口中创建多个子图的函数。它允许你在一个窗口中排列多个图表,使得可以在同一个图形中比较不同的数据或视图。下面是 plt.subplot() 的详细用法和作用。

plt.subplot(nrows, ncols, index)
  • nrows:子图的行数。
  • ncols:子图的列数。
  • index:子图的位置,从 1 开始计数,从左到右,从上到下排列。
plt.subplot(2, 2, 1)  # 2行2列的网格,选择第1个子图
plt.plot([1, 2, 3], [4, 5, 6])
plt.title('Subplot 1')plt.subplot(2, 2, 2)  # 2行2列的网格,选择第2个子图
plt.plot([1, 2, 3], [6, 5, 4])
plt.title('Subplot 2')plt.subplot(2, 2, 3)  # 2行2列的网格,选择第3个子图
plt.plot([1, 2, 3], [5, 6, 7])
plt.title('Subplot 3')plt.subplot(2, 2, 4)  # 2行2列的网格,选择第4个子图
plt.plot([1, 2, 3], [7, 6, 5])
plt.title('Subplot 4')plt.tight_layout()  # 自动调整子图参数,使之填充整个图像区域
plt.show()

在这里插入图片描述

4.3.3 plt.plot()

plt.plot() 是 Matplotlib 中用于绘制二维线图的基本函数。它可以绘制各种类型的线图,包括折线图、散点图、曲线图等。

import matplotlib.pyplot as pltplt.plot(x, y, fmt, **kwargs)
  • x:x轴数据,可以是列表、数组或类似的序列。
  • y:y轴数据,可以是列表、数组或类似的序列。
  • fmt:可选,指定线条的格式字符串。
  • kwargs:可选,其他绘图参数。
    1. 使用格式字符串
    格式字符串可以包含颜色、线型和标记类型的简写。
颜色线型标记
b(蓝色)-(实线).(点)
g(绿色)–(虚线),(像素点)
r(红色)-.(点划线)v(上三角)
c(青色):(点线)^(下三角)
m(品红)s(正方形)
y(黄色)*(星号)
k(黑色)1(下三瓣叶)
w(白色)D(菱形)

标记:‘.’(点),‘,’(像素点),‘o’(圆圈),‘v’(下三角),‘^’(上三角),‘<’(左三角),‘>’(右三角),‘1’(下三瓣叶),‘2’(上三瓣叶),‘3’(左三瓣叶),‘4’(右三瓣叶),‘s’(正方形),‘p’(五边形),‘*’(星号),‘h’(六边形1),‘H’(六边形2),‘+’(加号),‘x’(x号),‘D’(菱形),‘d’(薄菱形),‘|’(竖直线),‘_’(水平线)

2. 使用关键字参数

plt.plot(x, y, color='green', linestyle='dashed', marker='o', markerfacecolor='blue', markersize=12)
plt.show()

常见的关键字参数:

  • color 或 c:指定线条颜色。
  • linestyle 或 ls:指定线型。
  • linewidth 或 lw:指定线宽。
  • marker:指定标记类型。
  • markersize 或 ms:指定标记大小。
  • markerfacecolor 或 mfc:指定标记填充颜色。
  • markeredgecolor 或 mec:指定标记边缘颜色
plt.subplot(2, 2, 1)  # 2行2列的网格,选择第1个子图
plt.plot([1, 2, 3], [4, 5, 6],'gs--')
plt.title('Subplot 1')plt.subplot(2, 2, 2)  # 2行2列的网格,选择第2个子图
plt.plot([1, 2, 3], [6, 5, 4],'ro-.')
plt.title('Subplot 2')plt.subplot(2, 2, 3)  # 2行2列的网格,选择第3个子图
plt.plot([1, 2, 3], [5, 6, 7],'ch-')
plt.title('Subplot 3')plt.subplot(2, 2, 4)  # 2行2列的网格,选择第4个子图
plt.plot([1, 2, 3], [7, 6, 5],'yp:')
plt.title('Subplot 4')plt.tight_layout()  # 自动调整子图参数,使之填充整个图像区域
plt.show()

在这里插入图片描述

4.3.4 plt.legend()

plt.legend() 是 Matplotlib 中用于添加图例(legend)的函数。图例是显示在图形上的一个区域,用于解释不同数据系列(如线条、点、柱等)的含义。通过图例,读者可以更容易地理解图表中的各个元素。
1.自动检测图例中要显示的元素
当不传入任何额外的参数时,绘图会自动确定要添加元素到图例中 。

import matplotlib.pyplot as plt# 绘制多条线
plt.plot([1, 2, 3], [4, 5, 6], label='Line 1')
plt.plot([1, 2, 3], [6, 5, 4], label='Line 2')# 添加图例
plt.legend()
plt.show()

在这里插入图片描述

4.3.5 plt.xlabel() or plt.ylabel()

plt.xlabel() 设置x轴标签。
plt.ylabel() 设置y轴标签。

4.3.6 plt.show()

显示当前图像窗口的所有内容。

 matplot_acc_loss(train_process):# 显示每一次迭代后的训练集和验证集的损失函数和准确率plt.figure(figsize=(12, 4))plt.subplot(1, 1, 1)plt.plot(train_process['epoch'], train_process.train_loss_all, "ro-", label="Train loss")plt.plot(train_process['epoch'], train_process.val_loss_all, "bs-", label="Val loss")plt.legend()plt.xlabel("epoch")plt.ylabel("Loss")plt.show()

5.完整代码

import math
import numpy as np
import pandas as pd
import torch
import matplotlib.pyplot as plt
from torch import nn
from d2l import torch as d2lmax_degree = 20
n_train, n_test = 100, 100
true_w = np.zeros(max_degree)
true_w[0:4] = np.array([5.0, 1.2, -3.4, 5.6])features = np.random.normal(size=(n_test+n_train, 1))#features的shape为(200,1)
np.random.shuffle(features)
poly_features = np.power(features, np.arange(max_degree).reshape(1, -1))#poly_features的shape为(200,20)
for i in range(max_degree):poly_features[:, i] /= math.gamma(i+1)
labels = np.dot(poly_features, true_w)
labels += np.random.normal(scale=0.1, size=labels.shape)
true_w, features, poly_features, labels = [torch.tensor(x, dtype=torch.float32) for x in [true_w, features, poly_features, labels]]
print(features[:2])
print(poly_features[:2,:])
print(labels[:2])
# 对模型进行训练和测试
def evaluate_loss(net, data_iter, loss):metric = d2l.Accumulator(2)for X,y in data_iter:out = net(X)y = y.reshape(out.shape)l = loss(out, y)#l.sum():用于累加当前批量的总损失。#l.numel():用于累加当前批量的样本数量。metric.add(l.sum(), l.numel())return metric[0] / metric[1]def train_epoch_ch3(net, train_iter, loss, trainer):#@saveif isinstance(net, nn.Module):net.train()metric = d2l.Accumulator(3)for X, y in train_iter:y_hat = net(X)l = loss(y_hat, y)if isinstance(trainer,torch.optim.Optimizer):# 将梯度初始化为0trainer.zero_grad()# 反向传播计算l.mean().backward()# 根据网络反向传播的梯度信息来更新网络的参数,以起到降低loss函数计算值的作用trainer.step()else:l.sum().backward()trainer(X.shape[0])metric.add(float(l.sum()), d2l.accuracy(y_hat,y), y.numel())return metric[0]/metric[2], metric[1]/metric[2]def train(train_features, test_features, train_labels, test_labels, num_epochs=400):loss = nn.MSELoss(reduction='none')input_shape = train_features.shape[-1]# 不设置偏置,因为我们已经在多项式中实现了它net = nn.Sequential(nn.Linear(input_shape, 1, bias=False))batch_size = min(10, train_labels.shape[0])train_iter = d2l.load_array((train_features, train_labels.reshape(-1,1)),batch_size)test_iter = d2l.load_array((test_features, test_labels.reshape(-1,1)),batch_size, is_train=False)trainer = torch.optim.SGD(net.parameters(), lr=0.01)# 训练集损失函数# 训练集损失列表train_loss_all = []# 验证集损失列表val_loss_all = []for epoch in range(num_epochs):train_loss, _ = train_epoch_ch3(net, train_iter, loss, trainer)test_loss = evaluate_loss(net, test_iter, loss)train_loss_all.append(train_loss)val_loss_all.append(test_loss)if epoch==0 or ((epoch+1)%20)==0:print(f"第{epoch + 1}轮训练集中的损失为{train_loss}")print(f"第{epoch + 1}轮验证集中的损失为{test_loss}")train_process = pd.DataFrame(data={"epoch": range(num_epochs),"train_loss_all": train_loss_all,"val_loss_all": val_loss_all,})return train_processdef matplot_acc_loss(train_process):# 显示每一次迭代后的训练集和验证集的损失函数和准确率plt.figure(figsize=(12, 4))plt.subplot(1, 1, 1)plt.plot(train_process['epoch'], train_process.train_loss_all, "ro-", label="Train loss")plt.plot(train_process['epoch'], train_process.val_loss_all, "bs-", label="Val loss")plt.legend()plt.xlabel("epoch")plt.ylabel("Loss")plt.show()# 从多项式特征中选择前4个维度,即1,x,x^2/2!,x^3/3!
train_process =train(poly_features[:n_train, :4], poly_features[n_train:, :4],labels[:n_train], labels[n_train:])
matplot_acc_loss(train_process)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://xiahunao.cn/news/3266734.html

如若内容造成侵权/违法违规/事实不符,请联系瞎胡闹网进行投诉反馈,一经查实,立即删除!

相关文章

机器学习 | 计算分类算法的ROC和AUC曲线以随机森林为例

受试者工作特征&#xff08;ROC&#xff09;曲线和曲线下面积&#xff08;AUC&#xff09;是常用的分类算法评价指标&#xff0c;本文将讨论如何计算随机森林分类器的ROC 和 AUC。 ROC 和 AUC是量化二分类区分阳性和阴性类别能力的度量。ROC曲线是针对不同分类阈值的真阳性率&…

python_面向对象程序设计

一、面向过程和面向对象两大编程思想 面向过程&#xff1a;功能上的封装 面向对象&#xff1a;属性和行为上的封装 二、类的定义 1、类&#xff1a;有N个对象抽取出像的属性和行为&#xff0c;从而归纳出来的一种类别。 自定义数据类型的语法结构&#xff1a; class 类名 …

华为OD机试 - 停车场车辆统计 - 贪心算法(Java 2024 D卷 200分)

华为OD机试 2024D卷题库疯狂收录中&#xff0c;刷题点这里 专栏导读 本专栏收录于《华为OD机试&#xff08;JAVA&#xff09;真题&#xff08;D卷C卷A卷B卷&#xff09;》。 刷的越多&#xff0c;抽中的概率越大&#xff0c;私信哪吒&#xff0c;备注华为OD&#xff0c;加入华…

手机电脑文件共享的方法 备忘录文字文件可实现共享

在这个数字化时代&#xff0c;手机与电脑之间的文件共享已成为我们日常工作和生活中的常态需求。想象一下&#xff0c;你在公司用电脑编辑了一份重要文件&#xff0c;急需在手机上查看或继续编辑&#xff0c;或者你在手机上拍摄了一段重要视频&#xff0c;想要快速传输到电脑上…

JAVA笔记十六

十六、异常Exception 1.概念 异常&#xff1a;非正常情况&#xff0c;包括空的引用、数组下标越界、内存溢出等 Java提供了异常对象描述这类异常情况。 Java提供了异常机制来进行处理&#xff0c;通过异常机制来处理程序运行期间出现的错误&#xff0c;可以更好地提升程序的…

C# 贪吃蛇游戏

贪吃蛇游戏可分为手动玩法和自动玩法 冯腾飞/贪吃蛇

钡铼网关实时数据互联,加速IEC104与MQTT云平台对接

随着工业4.0时代的到来&#xff0c;电力系统中的数据采集、监控与远程控制需求日益增长。IEC 104&#xff08;IEC 60870-5-104&#xff09;作为国际电工委员会&#xff08;IEC&#xff09;制定的电力自动化通信协议&#xff0c;广泛应用于电力系统的状态监测、数据采集和设备控…

SqlSugar删除没有定义主键的实体类对应的数据库表数据

一般而言&#xff0c;使用SqlSugar的DbFirst功能创建数据库表实体类时&#xff0c;如果数据库表有主键&#xff0c;生成的实体类对应属性也会标识为主键&#xff0c;如下图所示。   但有时候生成的实体类没有自动配置主键&#xff0c;这时可以通过以下方式进行删除操作&…

Flicker检测探头

Flicker检测探头是一种用于检测显示屏&#xff08;如LCD、OLED等&#xff09;闪烁现象的设备。以下是对Flicker检测探头的一些详细介绍&#xff1a; 一、功能概述 Flicker检测探头主要用于测量和校正显示屏的闪烁&#xff08;Flicker&#xff09;现象以及亮度。闪烁是显示屏在…

CS001-32-ddgi

border扩充 参考&#xff1a;https://zhuanlan.zhihu.com/p/507469990 Probe irradiance/distance border update&#xff0c;由于后续采样这两张纹理使用的是bilinearSampler&#xff0c;所以需要对边界不全以保证采样正确性&#xff0c;补充边界的方法如图&#xff1a; C#申请…

机器学习笔记 第一章绪论

1.1 基本术语 假设收集一批关于西瓜的数据&#xff0c;如&#xff08;色泽青绿&#xff1b;根蒂蜷缩&#xff1b;敲声浊响&#xff09;.....这组记录的集合称为一个“数据集”&#xff0c;其中每条记录是关于一个事件或对象的描述&#xff0c;称为一个“示例”或“样本”&…

《2024新质生产力引领下十大重点产业趋势解读--大模型篇》,深剖当下爆火的大模型产业!

01 报告导读 “新质生产力”重要性再提升。 近日&#xff0c;作为热词的“新质生产力”再度被多次提及&#xff0c;“新质生产力”这一概念近年来在经济和社会发展中被频繁提及&#xff0c;它指的是通过创新驱动&#xff0c;利用新技术、新业态、新模式推动生产力发展的新形态…

Zookeeper入门篇,了解ZK存储特点

Zookeeper入门篇&#xff0c;了解ZK存储特点 前言一、为什么要用 Zookeeper&#xff1f;二、Zookeeper存储特色1. 树状结构2. 节点类型 三、存储位置1. 内存存储1. DataTree2. DataNode 2. 硬盘存储1. 事务日志2. 快照 前言 继上次说完 Zookeeper 的安装后&#xff0c;已经过去…

学习笔记之Java篇(0725)

p this 普通方法中&#xff0c;this总是指向调用该方法的对象。 构造方法中&#xff0c;this总是指向正要初始化的对象。 this&#xff08;&#xff09;调用必须重载的构造方法&#xff0c;避免相同地址初始化代码&#xff0c;但只能在构造方法中用&#xff0c;比企鹅必须位…

【Linux】进程IO|重定向|缓冲区|dup2|dup|用户级缓冲区|模拟缓冲区

目录 前言 重定向 实验一 为什么log.txt文件的文件描述符是1 为什么向stdout打印的信息也出现在文件中 实验二 用户级缓冲区 为什么要有用户级缓冲区 系统调用 dup 为什么close(fd1)之后还能向log.txt写入数据&#xff1f; dup2 缓冲区 观察现象 测试1 测试2 测…

【专题】2024年云计算白皮书报告合集PDF分享(附原数据表)

原文链接&#xff1a;https://tecdat.cn/?p37112 2023年全球云计算市场显著增长&#xff0c;预计将持续繁荣至2027年突破万亿美元&#xff0c;中国市场同样保持强劲势头&#xff0c;预计也将大幅跃升。国内云计算经过十余年发展&#xff0c;虽取得显著进展&#xff0c;但在资…

高温天消暑需求暴涨,益民一厂产线全开,光明冷饮销量猛增

天气炎热&#xff0c;带动了冷饮销量直线上升&#xff0c;上海地区的冷饮日销量达到了7到8万箱&#xff0c;再创历史新高&#xff0c;作为代表国潮经典的冷饮品牌——光明冷饮也成为了人们夏日消暑的优选。2024年7月23日&#xff0c;上海广播电视台新闻综合频道《新闻夜线》栏目…

谷粒商城实战笔记-64-商品服务-API-品牌管理-OSS前后联调测试上传

文章目录 1&#xff0c;拷贝文件到前端工程2&#xff0c;局部修改3&#xff0c;在品牌编辑界面使用上传组件4&#xff0c;OSS配置允许跨域5&#xff0c;测试multiUpload.vue完整代码singleUpload.vue完整代码policy.js代码 在Web应用开发中&#xff0c;文件上传是一项非常常见的…

单元测试--Junit

Junit是Java的单元测试框架提供了一些注解方便我们进行单元测试 1. 常用注解 常用注解&#xff1a; TestBeforeAll&#xff0c;AfterAllBeforeEach&#xff0c;AfterEach 使用这些注解需要先引入依赖&#xff1a; <dependency><groupId>org.junit.jupiter<…