实战 | 微调训练TrOCR识别弯曲文本

导  读

    本文主要介绍如何通过微调训练TrOCR实现弯曲文本识别。

背景介绍

    TrOCR(基于 Transformer 的光学字符识别)模型是性能最佳的 OCR 模型之一。在我们之前的文章中,我们分析了它们在单行打印和手写文本上的表现。

    TrOCR—基于Transformer的OCR入门

    然而,与任何其他深度学习模型一样,它们也有其局限性。TrOCR 在处理开箱即用的弯曲文本时表现不佳。本文将通过在弯曲文本数据集上微调 TrOCR 模型,使 TrOCR 系列更进一步。

图片

实现步骤

    从上一篇文章中我们知道TrOCR无法识别弯曲和垂直图像上的文本。这些图像是 SCUT-CTW1500 数据集的一部分。我们将在此数据集上训练 TrOCR 模型,并再次运行推理来分析结果。这将使我们全面了解针对不同用例可以将 TrOCR 模型的边界拓展到什么程度。

    我们将使用 Hugging Face Trainer API 来训练模型。要完成整个过程,必须遵循以下步骤:

    • 准备并分析弯曲文本图像数据集。

    • 从 Hugging Face 加载 TrOCR Small Printed 模型。

    • 将拥抱脸部序列初始化为序列训练器 API。

    • 定义评估指标

    • 训练模型并运行推理。

    弯曲文本数据集

    SCUT-CTW1500 数据集(以下简称 CTW1500)包含数千张弯曲文本和野外文本的图像。

    原始数据集可在官方 GitHub 存储库中获取。

https://github.com/Yuliang-Liu/Curve-Text-Detector

    这包括训练集和测试集。只有训练集包含 XML 格式的标签。因此,我们将训练集分为不同的训练和验证子集。

    最终数据集包含 6052 个训练样本和 1651 个验证样本。每个图像的标签都存在于文本文件中,并以换行符分隔。 

    让我们检查数据集中的一些图像及其文本标签。

图片

图片

    从上图中可以看出一些事情。除了弯曲的文本图像之外,数据集还包含模糊和朦胧的图像。这种现实世界的图像变化给深度学习模型带来了挑战。了解如此多样化的数据集中图像和文本的特征对于任何 OCR 模型的最先进性能至关重要。这对 TrOCR 模型提出了一个有趣的挑战,自然地,经过训练,它在此类图像上的表现会明显更好。

    微调弯曲文本上的 TrOCR

    让我们进入本文的技术方面。从这里开始,我们将详细讨论TrOCR训练过程的代码。 

    【1】安装并导入所需的库

    第一步是安装所有必需的库。

!pip install -q transformers!pip install -q sentencepiece!pip install -q jiwer!pip install -q datasets!pip install -q evaluate!pip install -q -U accelerate  !pip install -q matplotlib!pip install -q protobuf==3.20.1!pip install -q tensorboard

    其中,一些关键概念:

图片

    接下来,我们导入所有必需的库和包。​​​​​​​

import osimport osimport torchimport evaluateimport numpy as npimport pandas as pdimport glob as globimport torch.optim as optimimport matplotlib.pyplot as pltimport torchvision.transforms as transforms  from PIL import Imagefrom zipfile import ZipFilefrom tqdm.notebook import tqdmfrom dataclasses import dataclassfrom torch.utils.data import Datasetfrom urllib.request import urlretrievefrom transformers import (    VisionEncoderDecoderModel,    TrOCRProcessor,    Seq2SeqTrainer,    Seq2SeqTrainingArguments,    default_data_collator)

    上述代码块中的一些重要的导入语句是:

图片

    现在,设置种子以实现不同运行的可重复性并定义计算设备。​​​​​​​

def seed_everything(seed_value):    np.random.seed(seed_value)    torch.manual_seed(seed_value)    torch.cuda.manual_seed_all(seed_value)    torch.backends.cudnn.deterministic = True    torch.backends.cudnn.benchmark = False seed_everything(42) device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')

    【2】下载并提取数据集

    下一个代码块包含一个帮助函数,用于下载 CTW1500 数据并提取它。​​​​​​​

def download_and_unzip(url, save_path):    print(f"Downloading and extracting assets....", end="")      # Downloading zip file using urllib package.    urlretrieve(url, save_path)      try:        # Extracting zip file using the zipfile package.        with ZipFile(save_path) as z:            # Extract ZIP file contents in the same directory.            z.extractall(os.path.split(save_path)[0])          print("Done")      except Exception as e:        print("\nInvalid file.", e)  URL = r"https://www.dropbox.com/scl/fi/vyvr7jbdvu8o174mbqgde/scut_data.zip?rlkey=fs8axkpxunwu6if9a2su71kxs&dl=1"asset_zip_path = os.path.join(os.getcwd(), "scut_data.zip") # Download if asset ZIP does not exist.if not os.path.exists(asset_zip_path):    download_and_unzip(URL, asset_zip_path)

    提取模型后数据集结构将如下所示。​​​​​​​

scut_data/├── scut_train├── scut_test├── scut_train.txt└── scut_test.txt

    数据被提取到scut_data目录中。它包含保存训练和验证图像的 scut_train和子目录。scut_test这两个文本文件包含以下格式的注释。​​​​​​​

006052.jpg  ty Starts with Education006053.jpg  Cardi's006054.jpg  YOU THE BUSINESS SIDE OF GREEN006055.jpg  hat is...

    每行包含一个图像文件名,图像中的文本以空格分隔。文本文件中的行数与图像文件夹中的样本数相同。图像中的文本和图像文件名由第一个空格分隔。图像文件名不能包含任何空格,否则将被视为文本的一部分。

    【3】定义配置

    在开始训练部分之前,我们先定义训练、数据集和模型配置。​​​​​​​

@dataclass(frozen=True)class TrainingConfig:    BATCH_SIZE:    int = 48    EPOCHS:        int = 35    LEARNING_RATE: float = 0.00005 @dataclass(frozen=True)class DatasetConfig:    DATA_ROOT:     str = 'scut_data' @dataclass(frozen=True)class ModelConfig:    MODEL_NAME: str = 'microsoft/trocr-small-printed'

    该模型将使用 48 的批量大小进行 35 个 epoch 的训练。优化器的学习率设置为 0.00005。较高的学习率会使训练过程不稳定,从而从一开始就导致较高的损失。

   此外,我们还定义了根数据集目录和我们将使用的模型。TrOCR Small Printed 模型将进行微调,因为它根据该数据集的实验展示了最佳性能。

    【4】可视化一些样本

    让我们可视化下载数据集中的一些图像及其文件名。​​​​​​​

def visualize(dataset_path):    plt.figure(figsize=(15, 3))    for i in range(15):        plt.subplot(3, 5, i+1)        all_images = os.listdir(f"{dataset_path}/scut_train")        image = plt.imread(f"{dataset_path}/scut_train/{all_images[i]}")        plt.imshow(image)        plt.axis('off')        plt.title(all_images[i].split('.')[0])    plt.show()  visualize(DatasetConfig.DATA_ROOT)

图片

    【5】准备数据集

    标签以文本文件格式存在。为了更顺利地准备数据加载器,需要将它们修改为更简单的格式。让我们将训练和测试文本文件转换为 Pandas DataFrame。​​​​​​​

train_df = pd.read_fwf(    os.path.join(DatasetConfig.DATA_ROOT, 'scut_train.txt'), header=None)train_df.rename(columns={0: 'file_name', 1: 'text'}, inplace=True)test_df = pd.read_fwf(    os.path.join(DatasetConfig.DATA_ROOT, 'scut_test.txt'), header=None)test_df.rename(columns={0: 'file_name', 1: 'text'}, inplace=True)

    现在,file_name 列包含与图像对应的所有文件名,text 列包含图像中的文本。

图片

    下一步是定义增强/数据扩充。​​​​​​​

# Augmentations.train_transforms = transforms.Compose([    transforms.ColorJitter(brightness=.5, hue=.3),    transforms.GaussianBlur(kernel_size=(5, 9), sigma=(0.1, 5)),])

    我们将ColorJitter和应用于GaussianBlur图像。无需对图像应用任何翻转旋转,因为原始数据集中已经有足够的可变性。

    准备数据集的最佳方法是编写自定义数据集类。这使我们能够更好地控制输入。以下代码块定义了一个CustomOCRDataset用于准备数据集的类。​​​​​​​

class CustomOCRDataset(Dataset):    def __init__(self, root_dir, df, processor, max_target_length=128):        self.root_dir = root_dir        self.df = df        self.processor = processor        self.max_target_length = max_target_length      def __len__(self):        return len(self.df)      def __getitem__(self, idx):        # The image file name.        file_name = self.df['file_name'][idx]        # The text (label).        text = self.df['text'][idx]        # Read the image, apply augmentations, and get the transformed pixels.        image = Image.open(self.root_dir + file_name).convert('RGB')        image = train_transforms(image)        pixel_values = self.processor(image, return_tensors='pt').pixel_values        # Pass the text through the tokenizer and get the labels,        # i.e. tokenized labels.        labels = self.processor.tokenizer(            text,            padding='max_length',            max_length=self.max_target_length        ).input_ids        # We are using -100 as the padding token.        labels = [label if label != self.processor.tokenizer.pad_token_id else -100 for label in labels]        encoding = {"pixel_values": pixel_values.squeeze(), "labels": torch.tensor(labels)}        return encoding

    该 __init__()方法接受根目录路径、DataFrame、TrOCR 处理器和最大标签长度作为参数。

    该 __getitem__()方法首先从磁盘读取标签和图像。然后它通过变换传递图像以应用增强。TrOCRProcessor 以 PyTorch 张量格式返回标准化像素值。接下来,文本标签通过分词器传递。如果标签短于 128 个字符,则会用 -100 填充到长度 128。如果长于 128 个字符,则会截断字符。最后,它以字典的形式返回像素值和标签。

    在创建训练集和验证集之前,需要初始化 TrOCRProcessor,以便将其传递给数据集类。​​​​​​​

processor = TrOCRProcessor.from_pretrained(ModelConfig.MODEL_NAME)train_dataset = CustomOCRDataset(    root_dir=os.path.join(DatasetConfig.DATA_ROOT, 'scut_train/'),    df=train_df,    processor=processor)valid_dataset = CustomOCRDataset(    root_dir=os.path.join(DatasetConfig.DATA_ROOT, 'scut_test/'),    df=test_df,    processor=processor)

    微调 TrOCR 模型的数据集准备过程到此结束。

   【6】准备 TrOCR 小型打印模型

    该类VisionEncoderDecoderModel使我们能够访问所有 TrOCR 模型。该from_pretrained()方法接受存储库名称来加载预训练模型。​​​​​​​

model = VisionEncoderDecoderModel.from_pretrained(ModelConfig.MODEL_NAME)model.to(device)print(model)# Total parameters and trainable parameters.total_params = sum(p.numel() for p in model.parameters())print(f"{total_params:,} total parameters.")total_trainable_params = sum(    p.numel() for p in model.parameters() if p.requires_grad)print(f"{total_trainable_params:,} training parameters.")

    该模型包含 6150 万个参数。将对所有参数进行微调,以便对它们进行训练。

    模型准备最重要的方面之一是模型配置。下面讨论这些配置。​​​​​​​

# Set special tokens used for creating the decoder_input_ids from the labels.model.config.decoder_start_token_id = processor.tokenizer.cls_token_idmodel.config.pad_token_id = processor.tokenizer.pad_token_id# Set Correct vocab size.model.config.vocab_size = model.config.decoder.vocab_sizemodel.config.eos_token_id = processor.tokenizer.sep_token_id  model.config.max_length = 64model.config.early_stopping = Truemodel.config.no_repeat_ngram_size = 3model.config.length_penalty = 2.0model.config.num_beams = 4

    预训练的 TrOCR 模型带有自己的一组预定义配置。然而,为了微调模型,我们将覆盖其中的一些内容,其中包括标记 ID、词汇表大小以及序列结束标记。

    此外,提前停止设置为True。这确保了如果模型指标在连续几个时期没有改善,则训练将停止。

    【7】优化器和评估指标

    为了优化模型权重,我们选择权重衰减为 0.0005 的 AdamW 优化器。​​​​​​​

optimizer = optim.AdamW(    model.parameters(), lr=TrainingConfig.LEARNING_RATE, weight_decay=0.0005)

    评估指标将是 CER(字符错误率)。​​​​​​​

cer_metric = evaluate.load('cer')  def compute_cer(pred):    labels_ids = pred.label_ids    pred_ids = pred.predictions      pred_str = processor.batch_decode(pred_ids, skip_special_tokens=True)    labels_ids[labels_ids == -100] = processor.tokenizer.pad_token_id    label_str = processor.batch_decode(labels_ids, skip_special_tokens=True)      cer = cer_metric.compute(predictions=pred_str, references=label_str)      return {"cer": cer}

    无需进一步详细说明,CER 基本上是模型未正确预测的字符数。CER 越低,模型的性能越好。

    请注意,我们在 CER 计算中跳过填充标记,因为我们不希望填充标记影响模型的性能。

    【8】TrOCR 的训练和验证

    训练开始之前必须初始化训练参数。

training_args = Seq2SeqTrainingArguments(    predict_with_generate=True,    evaluation_strategy='epoch',    per_device_train_batch_size=TrainingConfig.BATCH_SIZE,    per_device_eval_batch_size=TrainingConfig.BATCH_SIZE,    fp16=True,    output_dir='seq2seq_model_printed/',    logging_strategy='epoch',    save_strategy='epoch',    save_total_limit=5,    report_to='tensorboard',    num_train_epochs=TrainingConfig.EPOCHS)

    正在使用 FP16 训练,因为它使用更少的 GPU 内存,并且还允许我们使用更高的批量大小。此外,日志记录和模型保存策略是基于纪元的。所有报告都将记录到张量板上。

    这些训练参数将与其他所需参数一起传递给训练器 API。

# Initialize trainer.trainer = Seq2SeqTrainer(    model=model,    tokenizer=processor.feature_extractor,    args=training_args,    compute_metrics=compute_cer,    train_dataset=train_dataset,    eval_dataset=valid_dataset,    data_collator=default_data_collator)

    训练过程可以通过调用训练器对象的train()方法来开始。

res = trainer.train()
Epoch Training Loss Validation Loss Cer1 3.822000  2.677871  0.6877392 2.497100  2.474666  0.6908003 2.180700  2.336284  0.627641...33  0.146800  2.130022  0.50420934  0.145800  2.167060  0.51109535  0.138300  2.120335  0.494496

    训练结束时,模型的CER 达到 49%,考虑到所使用的小型 TrOCR 模型,这是一个非常好的结果。

    以下是 Tensorboard 日志中的 CER 图。

图片

    直到训练结束,曲线呈下降趋势。尽管更长时间的训练可能会产生更好的结果,但我们将继续使用现有的模型。

    【9】使用微调 TrOCR 模型进行推理

    训练完 TrOCR 模型后,就可以对验证图像进行推理了。

    第一步是从最后保存的检查点加载经过训练的模型。​​​​​​​

processor = TrOCRProcessor.from_pretrained(ModelConfig.MODEL_NAME)trained_model = VisionEncoderDecoderModel.from_pretrained('seq2seq_model_printed/checkpoint-'+str(res.global_step)).to(device)

    res 对象包含一个 global_step 属性,该属性保存模型训练的总步数。上面的代码块使用该属性来加载最终时期的权重。

    接下来是一些辅助函数。第一个是读取图像。​​​​​​​

def read_and_show(image_path):    """    :param image_path: String, path to the input image.      Returns:        image: PIL Image.    """    image = Image.open(image_path).convert('RGB')    return image

    下一个辅助函数通过模型执行图像的前向传递。​​​​​​​

def ocr(image, processor, model):    """    :param image: PIL Image.    :param processor: Huggingface OCR processor.    :param model: Huggingface OCR model.      Returns:        generated_text: the OCR'd text string.    """    # We can directly perform OCR on cropped images.    pixel_values = processor(image, return_tensors='pt').pixel_values.to(device)    generated_ids = model.generate(pixel_values)    generated_text = processor.batch_decode(generated_ids, skip_special_tokens=True)[0]    return generated_text

    最后的辅助函数循环遍历目录中的所有图像,并继续调用 ocr() 函数进行推理。​​​​​​​

def eval_new_data(    data_path=os.path.join(DatasetConfig.DATA_ROOT, 'scut_test', '*'),    num_samples=50):    image_paths = glob.glob(data_path)    for i, image_path in tqdm(enumerate(image_paths), total=len(image_paths)):        if i == num_samples:            break        image = read_and_show(image_path)        text = ocr(image, processor, trained_model)        plt.figure(figsize=(7, 4))        plt.imshow(image)        plt.title(text)        plt.axis('off')        plt.show() eval_new_data(    data_path=os.path.join(DatasetConfig.DATA_ROOT, 'scut_test', '*'),    num_samples=100)

    我们正在对 100 个样本 (num_samples=100) 进行推理。

    以下是模型在训练前 OCR 错误的两个结果。

图片

图片

    结果令人印象深刻。经过微调 TrOCR 模型,它能够正确预测弯曲和垂直图像中的文本。 

    以下是模型表现良好的更多结果。

图片

    在这种情况下,尽管最末端的文本被拉伸,但模型仍然正确地预测它们。

图片

    在上述三种情况下,即使文本模糊,模型也能正确预测文本。

    结论

    在本文中,我们在弯曲文本识别数据集上对 TrOCR 模型进行了微调。我们从数据集讨论开始。接下来是数据集准备和 TrOCR 模型的训练。训练结束后,我们进行推理实验并分析结果。我们的结果表明,即使在模糊或弯曲的文本图像上,微调 TrOCR 模型也可以带来更好的性能。

    OCR 不仅仅是识别场景中的文本,还涉及使用 OCR 构建应用程序,例如验证码识别器或将 TrOCR 识别器与车牌检测管道相结合。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://xiahunao.cn/news/2904919.html

如若内容造成侵权/违法违规/事实不符,请联系瞎胡闹网进行投诉反馈,一经查实,立即删除!

相关文章

uniapp h5 touch事件踩坑记录

场景:悬浮球功能 当我给悬浮球设置了 position: fixed; 然后监听悬浮球的touch事件,从事件对象中拿到clientY和clientX赋值给悬浮球的left和top属性。当直接赋值后效果应该是这样子: 注意鼠标相对悬浮球的位置,应该就是左上角&a…

hxp CTF 2021 - A New Novel LFI(新颖的解法)

一、环境 unbentu,docker https://2021.ctf.link/assets/files/includers%20revenge-25377e1ebb23d014.tar.xz 二、解析 PHP Filter 当中有一种 convert.iconv 的 Filter ,可以用来将数据从字符集 A 转换为字符集 B ,其中这两个字符集可以…

llama-index 结合chatglm3-6B 利用RAG 基于文档智能问答

简介 llamaindex结合chatglm3使用 import os import torch from llama_index.core import VectorStoreIndex, ServiceContext from llama_index.core.callbacks import CallbackManager from llama_index.core.llms.callbacks import llm_completion_callback from llama_ind…

JVM实战之性能调优[2](线程转储案例认识和分析)

文章目录 版权声明案例1:CPU占用率高问题问题描述解决思路补充内容 案例2:接口响应时间长问题问题描述解决思路Arthas trace命令Arthas watch命令解决问题 案例3:定位偏底层性能问题问题描述解决思路:Arthas火焰图问题解决 案例4&…

【VMware Workstation】公司所有主机和虚拟机ip互通,以及虚拟机目录迁移

文章目录 1、场景2、环境3、实战3.1、所有主机和虚拟机ip互通Stage 1 : 【虚拟机】设置为桥接模式Stage 2 : 【虚拟机】设置ipStage 3 : 【路由器】ARP 静态绑定MACStage 3-1 ping 路由器 ipStage 3-2 【静态绑定】虚拟机查看mac地址Stage 3-3 【静态绑定】路由器ARP 静态绑定 …

LLM之RAG实战(三十五)| 使用LangChain的3种query扩展来优化RAG

RAG有时无法从矢量数据库中检索到正确的文档。比如我们问如下问题: 从1980年到1990年,国际象棋的规则是什么? RAG在矢量数据库中进行相似性搜索,来查询与国际象棋规则问题相关的相关文档。然而,在某些情况下&#xff0…

论文《Exploring to Prompt for Vision-Language Models》阅读

论文《Exploring to Prompt for Vision-Language Models》阅读 论文概况论文动机(Intro)MethodologyPreliminaryCoOp[CLASS]位置Context 是否跨 class 共享表示和训练 ExperimentsOverall ComparisonDomain GeneralizationContext Length (M) 和 backbon…

Gitlab CI---could not read username for xxx: no such device or address

0 Preface/Foreword 项目开发中&#xff0c;经常会使用第三方的算法或者功能&#xff0c;那么就需要把对应的repo以子模块的方式添加到当前repo中。 添加命令&#xff1a; git submodule add <URL> 1 问题表现 子模块添加成功&#xff0c;但是GitLab CI阶段&#xff…

蓝桥杯 - 小明的背包3(多重背包)

解题思路&#xff1a; 动态规划 多重背包问题需要在01背包问题&#xff08;不重复&#xff09;的基础上多加一层循环进行遍历&#xff0c;并且dp[ j ]的式子也需要修改 import java.util.Scanner;public class Main {public static void main(String[] args) {Scanner scan …

2024/03/28(C++·day4)

一、思维导图 二、练习题 1、写出三种构造函数&#xff0c;算术运算符、关系运算符、逻辑运算符重载尝试实现自增、自减运算符的重载 #include <iostream>using namespace std;// 构造函数示例 class MyClass { private:int data; public:// 默认构造函数MyClass() {da…

Java与Go:字符串转IP

在本文中&#xff0c;我们将了解如何将简单的对比Java和Go是如何将字符串解析为IP地址。 Java 在Java中&#xff0c;将字符串转换为IP地址最无脑的一个方法&#xff1a; import java.net.InetAddress; import java.net.UnknownHostException;public class Main {public stat…

OpenHarmony实战开发-使用ArkTS语言实现简易视频播放器

介绍 本篇Codelab使用ArkTS语言实现视频播放器&#xff0c;主要包括主界面和视频播放界面&#xff0c;我们将一起完成以下功能&#xff1a; 主界面顶部使用Swiper组件实现视频海报轮播。主界面下方使用List组件实现视频列表。播放界面使用Video组件实现视频播放。在不使用视频…

RTOS线程切换的过程和原理

0 前言 RTOS中最重要的一个概念就是线程&#xff0c;线程的按需切换能够满足RTOS的实时性要求&#xff0c;同时能将复杂的需求分解成一个个线程执行减轻我们开发负担。 本文从栈的角度出发&#xff0c;详细介绍RTOS线程切换的过程和原理。 注&#xff1a;本文参考的RTOS是RT-T…

腾讯云邮件推送功能有哪些?如何有效使用?

腾讯云邮件推送如何设置&#xff1f;怎么用邮件推送做高效营销&#xff1f; 腾讯云作为业界领先的云服务提供商&#xff0c;其邮件推送功能在便捷性、稳定性和安全性上都有着出色的表现。那么&#xff0c;腾讯云邮件推送功能究竟有哪些呢&#xff1f;让AokSend来探个究竟。 腾…

Vite 为什么比 Webpack 快?

目录 1. Webpack 的构建原理 2. Script 的模块化&#xff08;主流浏览器对 ES Modules 的支持&#xff09; 3. Webpack vs Vite 开发模式的差异 对 ES Modules 的支持 底层语言的差异 热更新的处理 1. Webpack 的构建原理 前端之所以需要类似于 Webpack 这样的构建工具&…

windows@系统信息查看若干方法@查看硬件信息@系统信息仪表盘@资源占用OSD悬浮窗口

文章目录 操作系统简要信息查看&#x1f47a;计算机软硬件信息查看windows自带工具msinfo32dxdiagcompmgmtsettingssysteminfo.exe 其他专业软件查看计算机软硬件信息&#x1f47a;OSD系统仪表盘系列软件TrafficMonitor插件功能 Rainmeter时间更改板块刷新显示和关闭 Rainmeter…

实现DevOps需要什么?

实现DevOps需要什么&#xff1f; 硬性要求&#xff1a;工具上的准备 上文提到了工具链的打通&#xff0c;那么工具自然就需要做好准备。现将工具类型及对应的不完全列举整理如下&#xff1a; 代码管理&#xff08;SCM&#xff09;&#xff1a;GitHub、GitLab、BitBucket、SubV…

flutter 修改app名字和图标

一、修改名字 在Android中修改应用程序名称&#xff1a; 在AndroidManifest.xml文件中修改应用程序名称&#xff1a; 打开Flutter项目中的android/app/src/main/AndroidManifest.xml文件。找到<application>标签&#xff0c;然后在android:label属性中修改应用程序的名称…

Xcode删除原本的Git,再添加新的git

本文参考&#xff1a;Xcode怎么删除原本git,在重新设置新的git地址_ios xcode 删除原本git-CSDN博客 开发中会有一个问题。Xcode项目A 提交到Git服务器server1&#xff0c;此时项目A内部已经存在一个Git文件&#xff0c;与server1相关联。 此时你想将项目A提交到 另一个Git…

【InternLM 实战营第二期笔记】书生·浦语大模型全链路开源体系及InternLM2技术报告笔记

大模型 大模型成为发展通用人工智能的重要途径 专用模型&#xff1a;针对特定任务&#xff0c;一个模型解决一个问题 通用大模型&#xff1a;一个模型应对多种任务、多种模态 书生浦语大模型开源历程 2023.6.7&#xff1a;InternLM千亿参数语言大模型发布 2023.7.6&#…