Z space
  • 首页
  • 归档
  • 分类
  • 标签
  • 关于

学习笔记——XGBoost算法

学习笔记——XGBoost算法 XGBoost和GBDT两者都是boosting方法,除了工程实现、解决问题上的一些差异外,最大的不同就是目标函数的定义。 1、基本原理 1.1 目标函数 XGBoost算法是一个加法模型,在每一步迭代中,只调优当前的子模型:\(F_m(x_i)=F_{m-1}(x_i)+f_m(x_i)\)。其中\(f_m(x_i)\)表示当前的子模型,\(F_{m-1}
2023-09-11
algorithm
#boosting
学习笔记——LORA微调

学习笔记——LORA微调

学习笔记——LORA微调 ​ LORA是一种低资源微调LLM模型的方法,源自论文:LoRA: Low-Rank Adaptation of Large Language Models。 一、高效微调 ​ 对于语言模型来说,在微调过程中,模型加载预训练参数\(\Phi_{0}\)进行初始化,并通过最大化条件语言模型概率实现参数调整$_{0}+$​,即: \[ max_\Phi\sum_{
2023-08-16
NLP
#实习 #微调
1…789

搜索

Hexo Fluid