GPT2 实现笔记(3)-ReFT微调
GPT2 实现笔记(3)-ReFT微调 > 该笔记是对 Stanford CS224-n 的 hw5 的 ReFT 微调部分的整理,用于整理本人实现的对特定任务的 ReFT 微调实现以及对特定下游任务的处理。 1. ReFT 微调总体架构 ReFT 微调总体架构和 LoRA 架构类似: ``mermaid graph...
GPT2 实现笔记(3)-ReFT微调 > 该笔记是对 Stanford CS224-n 的 hw5 的 ReFT 微调部分的整理,用于整理本人实现的对特定任务的 ReFT 微调实现以及对特定下游任务的处理。 1. ReFT 微调总体架构 ReFT 微调总体架构和 LoRA 架构类似: ``mermaid graph...
GPT2 实现笔记(2)-LoRA微调 > 该笔记是对 Stanford CS224-n 的 hw5 的 LoRA 微调部分的整理,用于整理本人实现的对特定任务的 LoRA 微调实现以及对特定下游任务的处理。 1. LoRA 微调总体架构 我们采用和原有GPT2模型实现类似的架构实现带LoRA微调的GPT2模型,详细架...
> 生成:Gemini-2.5-pro, 整理:fyerfyer 自由文本处理 1. 相关概念 自由文本 (Free Text) 指的是那些非结构化的文本数据,例如网页、数据库中的评论字段、文章等。 与关系型数据或图谱不同,自由文本的核心挑战在于它缺乏“易于提取”的结构。 >...
> 生成:Gemini-2.5-pro, 整理:fyerfyer 迁移学习 2. 适配器 (Adapters) 为了解决传统微调的参数效率问题,论文提出了一种替代方案,叫做适配器模块 (Adapter Modules)。 a. 核心思想 适配器的核心思想是:在为下游任务调整模型时,我们完全冻结 (freeze)...
GPT2 实现笔记(1) > 该笔记是对 Stanford CS224-n 的 hw5 基础部分的整理,用于整理 GPT2 模型的基本实现。 1. 注意力模块实现 $a.$ 初始化 我们先初始化好注意力模块中的组件: $Q$,$K$,$V$层和 dropout 层 注意力头数量等配置 ``python...
> 生成:Gemini-2.5-pro, 整理:fyerfyer 词语表示法 1. 预备知识 $a.$ 词符 vs. 词型 (Word Token vs. Word Type) 在自然语言处理中,我们首先要区分两个基本概念: 词符 (Word Token):指在文本中实际出现的一个具体的词。它是词的一个“实例”。 ...
> 生成:Gemini-2.5-pro, 整理:fyerfyer LoRA 1. LoRA 的核心思想与原理 $a.$ 核心假设:权重更新的“低内在秩” LoRA 的核心假设是:模型在适应新任务时,其权重的“变化量”($\Delta W$)本身具有“低内在秩”(low intrinsic rank)。...
> 生成:Gemini-2.5-pro, 整理:fyerfyer ReFT 1. 核心思想 传统的参数高效微调(PEFT)方法,如 LoRA,其核心思路是修改模型的“大脑结构”,即通过更新或添加少量权重参数来让模型适应新任务。 而表征微调(Representation Finetuning,...
数据科学基础概念 1. 稀疏矩阵 $a.$ 引入 在数据科学的许多问题中,我们处理的矩阵本质上都是稀疏的:矩阵中绝大多数元素都是零,只有少数非零元素。比如下面两个典型例子: 1. 图(Graphs):在表示图结构时,一种主要方法是使用邻接矩阵(Adjacency Matrix)。如果节点 $i$ 和节点 $j$...
适配层 1. 提示 $a.$ 零样本学习与少样本学习 $i.$ 概述 GPT-3/4 这样的大型语言模型,展现出了一种惊人的新能力: 1. 零样本学习 (Zero-shot):不需要给它任何范例,只需用自然语言清晰地描述任务,它就能直接执行。 2. 少样本学习 (Few-shot / In-context...