本章节聚焦大模型微调,带你训练专属的DeepSeek。从微调基础概念、高效微调LoRA,到与强化学习、知识蒸馏结合,详细展开。深入讲解LORA和Unsloth两种微调方法,涵盖环境配置、数据集加载、模型训练、测试及保存等全流程操作。
章节 | 内容 |
---|---|
章节1 【大模型微调】训练属于你的Deepseek |
1 : 大模型Deepseek微调_微调基础概念 2 : 大模型Deepseek微调_高效微调LoRA 3 : 大模型Deepseek微调_微调与强化学习、知识蒸馏 4 : LORA微调DeepSeek_配置环境 5 : LORA微调DeepSeek_加载预训练模型 6 : LORA微调DeepSeek_加载数据集 7 : LORA微调DeepSeek_配置LoRA超参数 8 : LORA微调DeepSeek_训练模型和保存模型 9 : LORA微调DeepSeek_测试微调后的大模型 10 : LORA微调DeepSeek_模型上传hugging Face 11 : 大模型Deepseek微调_主流微调工具Unsloth 12 : AI时代的利器_Colab简介与优势 13 : Unsolth微调Deepseek_训练环境创建与依赖安装 14 : Unsolth微调Deepseek_加载预训练模型 15 : Unsolth微调Deepseek_准备数据集 16 : Unsolth微调Deepseek_执行微调训练 17 : Unsolth微调Deepseek_微调后的模型测试与效果对比 18 : Unsolth微调Deepseek_模型保存的格式 19 : Unsolth微调Deepseek_将微调后的模型保存为 GGUF 格式 20 : Unsolth微调Deepseek_Ollama运行HuggingFace下载的模型 |