- 您好
- 这是我的个人博客,分享我的学习笔记和项目经验
- 主要关注编程、算法和人工智能等话题
2023HW02: 深度学习调参实战记录 - MLP与RNN调优经验总结
基于李宏毅课程HW02的深度学习模型调参实战记录,包含MLP和RNN模型的完整调优过程、理论思考和最佳实践总结。 ...
Self-Attention 机制:从 RNN/LSTM 到 Transformer 的关键突破
Self-Attention 机制是现代深度学习的重要突破,它通过 Query-Key-Value 三元组计算,彻底解决了传统 RNN/LSTM 在处理序列数据时面临的并行计算瓶颈和长距离信息损失问题。本文将深入剖析其核心原理、多头注意力设计以及位置编码技术。 内容基于李宏毅老师机器学习课程 12,结合最新技术发展整理 ...
从RNN到LSTM:深入理解循环神经网络的“记忆”与“遗忘”
这篇博文介绍了循环神经网络 (RNN) 如何通过引入 " 记忆 “(隐藏状态)和参数共享来处理序列数据,并探讨了其面临的梯度消失/爆炸问题,最后引出了 LSTM 和 GRU 作为更优的解决方案。 ...
从神经元到滤波器:两个故事下的卷积神经网络 (CNN)
这篇博文通过两种不同的叙事角度,生动地解释了卷积神经网络(CNN)如何通过局部感受野、参数共享和池化这三大核心设计,来有效处理图像数据并解决传统全连接网络参数过多的问题。主要内容和细节多参考自 Hylee 的机器学习 2021 版本 1。 ...
深度学习优化技巧:Dropout 与 Batch Normalization
这篇博文通过解释 Dropout 和 Batch Normalization 的核心原理、实现细节和主要作用,旨在帮助读者理解这两种在深度学习训练中常用的正则化与优化技术。 ...
从 One-Hot Vector 到 Softmax:分类问题的设计
这篇博文解释了在多分类任务中,为何要使用 one-hot 编码处理标签、Softmax 函数处理模型输出,以及交叉熵损失函数(而非均方误差)来衡量预测与真实值之间的差距,从而构建一个高效且易于优化的神经网络模型。 ...
机器学习训练优化技巧:Critical Point、Batch、Momentum与自适应学习率详解
这篇博文总结了李宏毅机器学习课程中关于训练优化的核心技巧,解释了当损失不再下降时可能遇到的鞍点问题、批次大小(Batch)和动量(Momentum)的作用,并详细阐述了从 AdaGrad 到 AdamW 等自适应学习率方法的发展脉络。 ...
机器学习模型诊断与优化指南:训练误差与测试误差系统性分析(Hylee 2021 L02)
这是 Hylee 机器学习课程的第二讲,重点介绍机器学习模型优化的通用指导原则。本文将系统性地讲解如何通过分析训练误差和测试误差,识别模型问题的根本原因,并提供相应的解决策略来提升模型性能。 ...
2023HW01: 深度学习回归任务实战 - 网络架构优化与调参经验总结
本篇记录了 Hylee 2023 年 HW01 回归任务的实验过程与调参心得,内容包括神经网络结构设计、特征变量选择、优化器与正则化方法的尝试,以及相关的学习笔记和思考,适合关注深度学习实战与模型调优的同学参考。 ...
Notion + RSS - 构建自己的稍后读
本篇介绍如何利用 Notion 数据库与 RSS 技术,构建属于自己的稍后读系统。通过自动化脚本将 Notion 中的内容转为 RSS 订阅源,并结合 Caddy 部署,实现多平台内容聚合、自动推送与高效信息管理。适合希望提升信息流转效率、打造个人知识管理闭环的用户。 ...