很多次翻看DDPM,始终不太能理解论文中提到的$\text{Variational Inference}$到底是如何在这个工作中起到作用。五一假期在家,无意间又刷到徐亦达老师早些年录制的理论视频,没想到其中也有介绍这部分的内容。老师的上课方式总是娓娓道来,把每一步都讲解得很仔细。本文记录一下个人对开头问题的思考。
- May 3, 2023# Diffusion Model# Math Heavy
LoRA Explained
Apr 7, 2023# Efficient Framework# Large Language Model近些时间,大模型如雨后春笋般,突的一下,进入公众视野,诸如语言领域的ChatGPT,或是图像领域的Stable Diffusion。它们在各自领域上带给用户不俗的使用体验。在算法应用开发的角度,我们更关心能不能在特定的算法环境中使用上这些先进的大模型,而庞大的模型参数量为这个问题蒙上一些不确定性。本文要介绍的
LoRA
无疑是为大模型的训练提供了一种新的可能。BERT Explained
BERT, which means $Bidirectional \ Encoder \ Representations \ from \ Transformers$, is one kind of SOAT models in natural language preprocessing over multiple tasks. In this arctile, I want to note my opnion of this model architecture and its training method.
LSTM Explained
Apr 1, 2021# Sequence Model在时序相关或者文本相关的任务中,人们常常会使用
RNN-Based
的序列模型,本文将主要介绍LSTM
涉及到的一些知识点。主要参考几篇优秀的博文,链接将放在最后的Reference中,感兴趣的建议直接阅读原文🚘。Spelling Error Correction with Soft-Masked BERT
Mar 28, 2021# Paper Reading# Spelling Error CorrectionRecently, I want to learn how to build a knowledge graph. In the period, I realize that
spelling error correction
is one of the most important links. So, I should find a paper, do some reading and take notes about it.BatchNormalization and LayerNormalization
Dec 21, 2020This post is to introduce Batch Normalization and Layer Normaliztion, which are of the $\textit{regularization}$ methods in $\textit{Deep Learning}$.
Connectionist Temporal Classification
Dec 15, 2020# Text Recognition# Loss由于需要进行图片文本识别相关的工作,最近接触到了CTC Loss,打算将这几天的学习进行归纳总结。如果有接触过
HMM
的相关内容,看到CTC
可能会觉得很亲切。目标检测中的mAP与IOU
Dec 9, 2020# Object Detection# Metric本文将介绍目标检测任务(Object Detection)中的一般评价指标(Metric) - mAP(mean average Precison)以及IOU(Intersection over Union)。
理解R-CNN
Dec 3, 2020# Object Detection# R-CNN Family最近需要使用目标检测对表格内容提取,故决定将该领域的学习以博客的形式记录下来。这是系列文章的第一部分,主要介绍R-CNN的模型结构,特别是弄懂论文中如何训练R-CNN。本文参考了几篇优秀的文章,如果感兴趣尽可以跳到最后阅读原文。