LJQ's Blog

欢迎大佬们来玩!

基于深度学习的图像超分辨率方法 总结

基于深度学习的SR方法

懒得总结,就从一篇综述中选取了一部分基于深度学习的图像超分辨率方法。原文:基于深度学习的图像超分辨率复原研究进展作者:孙旭 李晓光 李嘉锋 卓力 北京工业大学信号与信息处理研究室来源:中国知网 基于前馈深度网络的方法前馈深度网络是典型的深度学习模型之一。网络中各个神经元从输入层开始,接收前一级输入,并输入到下一级, 直至输出层。整个网络中无反馈, 可用一个有向无环......

图像超分辨率及相关知识 简介

初学者可能往往会把图像分辨率和超分辨率搞混淆,先来看一下他们的概念。 分辨率图像分辨率指图像中存储的信息量,是每英寸图像内有多少个像素点,分辨率的单位为PPI(Pixels Per Inch),通常叫做像素每英寸。一般情况下,图像分辨率越高,图像中包含的细节就越多,信息量也越大。图像分辨率分为空间分辨率和时间分辨率。通常,分辨率被表示成每一个方向上的像素数量,例如64*64的......
SR

基于深度循环卷积神经网络的图像超分辨率重建 学习笔记

Deeply-Recursive Convolutional Network for Image Super-Resolution

介绍本文使用 深度循环卷积神经网络deeply-recursive convolutional network (DRCN),该网络可以重复使用一个卷积层,多次循环也不会增加参数,尽管DRCN具有较好的性质,但也存在一个问题,由于梯度消失或者爆炸,使用随机梯度下降优化时很难收敛,使用单个权重层来学习像素之间的长期依赖关系是非常困难的。为了解决难训练的问题,提出了两种方法:①所有......

深度残差神经网络ResNet 学习笔记

Deep Residual Learning for Image Recognition

ResNet——MSRA何凯明团队的Residual Networks,在2015年ImageNet上大放异彩,在ImageNet的classification、detection、localization以及COCO的detection和segmentation上均斩获了第一名的成绩,而且Deep Residual Learning for Image Recognition......

ImageNet 近几年模型汇总

ImageNet Large-ScaleVisual Recognition Challenge (ILSVRC)用到的模型 1.2012年,Hinton的学生Alex Krizhevsky提出了深度卷积神经网络模型AlexNet 2.2014年,牛津大学计算机视觉几何组Karen Simonyan和Google DeepMind公司的研究员 Andrew Zisserm......

深度卷积神经网络VGG 学习笔记

VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION

介绍VGGNet是2014年 ImageNet Large-ScaleVisual Recognition Challenge(ILSVRC)竞赛的第二名实现的卷积神经网络,第一名是GoogLeNet(谷歌为了纪念LeNet)。它的主要贡献是解决了网络结构设计的一个重要方面——深度。至于为什么这个网络叫VGG,是因为Andrew Zisserman是牛津大学Visual Geo......
VGG

生成对抗网络GAN原理 学习笔记

Generative Adversarial Nets

GAN究竟在做什么? 学习样本集的数据分布 A.学习数据分布有什么用?(1) 学习到高维抽象的分布函数(2) 模拟预测未来数据(3) 处理缺省数据问题:如半监督学习(4) 生产真实样本建立模型,分析数据特征,还原数据,…… B.如何生成真实样本? C.生成模型的一些常见方法: D.生成模型常见方法的比较:显式:或多或少的需要知道或者假设模型的分布;大多......
GAN

Chinese Text in the Wild 学习笔记

介绍在本文中,我们用自然图像中包含的文字创建了一个大型数据集,名为Chinese Text in the Wild(CTW)。该数据集包含32,285张带有1,018,402个中文字符的图像,远远超出了之前的数据集,这些图片来自腾讯街景,从中国数十个不同的城市获取,没有任何特殊目的。由于其多样性和复杂性,该数据库存在极大的挑战性。它包含平面文本,凸起文本,城市文本,农村文本,低亮......

Implicit Language Model in LSTM for OCR 学习笔记

介绍在本文中,我们试图改进对LSTMs的科学理解,特别是语言模型和LSTM中存在的字形模型之间的相互作用。 我们称这种内部语言模型为隐式语言模型(隐式LM)。 本文的贡献:1)在受控条件下建立隐式LM的存在; 2)通过找出它使用的上下文有多少个字符来描述隐式LM的本质。 我们所描述的隐式LM与上面讨论的文献19、20中的语言模型有所不同,因为学习语言模型的背景和要求不同:OCR......

周志华《机器学习》第2章部分笔记

第2章 模型评估与选择

经验误差与过拟合①误差(error):学习器的预测输出与样本的真实输出之间的差异②训练误差(training error)或经验误差(empirical error):在训练集上的误差③测试误差(test error):在测试集上的误差④泛化误差(generalization error):学习器在所有新样本上的误差⑤过拟合(overfitting):学习能力过于强大,把训练样......