深度学习(十二)从自编码到栈式自编码 - hjimce的专栏

从自编码到栈式自编码 原文地址:作者:hjimce一、什么是自编码   简单的自编码是一种三层神经网络模型,包含了数据输入层、隐藏层、输出重构层,同时它是一种无监督学习模型。在有监督的神经网络中,我们的每个训练样本是(X,y),然后y一般是我们人工标注的数据。比如我们用于手写的字体分类,那么y的取值就是09之间数值,最后神经网络设计的时候,网络的输出层是一个10个神经元的网络模...
阅读全文

深度学习(十三)caffe之训练数据格式 - hjimce的专栏

原文地址:作者:hjimcecaffe对于训练数据格式,支持:lmdb、h5py……,其中lmdb数据格式常用于单标签数据,像分类等,经常使用lmdb的数据格式。对于回归等问题,或者多标签数据,一般使用h5py数据的格式。当然好像还有其它格式的数据可用,不过我一般使用这两种数据格式,因此本文就主要针对这两种数据格式的制作方法,进行简单讲解。一、lmdb数据lmdb用于单标签数据...
阅读全文

深度学习(二十七)可视化理解卷积神经网络 - hjimce的专栏

可视化理解卷积神经网络 原文地址:作者:hjimce一、相关理论本篇博文主要讲解2014年ECCV上的一篇经典文献:《Visualizing and Understanding Convolutional Networks》,可以说是CNN领域可视化理解的开山之作,这篇文献告诉我们CNN的每一层到底学习到了什么特征,然后作者通过可视化进行调整网络,提高了精度。最近两年深层的卷积神...
阅读全文

深度学习(三十)贪婪深度字典学习 - hjimce的专栏

贪婪深度字典学习 原文地址:作者:hjimce一、相关理论近几年深度学习声名鹊起,一个又一个AI领域被深度学习攻破,然而现在大部分深度学习所采用的算法都是有监督学习的方法;有监督学习需要大量的标注数据,需要耗费大量的人力物力。因此当有监督学习算法达到瓶颈的时候,无监督学习必将成为未来深度学习领域的研究焦点,使得深度学习更接近于人类;毕竟无标签数据一抓一大把、到处都是,如果我们可...
阅读全文

深度学习(三十九)可视化理解卷积神经网络(2.0) - hjimce的专栏

文章举报 发布了196 篇原创文章 · 获赞 1308 · 访问量 214万+ 已关注Original url: Created at: 20191211 11:51:03Category: defaultTags: none
阅读全文

深度学习(四十二)word2vec词向量学习笔记 - hjimce的专栏

word2vec词向量学习笔记 原文地址:个人微博:一、使用原版word2vec工具训练1、英文编译测试(1)到官网到下载:,然后选择export 到github,也可以直接到我的github克隆:```python git clone https://github.com/hjimce/word2vec.git```(2)编译:make(3)下载测试数据ht...
阅读全文

深度学习(五十一)变分贝叶斯自编码器(上) - hjimce的专栏

Original url: Created at: 20191211 11:49:15Category: defaultTags: none
阅读全文

深度学习(五十二)变分贝叶斯自编码器(下) - hjimce的专栏

Original url: Created at: 20191211 11:48:23Category: defaultTags: none
阅读全文

深度学习(五十五)tensorflow分布式训练 - hjimce的专栏

tensorflow分布式训练 博客:微博: qq:1393852684 情况一、单机单卡单机单卡是最普通的情况,当然也是最简单的,示例代码如下:```pythoncoding=utf8单机单卡对于单机单卡,可以把参数和计算都定义再gpu上,不过如果参数模型比较大,显存不足等情况,就得放在cpu上import tensorflow as tf with tf.de...
阅读全文

深度学习(五十六)tensorflow项目构建流程 - hjimce的专栏

tensorflow项目构建流程 博客:微博: qq:1393852684一、构建路线个人感觉对于任何一个深度学习库,如mxnet、tensorflow、theano、caffe等,基本上我都采用同样的一个学习流程,大体流程如下:(1)训练阶段:数据打包》网络构建、训练》模型保存》可视化查看损失函数、验证精度(2)测试阶段:模型加载》测试图片读取》预测显示结果(3)移...
阅读全文