事先声明,本文章大部分内容来源于理解TensorFlow的Queue,并添加个人理解。

Queue相关的概念只有三个:

  • Queue是TF队列和缓存机制的实现
  • QueueRunner是TF中对操作Queue的线程的封装
  • Coordinator是TF中用来协调线程运行的工具

虽然它们经常同时出现,但这三样东西在TensorFlow里面是可以单独使用的,不妨先分开来看待。

Queue

阅读全文 »

事先声明,以下大部分内容来源于tensorflow 模型导出总结,并加上个人见解。

tensorflow 1.0 以及2.0 提供了多种不同的模型导出格式,例如说有checkpoint,SavedModel,Frozen GraphDef,Keras model(HDF5) 以及用于移动端,嵌入式的TFLite。

模型导出主要包含了:参数以及网络结构的导出,不同的导出格式可能是分别导出,或者是整合成一个独立的文件。

  • 参数和网络结构分开保存:checkpoint, SavedModel
  • 只保存权重:HDF5(可选)
  • 参数和网络结构保存在一个文件:Frozen GraphDef,HDF5(可选)

在tensorflow 1.0中,可以见下图,主要有三种主要的API:Keras、Estimator以及Legacy即最初的session模型,其中tf.Keras主要保存为HDF5,Estimator保存为SavedModel,而Lagacy主要保存的是Checkpoint,并且可以通过freeze_graph,将模型变量冻结,得到Frozen GradhDef的文件。这三种格式的模型,都可以通过TFLite Converter导出为 .tflite 的模型文件,用于安卓/ios/嵌入式设备的serving。

阅读全文 »

最近,学完字符编码之后,准备一鼓作气,看一下数字编码。

整数编码

在C语音中,整数编码可以分为有符号整数和无符号整数。当用关键字 char short long等指定,默认的是前面有signed,如果声明为有符号类型,需要在关键字前加unsigned,如unsigned short ,unsigned long等等。

那么这些数据是如何存储的呢?

无符号整数

阅读全文 »

最近在搞二进制分析的东西,对于字符编码特别糊涂,所以学习了一下,本来觉得阮一峰的笔记挺好的,但是感觉又有点问题,所以我这里在自己总结一下,以下大部分内容还是来源于阮一峰的笔记。当然我自己总结的可能也不太对(知识有限呀),之后可以再修改。

ASCII 码

计算机中,每一个二进制位(bit)有01两种状态,因此八个二进制位就可以组合出256种状态,这被称为一个字节(byte)。也就是说,一个字节一共可以用来表示256种不同的状态,每一个状态对应一个符号,就是256个符号,从0000000011111111

上个世纪60年代,美国制定了一套字符编码,对英语字符与二进制位之间的关系,做了统一规定。这被称为 ASCII 码,一直沿用至今。

ASCII 码一共规定了128个字符的编码,比如空格SPACE是32(二进制00100000),大写的字母A是65(二进制01000001)。这128个符号(包括32个不能打印出来的控制符号),只占用了一个字节的后面7位,最前面的一位统一规定为0

阅读全文 »

之前一直知道Pytorch、numpy之类有好几种变换维度的方法,但是之前了解的不深,今天总结一下。

Reshape

Pytorch在reshape的时候,是按照行存储的方式进行的。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
import torch

In [16]: x = torch.randn(2, 3, 4)

In [17]: x
Out[17]:
tensor([[[ 0.2921, -0.1806, -1.0838, -0.6770],
[-0.7797, 0.2614, -0.5380, 1.8941],
[-0.7261, 0.8209, 0.0286, 0.0997]],

[[ 0.5549, 0.9036, 0.8790, -0.5776],
[ 0.3745, 0.6963, -0.3445, -0.0022],
[-0.5991, 1.4639, -0.5396, -0.1702]]])

In [19]: torch.reshape(x, (-1, 2))
Out[19]:
tensor([[ 0.2921, -0.1806],
[-1.0838, -0.6770],
[-0.7797, 0.2614],
[-0.5380, 1.8941],
[-0.7261, 0.8209],
[ 0.0286, 0.0997],
[ 0.5549, 0.9036],
[ 0.8790, -0.5776],
[ 0.3745, 0.6963],
[-0.3445, -0.0022],
[-0.5991, 1.4639],
[-0.5396, -0.1702]])

permute

阅读全文 »

brew安装历史版本

由于Mac中使用homebrew安装的库都是最新的,有时需要老版本的软件,就很难办。

在工作中想用opencv3.3,但是使用brew安装的都是3.4,后来查到个方法,就是指定需要安装的opencv.rb文件

使用brew info opencv 可以看到:(最新的是3.4,我安装的是3.3)

1
2
3
4
5
6
opencv: stable 3.4.0 (bottled)
Open source computer vision library
https://opencv.org/
/usr/local/Cellar/opencv/3.3.0_3 (516 files, 123MB) *
Poured from bottle on 2018-02-24 at 15:28:54
From: https://github.com/Homebrew/homebrew-core/blob/master/Formula/opencv.rb
阅读全文 »

注意这篇文章来源于Pytorch中的仿射变换(affine_grid),感觉写的很好,所以转运过来了。

在看 pytorch 的 Spatial Transformer Network 教程 时,在 stn 层中的 affine_gridgrid_sample 函数上卡住了,不知道这两个函数该如何使用,经过一些实验终于搞清楚了其作用。

参考:详细解读 Spatial Transformer Networks (STN),该文章与李宏毅的课程一样,推荐听李老师的 STN 这一课,讲的比较清楚;

假设我们有这么一张图片:

/5798456-5285414fb5239b43-163780950525713.png)

阅读全文 »

服务器端配置

首先配置~/.jupyter/jupyter_lab_config.py,内容为:

1
2
3
4
5
6
7
8
9
10
c.LabApp.allow_origin = '*'
c.ServerApp.ip = '0.0.0.0'
c.LabApp.allow_remote_access = True
c.LabApp.allow_root = True
c.LabApp.base_url = '/jupyter'
c.LabApp.open_browser = False
c.LabApp.token = "***********************"
c.LabApp.port = 80
c.LabApp.terminals_enabled = True
c.LabApp.tornado_settings = {'shell_command': ['/usr/bin/zsh']}

其中将c.LabApp.token为密码,当你登陆Jupyter Lab的时候需要使用。

c.LabApp.tornado_settings设置不是必须的,只是方便使用zsh时,可以通过配置让终端可以好看点。下面的Environment同理。

阅读全文 »

GAN

原理

生成对抗网络(GAN)由2个重要的部分构成:

  1. 生成器(Generator):通过机器生成数据(大部分情况下是图像),目的是“骗过”判别器
  2. 判别器(Discriminator):判断这张图像是真实的还是机器生成的,目的是找出生成器做的“假数据”

生成对抗网络GANs由生成器和判别器构成

阅读全文 »