安装

Vim大概有如下几个版本:vim、vim-athena、vim-gnome、vim-gtk、vim-gtk3、vim-noxvim-tiny。它们中有编译进最小功能的 Vim 包(vim-tiny),有较全功能的文本界面 Vim 包(vim-nox),有适用于老的 X-Window 界面的版本(vim-athena),有适用于 KDE 环境的 GTK2 版本(vim-gtk),等等。

对于Ubuntu而言,一般情况下sudo apt install vim-gtk3即可。在 Ubuntu 上,vim 和 gvim 都是指向同一个应用程序的符号链接,且 gvim 的执行效果和 vim -g 相同。所以要启动图像化界面的vim,直接在终端执行gvim即可。

另外,若使用远程软件连接到Linux机器上,需要注意远程终端软件的远程字符集(如 PuTTY 中的“Windows > Translation > Remote character set”)应当设置成 UTF-8。

然后,还可以安装中文版本的帮助文件:

阅读全文 »

dockerfile记载了从一个镜像创建另一个新镜像的步骤。撰写好Dockerfile文件之后,我们就可以轻而易举的使用docker build命令来创建镜像了。Dockerfile 是一个文本文件,其内包含了一条条的指令(Instruction),每一条指令构建一层,因此每一条指令的内容,就是描述该层应当如何构建。有了 Dockerfile,当我们需要定制自己额外的需求时,只需在 Dockerfile 上添加或者修改指令,重新生成 image 即可,省去了敲命令的麻烦。

Dockerfile的组成部分

部分命令
基础镜像信息FROM
维护者信息MAINTAINER
镜像操作指令RUN、COPY、ADD、EXPOSE、WORKDIR、ONBUILD、USER、VOLUME等
容器启动时执行指令CMD、ENTRYPOINT

下面主要列举出Dockerfile中比较常用的指令及其用法和说明,需要注意的是这些指令都是全部大写。

FROM

阅读全文 »

二叉树

二叉树遍历模板

  1. 前序遍历先访问根节点,再前序遍历左子树,再前序遍历右子树
  2. 中序遍历:先中序遍历左子树,再访问根节点,再中序遍历右子树
  3. 后序遍历:先后序遍历左子树,再后序遍历右子树,再访问根节点

注意点:

  1. 以根访问顺序决定是什么遍历

  2. 左子树都是优先右子树

阅读全文 »

基本信息

  • 标题:Few-Shot Learning with Global Class Representations
  • 年份:2019
  • 期刊:ICCV
  • 标签:global class representations, few-shot learning
  • 数据:miniImageNet,Omniglot

创新点

  1. 通过在训练阶段引入新类的数据,同时对基类和新类学习全局类别表征,并利用样本生成策略解决类别不均衡问题,有效防止模型在基类数据中出现过拟合的现象,从而提高了模型泛化到新类的能力。
  2. 方法可以很容易的扩展到广义小样本学习(相比标准小样本学习,广义小样本学习中测试样本不仅包含新类,还包含了基类)。
  3. 所提的方法在标准小样本学习与广义小样本学习的benchmark上均取得了很好的效果。并且在广义小样本学习上,性能的提升更大。

创新点来源

阅读全文 »

最近快要面试了,再刷一遍剑指Offer,看大家分享刷LeetCode和剑指Offer的时候都是有模板的,如果按照随机顺序刷,很容易忘记而且不容易总结刷题思路。所以常常把一类题放到一块一起刷。

《剑指Offer》有如下优点:

  • 很可能在面试中出现原题(至少在微软面试经常能遇到原题)
  • 题量少,但是涵盖的内容较全,性价比较高
  • 能培养一个良好的刷题习惯

缺点是:

  • 题目较少,刷着容易过拟合
  • 动态规划的题比较少,因此需要在力扣上专项训练。
阅读全文 »

最近在刷leetcode的时候,经常要用到标准库,这里总结一下标准库的常见用法,用于查询使用。

queue

queue模板类的定义在<queue>头文件中。只能在容器的末尾添加新元素,只能从头部移除元素。

与stack模板类很相似,queue模板类也需要两个模板参数,一个是元素类型,一个容器类型,元素类型是必要的,容器类型是可选的,默认为deque类型。

定义queue对象的示例代码如下:

阅读全文 »

本篇文章主要参考了TensorRT(5)-INT8校准原理,并添加了一些自己的见解。

Low Precision Inference

现有的深度学习框架,如Pytorch、Tensorflow在训练一个深度神经网络时,往往都会使用 float 32(Full Precise ,简称FP32)的数据精度来表示,权值、偏置、激活值等。若一个网络很深的话,比如像VGG,ResNet这种,网络参数是极其多的,计算量就更多了(比如VGG 19.6 billion FLOPS, ResNet-152 11.3 billion FLOPS)。如果多的计算量,如果都采用FP32进行推理,对于嵌入式设备来说计算量是不能接受的。解决此问题主要有两种方案:

  1. 模型压缩、剪枝。在这里不做讨论。
  2. 在部署推理时(inference)使用低精度数据,比如INT8。当然训练的时候仍然采取FP32的精度。

下面从经验上分析低精度推理的可行性。

阅读全文 »

创新点

  1. 对于WIDER FACE数据集,手动标记五个landmark坐标,这种额外监督信息对于hard face detection的性能提升有巨大的作用
  2. 在已有的监督分支下,并行的新增了一个额外的自监督mesh decoder分支,用于预测pixel-wise 3D shape人脸信息。
  3. 基于单阶段目标检测框架,提出了一种新的人脸检测方法RetinaFace,该方法采用多任务学习策略来同时预测face score、face box、five landmarks以及每个人脸像素的三维位置和对应关系
  4. 在WIDER FACE hard测试集中,RetinaFace的AP比现有的最好方法提升了1.1%,达到了91.4%。
  5. 通过使用轻量级的backbone,对于VGA分辨率的图片,RetinaFace能够在单CPU下实现real-time的速度。

基础知识

face localisation定义

狭义上的face localisation的定义是传统意义上的face detection。广义上的face localisation包括了face detection、face alignment、pixel-wise face parsing、3D dense correspondence regression。

阅读全文 »

对于C/C++程序,编译主要分为三个步骤:

  1. 源文件进行预处理,这个过程主要是处理一些#号定义的命令或语句(如宏、#include、预编译指令#ifdef等),生成*.i文件
  2. 进行编译,这个过程主要是进行词法分析、语法分析和语义分析等,生成*.s的汇编文件;
  3. 进行汇编,这个过程比较简单,就是将对应的汇编指令翻译成机器指令,生成可重定位的二进制目标文件。

通常情况下,对函数库的链接是放在编译时期(compile time)完成的。所有相关的对象文件 (object file)与牵涉到的函数库(library)被链接合成一个可执行文件 (executable file)。 静态链接和动态链接两者最大的区别就在于链接的时机不一样,静态链接是在形成可执行程序前,而动态链接的进行则是在程序执行时。下面来详细介绍这两种链接方式。

静态链接

为什么要进行静态链接

阅读全文 »