基本信息

  • 标题:Prototype Propagation Networks (PPN) for Weakly-supervised Few-shot Learning on Category Graph
  • 年份:2019
  • 期刊:Proceedings of the Twenty-Eighth International Joint Conference on Artificial Intelligence (IJCAI-19)
  • 标签:Few-shot Learning,prototype
  • 数据:WS-ImageNet-Pure和WS-ImageNet-mix

创新点

引入了弱监督信息,去做Few-shot Learning。

创新点来源

阅读全文 »

基本信息

  • 标题:Rethinking Knowledge Graph Propagation for Zero-Shot Learning
  • 年份:2019
  • 期刊:Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition
  • 标签:知识图谱、分类
  • 数据:AwA2、ImageNet(图结构已知)

创新点

  • 显式的利用知识图的层次结构通过提出的密集连通结构有效地传播知识,防止信息平滑掉。具体体现为使用层次化的父类邻接矩阵和层次化的子类邻接矩阵代替原始的邻接矩阵;并且根据父类和子类不同层次的,设置不同的权重,类似于attention机制。
  • 两阶段的训练方法,第二阶段让CNN提取特征模块适配GNN学习到的分类器权重。

创新点来源

阅读全文 »

基本信息

  • 标题:Learning to propagate labels:Transductive propagation network for few-shot learning

  • 年份:2019

  • 期刊:ICLR
  • 标签:transductive inference, few-shot learning
  • 数据:miniImageNet,tieredImageNet

创新点

  • 第一个提出用于Few-shot Learning的转导推理(transductive inference)
  • 转导推理中,我们建议通过情景元学习(episodic meta-learning)来学习在不可见类的数据实例之间传播标签,这比基于启发式的标签传播算法表现要好得多
  • 对于Few-shot Learning,我们的方法在miniImageNet,tieredImageNet数据集上均达到了最优性能。并且,对于Semi-supervised learning,我们的方法也超过了其它的Semi-supervised Few-shot Learning baselines

创新点来源

阅读全文 »

基本信息

  • 标题:Multi-label Zero-Shot Learning with Structured Knowledge Graphs
  • 年份:2018
  • 期刊:Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition
  • 标签:多标签,零样本,知识图谱
  • 数据:NUS-WIDE,COCO

创新点

  • 第一个提出用于ML-ZSL的结构信息与知识图谱
  • 提出了在语义空间的类别传播算法,使得学到的模型能够泛化到没有见过的类别
  • 在标准的multi-label分类任务上,实现了最优性能

创新点来源

阅读全文 »

在利用Python进行系统管理的时候,特别是同时操作多个文件目录,或者远程控制多台主机,并行操作可以节约大量的时间。当被操作对象数目不大时,可以直接利用multiprocessing中的Process动态成生多个进程,十几个还好,但如果是上百个,上千个目标,手动的去限制进程数量却又太过繁琐,此时可以发挥进程池的功效。

Pool可以提供指定数量的进程供用户调用,当有新的请求提交到pool中时,如果池还没有满,那么就会创建一个新的进程用来执行该请求;但如果池中的进程数已经达到规定最大值,那么该请求就会等待,直到池中有进程结束,才会创建新的进程来它。

对于子进程的print结果,spyder无法打印出来。请用其他方式运行程序。

例1:使用进程池

代码如下:

阅读全文 »

本文主要参考了SSD原理与实现

前言

目标检测近年来已经取得了很重要的进展,主流的算法主要分为两个类型(参考RefineDet):

(1)two-stage方法,如R-CNN系算法,其主要思路是先通过启发式方法(selective search)或者CNN网络(RPN)产生一系列稀疏的候选框,然后对这些候选框进行分类与回归,two-stage方法的优势是准确度高;

(2)one-stage方法,如Yolo和SSD,其主要思路是均匀地在图片的不同位置进行密集抽样,抽样时可以采用不同尺度和长宽比,然后利用CNN提取特征后直接进行分类与回归,整个过程只需要一步,所以其优势是速度快,但是均匀的密集采样的一个重要缺点是训练比较困难,这主要是因为正样本与负样本(背景)极其不均衡(参见Focal Loss),导致模型准确度稍低。

阅读全文 »

本文主要参考了实时目标检测:YOLO、YOLOv2以及YOLOv3以及Real-time Object Detection with YOLO, YOLOv2 and now YOLOv3

You only look once(YOLO)是一系列用于解决实时目标检测问题的算法。在本文中,将依次介绍YOLO、YOLOv2以及YOLOv3。在YOLO的官方网站上,作者提供了一些目标检测算法的性能和速度的对比,如下图所示。

image-20200401101101061

在本文中,将以下述图片为例进行算法的讲解。

img

阅读全文 »

本文主要参考了Faster R-CNN具体实现详解Object Detection and Classification using R-CNNs

在这篇文章中,将详细描述最近引入的基于深度学习的对象检测和分类方法,R-CNN(Regions with CNN features)是如何工作的。事实证明,R-CNN在检测和分类自然图像中的物体方面非常有效,其mAP远高于之前的方法。R-CNN方法在Ross Girshick等人的以下系列论文中描述。

  1. R-CNN(https://arxiv.org/abs/1311.2524)
  2. Fast R-CNN(https://arxiv.org/abs/1504.08083)
  3. Faster R-CNN(https://arxiv.org/abs/1506.01497)

这篇文章描述了最后一篇论文中R-CNN方法的最终版本。我首先考虑介绍该方法从第一次引入到最终版本的演变,然而事实表明这工作量太大。所以决定直接详细描述最终版本。

幸运的是,在TensorFlow,PyTorch和其他机器学习库中,网上有许多R-CNN算法的实现。本文参考了以下实现:https://github.com/ruotianluo/pytorch-faster-rcnn

阅读全文 »

最近看论文DensePose里面有一个概念叫做——UV纹理贴图坐标。对此我先进行了一个大概的了解。

“UV”是纹理贴图坐标的简称。它定义了图片上每个点的位置的信息。这些点与3D模型是相互联系的,以决定表面纹理贴图的位置。就好像平面的布料,剪裁制作成立体的衣服一样。UV就是将图像上每一个点精确对应到模型物体的表面。在点与点之间的间隙位置由软件进行图像光滑插值处理。这就是所谓的UV贴图。

img

img

简单的说:

阅读全文 »