基本信息

  • 标题:Prototype Propagation Networks (PPN) for Weakly-supervised Few-shot Learning on Category Graph
  • 年份:2019
  • 期刊:Proceedings of the Twenty-Eighth International Joint Conference on Artificial Intelligence (IJCAI-19)
  • 标签:Few-shot Learning,prototype
  • 数据:WS-ImageNet-Pure和WS-ImageNet-mix

创新点

引入了弱监督信息,去做Few-shot Learning。

创新点来源

阅读全文 »

基本信息

  • 标题:Rethinking Knowledge Graph Propagation for Zero-Shot Learning
  • 年份:2019
  • 期刊:Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition
  • 标签:知识图谱、分类
  • 数据:AwA2、ImageNet(图结构已知)

创新点

  • 显式的利用知识图的层次结构通过提出的密集连通结构有效地传播知识,防止信息平滑掉。具体体现为使用层次化的父类邻接矩阵和层次化的子类邻接矩阵代替原始的邻接矩阵;并且根据父类和子类不同层次的,设置不同的权重,类似于attention机制。
  • 两阶段的训练方法,第二阶段让CNN提取特征模块适配GNN学习到的分类器权重。

创新点来源

阅读全文 »

基本信息

  • 标题:Learning to propagate labels:Transductive propagation network for few-shot learning

  • 年份:2019

  • 期刊:ICLR
  • 标签:transductive inference, few-shot learning
  • 数据:miniImageNet,tieredImageNet

创新点

  • 第一个提出用于Few-shot Learning的转导推理(transductive inference)
  • 转导推理中,我们建议通过情景元学习(episodic meta-learning)来学习在不可见类的数据实例之间传播标签,这比基于启发式的标签传播算法表现要好得多
  • 对于Few-shot Learning,我们的方法在miniImageNet,tieredImageNet数据集上均达到了最优性能。并且,对于Semi-supervised learning,我们的方法也超过了其它的Semi-supervised Few-shot Learning baselines

创新点来源

阅读全文 »

基本信息

  • 标题:Multi-label Zero-Shot Learning with Structured Knowledge Graphs
  • 年份:2018
  • 期刊:Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition
  • 标签:多标签,零样本,知识图谱
  • 数据:NUS-WIDE,COCO

创新点

  • 第一个提出用于ML-ZSL的结构信息与知识图谱
  • 提出了在语义空间的类别传播算法,使得学到的模型能够泛化到没有见过的类别
  • 在标准的multi-label分类任务上,实现了最优性能

创新点来源

阅读全文 »

本文主要参考了SSD原理与实现

前言

目标检测近年来已经取得了很重要的进展,主流的算法主要分为两个类型(参考RefineDet):

(1)two-stage方法,如R-CNN系算法,其主要思路是先通过启发式方法(selective search)或者CNN网络(RPN)产生一系列稀疏的候选框,然后对这些候选框进行分类与回归,two-stage方法的优势是准确度高;

(2)one-stage方法,如Yolo和SSD,其主要思路是均匀地在图片的不同位置进行密集抽样,抽样时可以采用不同尺度和长宽比,然后利用CNN提取特征后直接进行分类与回归,整个过程只需要一步,所以其优势是速度快,但是均匀的密集采样的一个重要缺点是训练比较困难,这主要是因为正样本与负样本(背景)极其不均衡(参见Focal Loss),导致模型准确度稍低。

阅读全文 »

本文主要参考了实时目标检测:YOLO、YOLOv2以及YOLOv3以及Real-time Object Detection with YOLO, YOLOv2 and now YOLOv3

You only look once(YOLO)是一系列用于解决实时目标检测问题的算法。在本文中,将依次介绍YOLO、YOLOv2以及YOLOv3。在YOLO的官方网站上,作者提供了一些目标检测算法的性能和速度的对比,如下图所示。

image-20200401101101061

在本文中,将以下述图片为例进行算法的讲解。

img

阅读全文 »

本文主要参考了Faster R-CNN具体实现详解Object Detection and Classification using R-CNNs

在这篇文章中,将详细描述最近引入的基于深度学习的对象检测和分类方法,R-CNN(Regions with CNN features)是如何工作的。事实证明,R-CNN在检测和分类自然图像中的物体方面非常有效,其mAP远高于之前的方法。R-CNN方法在Ross Girshick等人的以下系列论文中描述。

  1. R-CNN(https://arxiv.org/abs/1311.2524)
  2. Fast R-CNN(https://arxiv.org/abs/1504.08083)
  3. Faster R-CNN(https://arxiv.org/abs/1506.01497)

这篇文章描述了最后一篇论文中R-CNN方法的最终版本。我首先考虑介绍该方法从第一次引入到最终版本的演变,然而事实表明这工作量太大。所以决定直接详细描述最终版本。

幸运的是,在TensorFlow,PyTorch和其他机器学习库中,网上有许多R-CNN算法的实现。本文参考了以下实现:https://github.com/ruotianluo/pytorch-faster-rcnn

阅读全文 »

最近看论文DensePose里面有一个概念叫做——UV纹理贴图坐标。对此我先进行了一个大概的了解。

“UV”是纹理贴图坐标的简称。它定义了图片上每个点的位置的信息。这些点与3D模型是相互联系的,以决定表面纹理贴图的位置。就好像平面的布料,剪裁制作成立体的衣服一样。UV就是将图像上每一个点精确对应到模型物体的表面。在点与点之间的间隙位置由软件进行图像光滑插值处理。这就是所谓的UV贴图。

img

img

简单的说:

阅读全文 »

最近,把极客时间上的算法看完之后,基本也就停留在看完的阶段了。今天的主要任务是把这部分东西,再总结再看一遍。尤其是排序算法,然后把一些结论性的东西总结一下,方便之后复习。

大 O 时间复杂度实际上并不具体表示代码真正的执行时间,而是表示代码执行时间随数据规模增长的变化趋势。

数据结构

数组

数组用一块连续的内存空间,来存储相同类型的一组数据,最大的特点就是支持随机访问,但插入、删除操作也因此变得比较低效,平均情况时间复杂度为 O(n)。

阅读全文 »