帮酷LOGO
  • 显示原文与译文双语对照的内容
Activity Recognition Algorithms for Charades

  • 源代码名称:charades-algorithms
  • 源代码网址:http://www.github.com/gsig/charades-algorithms
  • charades-algorithms源代码文档
  • charades-algorithms源代码下载
  • Git URL:
    git://www.github.com/gsig/charades-algorithms.git
  • Git Clone代码到本地:
    git clone http://www.github.com/gsig/charades-algorithms
  • Subversion代码到本地:
    $ svn co --depth empty http://www.github.com/gsig/charades-algorithms
    Checked out revision 1.
    $ cd repo
    $ svn up trunk
  • 在 Torch 和PyTorch中实现活动识别的猜谜入门代码

    贡献者:Gunnar Atli Sigurdsson

    :这个框架的扩展,为操作识别的异步时态字段提供了Charades的Charades CRF Charades Asynchronous https://github.com/gsig/temporal-fields

    • 这里代码在PyTorch中实现了两个流网络
    • 这里代码在 Torch 中实现了两个流网络
    • 这里代码在 Torch 中实现一个Two-Stream+LSTM网络

    请参见 pytorch/Torch/,用于代码库。

    代码复制在以下位置找到的'两个流扩展'和'two-stream+lstm'基线:

    @inproceedings{sigurdsson2017asynchronous,
    author = {Gunnar A. Sigurdsson and Santosh Divvala and Ali Farhadi and Abhinav Gupta},
    title = {Asynchronous Temporal Fields for Action Recognition},
    booktitle={The IEEE Conference on Computer Vision and Pattern Recognition (CVPR)},
    year={2017},
    pdf = {http://arxiv.org/pdf/1612.06371.pdf},
    code = {https://github.com/gsig/temporal-fields},
    }

    它由"视频动作识别中的两种流卷积"和和"beyond的beyond based依次基于: 用于视频分类的深网。

    将这些模型的预测( 提交文件) 结合使用 combine_rgb_flow.py 会产生 18.9 % 地图( 两个流) 和 19.8 % ( LSTM )的最终分类精度( 带有 charades_v1_classify.m的evalated )

    技术概述:

    代码被组织成对两个流网络进行训练。 两个independed网络被训练: 一个RGB网络和一个流量网络。 这里代码将训练数据解析成图像( 或者流动)的对,并将标签解析为单个活动类的。 这形成了一个softmax训练设置,像标准的CNN 。 网络是一个 VGG-16 网络。 对于 RGB,它是图像网上的pretrained,对于 pretrained,它是的UCF101. 可以使用这里目录中的脚本下载pretrained网络。 对于测试,网络使用批处理大小 25,分成所有图像,并将输出作为分类预测或者使用所有 25.




    Copyright © 2011 HelpLib All rights reserved.    知识分享协议 京ICP备05059198号-3  |  如果智培  |  酷兔英语