公众号内容拓展学习笔记(2022.5.9)


📎 今日要点

  1. CVPR 2022 | 北大、腾讯提出文字logo生成模型,脑洞大开 ⭐️⭐️

  2. CVPR2022 Oral:GAN监督的密集视觉对齐,代码开源 ⭐️⭐️

    • Abstract: GAN监督的密集视觉对齐,代码开源
    • Paper: GAN-Supervised Dense Visual Alignment
    • Code: https://www.github.com/wpeebles/gangealing
    • Tips: 在该论文中作者提出了一种用于端到端联合学习的GAN生成数据的框架。受到经典方法的启发,论文中作者联合训练一个空间变换器,将随机样本从基于未对齐数据训练的GAN映射到共同的、联合学习的目标模式。
  3. ACL’22 | 陈丹琦提出CoFi模型剪枝,加速10倍,精度几乎无损 ⭐️⭐️

    • Abstract: 陈丹琦提出CoFi模型剪枝,加速10倍,精度几乎无损
    • Paper: Structured Pruning Learns Compact and Accurate Models
    • Code: https://github.com/princeton-nlp/CoFiPruning
    • Tips: 作者提出的结构化剪枝方法 CoFi 在几乎没有太多精度损失的情况下,达到了 10 倍以上的加速比,同时,和常规的蒸馏做法相比,避免了因使用大量无标签数据预训练模型而带来的训练成本过高的问题,按作者的话来说,该方法可以是蒸馏的一个有效替代品。
  4. MAGIC: 一个即插即用、无需训练的图像-文本生成框架 ⭐️⭐️

    • Abstract: MAGIC: 一个即插即用、无需训练的图像-文本生成框架
    • Paper: LanguageModels Can See: Plugging Visual Controls in Text Generation
    • Code: https://github.com/yxuansu/MAGIC
    • Tips: 本文提出了一个全新的MAGIC框架。该框架可以使用图片模态的信息指导预训练语言模型完成一系列跨模态生成任务与其他方法不同的是,MAGIC框架无需多模态的训练数据,只需利用现成的语言模型和图文匹配模型就能够以zero-shot的方式高质量地完成多模态生成任务。
  5. 多模态理解与生成,西南交大&MSRA提出统一的"视频和语言预训练"模型:UniVL! ⭐️⭐️⭐️⭐️

  6. 小样本学习只是一场学术界自嗨吗? ⭐️⭐️

    • Abstract: 小样本学习只是一场学术界自嗨吗?
    • Tips: 这两年看见很多人,都在批评few-shot learning,觉得是学术界在自high,思考良久,感觉有必要给这个领域正个名~(注意,本文仅关注few-shot image classification)

📎 Others

  • 由于图片权限问题,GitHub是完整版,可以点点 star
  • 星标的数量是与个人相关程度,不代表文章内容的好坏
  • 关注我的个人网站
  • 关注我的CSDN博客
  • 关注我的哔哩哔哩
  • 关注我的公众号CV伴读社
Logo

开放原子开发者工作坊旨在鼓励更多人参与开源活动,与志同道合的开发者们相互交流开发经验、分享开发心得、获取前沿技术趋势。工作坊有多种形式的开发者活动,如meetup、训练营等,主打技术交流,干货满满,真诚地邀请各位开发者共同参与!

更多推荐