夕小瑶科技说 原创
 作者 | 智商掉了一地

近日有很多团队基于用户友好的 ChatGPT 进行再创作,其中不乏有比较亮眼的成果。InternChat工作强调了用户友好性,这是通过超越语言的方式(光标与手势)与聊天机器人交互来进行多模态任务的。InternChat 的命名也比较有趣,代表着互动(interaction)、非语言(nonverbal)和聊天机器人(chatbots),可以简称为iChat。与现有依赖纯语言的交互系统不同,iChat 通过加入指向指令,显著提高用户与聊天机器人之间的交流效率。此外,作者还提供了一个名为哈士奇(Husky)的大型视觉语言模型,可以进行 capture 和视觉问答,在仅用 70 亿参数的情况下,也能给 GPT-3.5-turbo 留下深刻印象。

不过由于 Demo 网站过于火爆,团队官方暂时关停了体验页面,咱们先通过下面这个视频来了解这项工作内容吧~

论文题目:
InternChat: Solving Vision-Centric Tasks by Interacting with Chatbots Beyond Language

论文链接:
https://arxiv.org/abs/2305.05662

Demo 地址:
https://ichat.opengvlab.com/

项目地址:
https://github.com/OpenGVLab/InternChat/

系统主要特点

作者在项目首页上提供了一些任务截图,可以直观地看到这个交互系统的一些功能与效果:

(a)移除遮盖的对象

Prompt都不需要了,动动手就能玩多模态对话系统,iChat来啦!


(b)交互式图像编辑

Prompt都不需要了,动动手就能玩多模态对话系统,iChat来啦!

(c)图像生成

Prompt都不需要了,动动手就能玩多模态对话系统,iChat来啦!

(d)交互式视觉问答

Prompt都不需要了,动动手就能玩多模态对话系统,iChat来啦!

(e)交互式图像生成

Prompt都不需要了,动动手就能玩多模态对话系统,iChat来啦!

(f)视频高光解释

Prompt都不需要了,动动手就能玩多模态对话系统,iChat来啦!

论文速览

这里首先介绍本文中提及的两个概念:

Prompt都不需要了,动动手就能玩多模态对话系统,iChat来啦!

▲图1 iChat 的整体架构

iChat 结合指向和语言指令的优势来执行以视觉为中心的任务。如图 1 所示,这个系统由 3 个主要组件组成:

  1. 处理图像或视频上指向指令的感知单元;
  2. 具有可以准确解析语言指令的辅助控制机制的 LLM 控制器;
  3. 集成 HuggingFace 各种在线模型、用户训练的私人模型以及其他应用(如计算器、搜索引擎)的开放世界工具包。

它可以在 3 个层级上有效运行,分别是:

  1. 基础交互;
  2. 语言引导的交互;
  3. 指向-语言增强的交互。

由此,如图 2 所示,当纯语言的系统无法完成任务时,该系统仍可以成功执行复杂的交互任务。

Prompt都不需要了,动动手就能玩多模态对话系统,iChat来啦!

▲图2 指向-语言驱动的交互系统优势

实验

首先我们来看,同时结合语言和非语言指令来提升用于与交互系统之间的沟通效果。为了证明这种混合模式与单纯语言指令相比的优点,研究团队进行了一个用户调查。参与者与 Visual ChatGPT 和 iChat 聊天,并反馈他们的使用感受。表 1 和 2 的结果表明,iChat 比 Visual ChatGPT 更高效且对用户友好。

Prompt都不需要了,动动手就能玩多模态对话系统,iChat来啦!

▲表1 “移除某物”的用户调查

Prompt都不需要了,动动手就能玩多模态对话系统,iChat来啦!

▲表2 “用某物代替某物”的用户调查

小结

不过,目前该系统仍存在着一些局限性,包括了:

在项目主页列出的计划清单上,目前还有几项目标尚未达成,其中就有小编每次在新的对话系统上都要体验的中文交互,目前该系统应该还是暂不支持中文问题,不过这貌似没办法,由于多模态数据集多是基于英文的,英汉互译较为浪费线上资源和处理时间,估计汉化之路还是需要一段时间的。