英伟达联合GeorgiaTech、UMD和HKPU的研究团队推出了全新的视觉语言模型——NVEagle。据悉,NVEagle能够理解复杂的现实场景,通过视觉输入进行更好的解读和回应。
它的设计核心在于将图像转化为视觉标记,再与文本嵌入相结合,进而提升了对视觉信息的理解。NVEagle包括了三个版本:Eagle-X5-7B、Eagle-X5-13B以及Eagle-X5-13B-Chat。其中,7B和13B版本主要用于一般的视觉语言任务,而13B-Chat版本则专门针对对话式AI进行了微调,能够更好地进行基于视觉输入的互动。
NVEagle的一个亮点在于采用了混合专家(MoE)机制,能够根据不同任务动态选择最合适的视觉编码器,这极大提升了对复杂视觉信息的处理能力。该模型已在HuggingFace上发布,方便研究人员和开发者使用。