NVIDIA推出由GeForce RTX GPU支持的本地聊天机器人:Chat wth RTX
当人工智能聊天机器人的风潮开始兴起时,大多数人使用的是连接到云服务器的聊天机器人。不过,让聊天机器人在PC和智能手机上本地运行的趋势越来越明显。今天,NVIDIA推出了一种新方法,让WindowsPC用户可以创建自己的大型语言模型AI聊天机器人,并连接到本地存储的内容。
NVIDIA称其为本地LLMChatwithRTX,现在该公司网站上提供了演示版。顾名思义,您的电脑必须配备NVIDIAGeForceRXTGPU才能运行这个本地聊天机器人。以下是具体的硬件要求:
图形处理器-NVIDIAGeForceRTX30或40系列图形处理器或NVIDIARTXAmpere或Ada代图形处理器,至少配备8GBVRAM
内存-16GB或更大
操作系统-Windows11
Geforce驱动程序-535.11或更高版本
下载并安装后,您就可以将"与RTX聊天"应用程序与您本地存储的内容(如文档、PDF文件、视频等)连接起来。然后,您就可以使用本地数据集向聊天机器人提问,这样聊天机器人就能为您提供答案,而无需筛选所有资料。
此外,RTX聊天工具还可以在一些YouTube视频中查找信息。您只需将视频URL复制到应用程序中,然后就视频内容提问。ChatwithRTX会为您提供答案。
当然,像"与RTX聊天"这样的本地LLM应用程序的最大特点是,您可以拥有一个人工智能聊天机器人,而不会将数据传输到公司的云服务器,以用于培训和其他目的。这样做的代价是,你需要一台相当强大的电脑来运行它。
NVIDIA将"与RTX聊天"应用程序标注为免费技术演示。这可能表明,该公司计划在未来某个时候将其转变为具有更多功能的付费或订阅型应用程序。
责任编辑:站长云网
踩一下[0]

站长云网
顶一下[0]