RTX 聊天与 ChatGPT 聊天——它们有何不同?

Chat with RTX 与 ChatGPT:一场生成式AI工具的较量
NVIDIA推出的全新AI聊天机器人——Chat with RTX,以其能在用户个人计算机上本地运行的独特优势,在大型科技公司的聊天机器人中脱颖而出。但这仅仅是两者之间的差异所在吗?事实上,这两款生成式AI工具都能解答关于用户个人数据的问题,且都源自资金实力雄厚的科技巨头。随着时间的推移,它们之间的差异与相似之处或许会更加显著。接下来,让我们深入比较一下Chat with RTX与ChatGPT。
Chat with RTX与ChatGPT概览
Chat with RTX是NVIDIA于2024年2月13日发布的一款AI聊天机器人。从广义上讲,它与OpenAI的ChatGPT、Microsoft Copilot或Google Gemini(原名Bard)同属一类工具,但并非在所有功能上都能找到相似之处。这些替代品各有千秋,但在安全性和个性化方面,Chat with RTX无疑展现出了强大的竞争力。
全新的演示应用程序允许用户使用来自个人计算机的专有数据对GPT大型语言模型(LLM)进行个性化设置。只需上传文件(如文档),该软件便能解答关于这些文档内容的问题。它融合了检索增强生成(RAG)、TensorRT-LLM和RTX加速技术,为NVIDIA提供了“全栈”的掌控力,因为同一家公司还生产着运行该软件的硬件。这种在封闭系统上运行的AI所具备的安全优势,无需依赖互联网,再加上深度优化的硬件和软件效率,无疑将吸引众多用户的目光。
相比之下,无论安装的是哪个品牌的显卡,ChatGPT都能在用户的台式电脑上运行,但前提是必须拥有互联网连接。用户只需在任何知名浏览器(如Google Chrome、Mozilla Firefox、Microsoft Edge、Opera或Safari)中打开ChatGPT即可。然而,这恰恰是ChatGPT的局限性所在,因为一旦失去互联网连接,用户将无法使用该服务。
主要相似之处
这两款人工智能工具都采用了NLP(自然语言处理)技术,这是作为人工智能聊天机器人最基础的方面。它们能够理解用户的命令(即文本提示),用户可以用自然的人类语言书写,就像给朋友发短信一样,人工智能系统会“理解”用户的意图,并给出像人类一样的文本回复。
此外,ChatGPT和Chat with RTX都能处理用户从计算机上传的文件,包括.txt、.pdf、.doc、.docx和.XML等格式。尽管ChatGPT需要通过插件来增强这方面的功能,但这一共同点仍然不容忽视。
显著差异
由于Chat with RTX将在本地PC上运行,其响应时间通常可以比基于服务器的LLM更快。这是因为客户端操作直接利用用户面前的硬件资源,而服务器端操作则需要通过用户的互联网连接发送请求至远程服务器进行处理,然后再将结果发回。因此,用户的互联网连接速度成为影响响应速度的一个重要因素。
NVIDIA的Chat with RTX现已免费开放下载,任何拥有RTX GPU(如RTX 30或40系列GPU,或RTX Ampere或Ada架构GPU,至少具备8GB VRAM)的用户都能享受设备上人工智能的强大功能。此外,该应用还需运行在Windows 11系统上,并需要至少16GB的系统内存(RAM)。
相比之下,ChatGPT则无需特定的GPU或RAM要求,也无需特定的操作系统。用户只需通过浏览器访问即可使用。然而,ChatGPT的使用依赖于互联网连接。
在价格方面,Chat with RTX演示版可免费下载,但体积庞大,超过35GB。ChatGPT同样提供了永久免费计划,并设有三个高级订阅层级。因此,用户无需付费即可使用这两款生成式AI工具。但值得注意的是,通过ChatGPT Plus(20美元/月)、Teams(25美元/月x2个用户)、Enterprise(可扩展定价)或Microsoft Copilot,用户可以访问OpenAI的最佳模型。而NVIDIA的AI聊天机器人则免费提供了对Mistral模型的访问权限,这是OpenAI的替代品所不具备的。尽管有多个基于7B Mistral模型的版本在LYMSys Chatbot Arena排行榜上名列前茅,但OpenAI的GPT-4 Turbo仍然稳居榜首。因此,对于许多用户而言,ChatGPT的定价仍然是物有所值的。
结论
综上所述,Nvidia的Chat with RTX与ChatGPT在诸多方面存在差异。Nvidia的新AI仍处于早期阶段,因此我们期待它能在未来经受住市场的考验并不断发展壮大。