报告日期:2024年8月18日
项目负责人:Bilyc(WsWs)
该项目旨在构建多模态智能体对话机器人,以txt 文本为RAG知识库并结合图片识别功能。选用 Nvidia NIM 平台的相关模型,进行数据构建和向量化处理。通过环境搭建和代码实现,具备一定的可操作性。应用场景广泛,包括客户服务、教育培训、金融服务等多个领域。其亮点在于采用先进模型,能提供全新互动体验,且数据处理和功能整合较为有效。
模型选择: 选择微软的phi-3-small-128k-instruct和ai-phi-3-vision-128k-instruct模型,分别实现txt文档和png、jpg、jpeg图像的智能回答和识别。
Phi-3-Small-128k-Instruct 模型占用资源相对较少,便于部署和应用在资源有限的环境中,同时仍能提供较为准确和有用的指令响应。它在处理常见任务时能够保持高效和可靠。 AI-Phi-3-Vision-128k-Instruct 模型则在视觉相关的指令处理上表现出色。能够理解和处理图像相关的指令,为涉及图像分析、识别和理解的任务提供有力支持。这两个模型都具有长上下文处理能力,能更好地理解复杂的任务和指令,为用户提供更全面和准确的服务。
1.数据构建过程
首先,收集txt电子书和图片。当选择txt电子书后,Phi-3-Small-128k-Instruct 模型会对文本进行预处理,建立本地Faiss vector向量数据库。而图片则直接喂给模型分析。
2.向量化处理方法及其优势。
向量化模型选用ai-embed-qa-4。对 txt 文档进行向量化。该模型会对文档中的文本进行深度分析和编码。它会将文本分解为单词、短语或更细粒度的语言单元,并通过其内部的神经网络架构将这些单元转换为数值向量。
采用gradio框架和Nvidia的NIM服务,将两个模型整合成一个多模态的智能机器人,并实现网页可视化应用。
1. 创建Python环境
首先需要安装Miniconda:
大家可以根据自己的网络情况从下面的地址下载:
miniconda官网地址:https://docs.conda.io/en/latest/miniconda.html
清华大学镜像地址: Index of /anaconda/miniconda/ | 清华大学开源软件镜像站 | Tsinghua Open Source Mirror
安装完之后,打开Anaconda Powershell:
在打开的终端中按照下面的步骤执行,配置环境:
创建python 3.8虚拟环境
进入虚拟环境
安装nvidia_ai_endpoint工具
安装Jupyter Lab
安装langchain_core
安装langchain和langchain_community
安装matplotlib
安装Numpy
安装faiss
安装OPENAI库
2.Macbook 环境
Macbook也可以按照上面的步骤同样执行, 只是在下载Miniconda的时候要下载Mac OS版本的
直接上干货仅,有100行左右。
客户服务与支持、教育培训领域、金融服务行业、医疗健康领域、企业内部应用、政务服务领域、媒体与新闻行业、旅游与出行领域等。
1.首先看图片的识别效果。
2.再看一看RAG文本的实现效果
本文旨在构建一个以txt文本为知识库和图片识别相结合的多模态智能体对话机器人,为读者提供全新互动体验。 选择Nvidia NIM平台的(phi-3-small-128k-instruct 和 ai-phi-3-vision-128k-instruct)模型,并采用了有效的数据构建和向量化处理方法。 详细介绍了环境搭建和代码实现,具有可操作性。总体而言,该项目具有一定的创新性和实用性,但在性能评估和未来规划方面还有待进一步完善。读者可在此基础上进行改进完善。
该项目未来可朝着以下方向发展:一是优化模型性能,提高对文本和图像的理解与分析能力,提升回答的准确性和全面性;二是拓展应用场景,深入挖掘更多领域的需求,为用户提供更广泛的服务;三是加强与其他技术的融合,如与物联网、大数据等结合,实现更智能的交互;四是持续改进用户体验,根据用户反馈不断优化界面和交互方式;五是探索商业化应用,为企业和个人带来实际价值。
1. https://python.langchain.com/v0.1/docs/integrations/chat/nvidia_ai_endpoints/
2. NVIDIA NIM页面: https://build.nvidia.com/explore/discover
3. NVIDIA DLI课程学习资料页面:https://www.nvidia.cn/training/online/