• CogVLM & CogAgent模型部署


       
     

         CogVLM & CogAgent       下载地址                                                                                                                  

    CogVLM & CogAgent 的 Github 官方仓库:https://github.com/THUDM/CogVLM

    CogVLM & CogAgent体验地址

    只是完成传统CV任务中例如目标检测定位, VQA 任务,我们CogVLM模型就可以胜任任务

    需要完成多模态的指令任务,例如 跨模态指令图文指导工具调用任务,我们推荐使用CogAgent模型

    如下测试:

       SwanHub      模型下载                                                始智AI社区   

       OpenXLab    模型下载                                                ModelScope 魔塔社区                                                 

       HuggingFace 社区

    源码安装

    • 从 github 下载源码

    git clone https://github.com/THUDM/CogVLM.git

    • 从 Swanhub 下载源码

    git clone https://swanhub.co/ZhipuAI/CogVLM.git

    开发者可以通过以下方式下载模型文件

    • 下载模型文件前请先确保`git lfs`命令已安装,安装教程请参考这里git-lfs

    • 模型文件已上传至 Huggingface, Modelsope , SwanHub 三个平台,用户可以快速安装模型。

    • 若使用 Huggingface 下载模型

    1. git lfs install
    2. # CogVLM
    3. git clone https://huggingface.co/THUDM/cogvlm-chat-hf.git
    4. # CogAgent
    5. git clone https://huggingface.co/THUDM/cogagent-chat-hf.git

    • 若使用 Modelscope 下载模型

    1. git lfs install
    2. # CogVLM
    3. git clone https://www.modelscope.cn/ZhipuAI/cogvlm-chat.git
    4. # CogAgent
    5. git clone https://www.modelscope.cn/ZhipuAI/cogagent-chat.git

    • 若使用 SwanHub 下载模型

    1. git lfs install
    2. # CogVLM
    3. git clone https://swanhub.co/ZhipuAI/cogvlm-chat.git
    4. # CogAgent
    5. git clone https://swanhub.co/ZhipuAI/cogagent-chat-hf.git

    安装依赖

    使用 pip 安装依赖:

    1. cd CogVLM
    2. pip install -r requirements.txt
    3. python -m spacy download en_core_web_sm

    如果配置不满足最低配置,你可以访问环境配置和检查获取更多信息

    运行demo

    使用我们提供的命令行交互来完成命令行与 CogAgent & CogVLM 的对话。

    python basic_demo/cli_demo_hf.py中运行代码

    1. # CogAgent
    2. python cli_demo_hf.py --from_pretrained THUDM/cogagent-chat-hf --bf16
    3. python cli_demo_hf.py --from_pretrained THUDM/cogagent-vqa-hf --bf16
    4. # CogVLM
    5. python cli_demo_hf.py --from_pretrained THUDM/cogvlm-chat-hf --bf16
    6. python cli_demo_hf.py --from_pretrained THUDM/cogvlm-grounding-generalist --bf16

    如果你使用的是sat模型,请使用cli_demo_sat.py来完整这个步骤

    1. # CogAgent
    2. python cli_demo_hf.py --from_pretrained THUDM/cogagent-chat-hf --bf16
    3. python cli_demo_hf.py --from_pretrained THUDM/cogagent-vqa-hf --bf16
    4. # CogVLM
    5. python cli_demo_hf.py --from_pretrained THUDM/cogvlm-chat-hf --bf16
    6. python cli_demo_hf.py --from_pretrained THUDM/cogvlm-grounding-generalist --bf16

    运行 WebDemo (使用官方在线DEMO)

    在本仓库中,我们为开发者提供了一个可以直接运行的完整 Web Demo。

    用户可以直接在Web Demo中可视化的与模型进行交互。

    启动代码

    首先,按照要求下载必须的配置。

    pip install -r composite_demo/requirements.txt

    接着,在composite_demo/client.py中将修改以下代码

    1. # 将这两行替换为你模型的实际位置
    2. MODEL_PATH = os.environ.get('MODEL_PATH', 'your cogagent-chat-hf path')
    3. TOKENIZER_PATH = os.environ.get('TOKENIZER_PATH', 'your vicuna-7b-v1.5 path')

    接着,运行代码

     streamlit run composite_demo/main.py

  • 相关阅读:
    Java基础进阶线程的生命周期
    干货 | 精准化测试原理简介与实践探索
    离线安装docker-compose
    shell脚本
    LibreOffice怎么打开导航页面
    图像处理之图像噪声和各种噪声的matlab实现
    Maven系列第4篇:仓库详解
    手把手教你君正X2000开发板的OpenHarmony环境搭建
    2018年五一杯数学建模B题商业银行人民币贷款规模分配及盈利问题解题全过程文档及程序
    MyBatis完成CRUD 详细细节内容
  • 原文地址:https://blog.csdn.net/m0_60657960/article/details/138094930