易刊去水印工具 使用说明
安装后即可使用 有任何问题 请联系作者哦~
这是一款去水印的桌面应用,集成了 AI 水印检测、特征提取、提示词生成与去除功能,支持批量图片处理、区域选择、自动修复和多种自定义操作。界面友好,操作简单,适合各类图片去水印需求。
注意: 若服务器启动失败,请检查端口占用或以管理员身份运行。
水印检测需要使用没有量化的 Qwen/Qwen2.5-VL 模型 或 官方支持量化的 AWQ 模型
注意:在 ollama 或 lvstudio 运行的 gguf 模型均不能获取准确水印坐标
如果有10GB显存 以上显卡想本地部署的 可以用 vllm 部署
经测试 vllm 中部署的 AWQ 系列模型最可靠
有什么不懂的或出什么问题可以问deepseek或GPT
window 系统可以用 docker 部署示例
保存为 docker-compose.yml 修改模型位置 C:\models
version: '3.8' services: vllm: image: vllm/vllm-openai:latest ports: - "8000:8000" volumes: - C:\models:/models - ${USERPROFILE}/.cache:/root/.cache ipc: host deploy: resources: reservations: devices: - driver: nvidia capabilities: [gpu] command: > --model /models/Qwen2.5-VL-7B-Instruct-AWQ --served-model-name Qwen/Qwen2.5-VL-7B-Instruct-AWQ --trust-remote-code --tensor-parallel-size=1 --quantization awq --dtype float16 --gpu-memory-utilization 0.7 --max-model-len 4096 --block-size 16 --swap-space 4 --max-num-batched-tokens 4096 --max-num-seqs 1 environment: - CUDA_VISIBLE_DEVICES=0 - HF_ENDPOINT=https://hf-mirror.com - CUDA_LAUNCH_BLOCKING=1
安装 docker deskstop 后在命令行中运行
docker-compose up -d
下载模型示例:
set HF_ENDPOINT=https://hf-mirror.com huggingface-cli download Qwen/Qwen2.5-VL-7B-Instruct-AWQ --local-dir C:/models/Qwen2.5-VL-7B-Instruct-AWQ
在 ubuntu 系统运行速度最快,以下是安装示例:
# 下载最新版本的 Miniconda 安装脚本 wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh chmod +x Miniconda3-latest-Linux-x86_64.sh # 安装 Miniconda # ./Miniconda3-latest-Linux-x86_64.sh -b -p $HOME/miniconda3 ./Miniconda3-latest-Linux-x86_64.sh -u # 重新加载 shell 配置以使 conda 命令可用 source ~/.bashrc conda --version # 配置 conda 使用国内镜像源(例如清华镜像) conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/ conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/ conda config --set show_channel_urls yes conda create -n py311 python=3.11 -y # 激活 conda 环境 conda activate py311 # 安装 Jupyter Notebook conda install -c conda-forge jupyterlab -y # 安装 cuda toolkit 10.2 conda install cudatoolkit=10.2 -y # 安装 PyTorch 和 torchvision pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu118 # vllm pip install vllm
安装后运行示例:
conda activate py311 vllm serve /media/jacky/新加卷/models/Qwen2.5-VL-7B-Instruct-AWQ \ --served-model-name Qwen/Qwen2.5-VL-3B-Instruct-AWQ \ --trust-remote-code \ --quantization awq \ --dtype float16 \ --max-model-len 4096 \ --gpu-memory-utilization 0.7 \ --tensor-parallel-size 1 \ --max-num-batched-tokens 2048 \ --swap-space 4 \ --block-size 16 \ --max-num-seqs 2
如有更多问题或建议,请联系开发者或在项目主页提交 issue。
天涯工作室 QQ:891282008 网址:http://www.tenyasoft.com
祝您使用愉快!
一键安装后默认使用CPU,可自行安装英伟达 nvidia cuda GPU加速,加速前处理一张图片需要6~10秒,加速后 1~3秒即可,请查看使用说明,下载 并安装
torch-2.1.0+cu118-cp38-cp38-win_amd64.whl
torchvision-0.16.0+cu118-cp38-cp38-win_amd64.whl
百度网盘 链接: https://pan.baidu.com/s/1FY2kP1TjIp_A89okkRJRBQ?pwd=cdcq 提取码: cdcq
8 篇文章
如果觉得我的文章对您有用,请随意打赏。你的支持将鼓励我继续创作!