看了下上个版本是一年前了,今天有人说搜索不好使,更新一下。
更新日志 修复webp图片下载文件扩展名错误 修复搜索下载失败
参数说明:
C:\Users\obaby>E:\Pycharm_Projects\meitulu-spider\dist\xrmnw_v2.exe
****************************************************************************************************
_ _ ____
___ | |__ __ _| |__ _ _ / __ \ _ __ ___ __ _ _ __ ___
/ _ \| '_ \ / _` | '_ \| | | |/ / _` | '_ ` _ \ / _` | '__/ __|
| (_) | |_) | (_| | |_) | |_| | | (_| | | | | | | (_| | | \__ \
\___/|_.__/ \__,_|_.__/ \__, |\ \__,_|_| |_| |_|\__,_|_| |___/
|___/ \____/
秀人美女网爬虫<多站点版>
Verson: 24.05.05
Blog: http://oba.by
Web: https://nai.dog
--------------------------------------------------------------------------------
爬虫信息:
当前服务器地址: https://www.xrmn01.top
提示:切换域名请用-s参数,不知道怎么运行看下面一行!!
命令行工具使用方法:https://oba.by/?p=12240
PS:姐姐的上面的域名怎样啊?说不好的不让用!!哼!!
可选网站地址:https://www.xrmnw.cc https://www.xrmn02.cc
旧版本可用,通过-s参数置顶地址即可
****************************************************************************************************
USAGE:
spider -h <help> -a <all> -q <search>
Arguments:
-a <download all site images>
-q <query the image with keywords>
-h <display help text, just this>
Option Arguments:
-p <image download path>
-r <random index category list>
-c <single category url>
-e <early stop, work in site crawl mode only>
-s <site url eg: https://www.xrmnw.cc (no last backslash "/")>
****************************************************************************************************
重点提示:
1.先去搜索怎么运行命令行工具!!!或者直接看这个视频:https://weibo.com/u/2120123121?tabtype=newVideo&layerid=4673816364844552
2.请使用-p参数指定下载路径!请使用-p参数指定下载路径!请使用-p参数指定下载路径!
3.不要问为什么运行闪退!!
不要问为什么运行闪退!!
不要问为什么运行闪退!!
不要问为什么运行闪退!!
不要问为什么运行闪退!!
教程:
下载地址:
