码农知识堂 - 1000bd
  •   Python
  •   PHP
  •   JS/TS
  •   JAVA
  •   C/C++
  •   C#
  •   GO
  •   Kotlin
  •   Swift
  • Python爬取wallhaven的所有4k壁纸图片


    目录

    一、前端结构

    二、代码 


    一、前端结构

    为get请求,携带参数如下:

    随page参数变化网页变化 

     

     

    需要在整张页面中进入:

    //section[@class="thumb-listing-page"]//li/figure/a/@href

     

     

     进入后获取图片src:

    //section[@class="fit"]/div[@class="scrollbox"]/img/@src

     

    共92页 

    二、代码 

    1. #爬取wallhaven 4k类的所有图片
    2. import requests
    3. import chardet
    4. from lxml import etree
    5. url='https://wallhaven.cc/search?'
    6. headers={
    7. 'User-Agent':
    8. 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/117.0.0.0 Safari/537.36 Edg/117.0.2045.47'
    9. }
    10. total_img_url_list=[]
    11. for pageNum in range(1,3):#爬取两页作为示例
    12. params={
    13. 'q': 'id:65348',
    14. 'sorting': 'random',
    15. 'ref': 'fp',
    16. 'seed': 'dHtqFi',
    17. 'page': pageNum,
    18. }
    19. resp=requests.get(url=url,headers=headers,params=params)
    20. encoding=chardet.detect(resp.content)['encoding']
    21. #print(encoding)
    22. resp.encoding=encoding
    23. page_text1=resp.text
    24. tree1=etree.HTML(page_text1)
    25. img_url_list=tree1.xpath('//section[@class="thumb-listing-page"]//li/figure/a/@href')
    26. total_img_url_list+=img_url_list
    27. #print(src_list)
    28. for img_src_url in total_img_url_list:
    29. resp=requests.get(url=img_src_url,headers=headers)
    30. encoding=chardet.detect(resp.content)['encoding']
    31. resp.encoding=encoding
    32. page_text2=resp.text
    33. tree2=etree.HTML(page_text2)
    34. img_url=tree2.xpath('//section[@class="fit"]/div[@class="scrollbox"]/img/@src')
    35. img_name = img_url[0].split('/')[-1]
    36. with open (
    37. 'D:\\Programming\\Microsoft VS Code Data\\WebCrawler\\data\\img_wallhaven\\'+img_name,
    38. 'wb'
    39. ) as fp:
    40. img=requests.get(url=img_url[0],headers=headers)
    41. fp.write(img.content)
    42. print(img_url,'爬取成功!')
    43. print('爬取结束!!!')

     

     

    可加快爬取速度的方式:

    1. 使用多线程或异步请求:可以考虑使用多线程或异步请求库,如concurrent.futures、asyncio、aiohttp等,同时发送多个请求,从而加快爬取速度。

    2. 并行下载图片:可以考虑将图片下载的部分放入异步任务中,实现并行下载多张图片,提高下载速度。

     但是还不会

     

  • 相关阅读:
    五天搞定Mysql基础知识-Day05
    【数据库】函数处理(文本处理函数、日期和时间处理函数、数值处理函数)
    Python类和对象创建过程分析与元类以及魔法函数
    [知识管理] Obsidian + Remotely Save插件 + 第三方存储/OSS(七牛云)的同步方案
    数据库系统工程师------流水线
    asp毕业设计——基于asp+access的文学网站设计与实现(毕业论文+程序源码)——文学网站
    OpenGL简介
    循环练习
    音质最好的蓝牙耳机有哪些?发烧级音质蓝牙耳机推荐
    ResultSet底层和Statement
  • 原文地址:https://blog.csdn.net/naozibuok/article/details/133613498
  • 最新文章
  • 攻防演习之三天拿下官网站群
    数据安全治理学习——前期安全规划和安全管理体系建设
    企业安全 | 企业内一次钓鱼演练准备过程
    内网渗透测试 | Kerberos协议及其部分攻击手法
    0day的产生 | 不懂代码的"代码审计"
    安装scrcpy-client模块av模块异常,环境问题解决方案
    leetcode hot100【LeetCode 279. 完全平方数】java实现
    OpenWrt下安装Mosquitto
    AnatoMask论文汇总
    【AI日记】24.11.01 LangChain、openai api和github copilot
  • 热门文章
  • 十款代码表白小特效 一个比一个浪漫 赶紧收藏起来吧!!!
    奉劝各位学弟学妹们,该打造你的技术影响力了!
    五年了,我在 CSDN 的两个一百万。
    Java俄罗斯方块,老程序员花了一个周末,连接中学年代!
    面试官都震惊,你这网络基础可以啊!
    你真的会用百度吗?我不信 — 那些不为人知的搜索引擎语法
    心情不好的时候,用 Python 画棵樱花树送给自己吧
    通宵一晚做出来的一款类似CS的第一人称射击游戏Demo!原来做游戏也不是很难,连憨憨学妹都学会了!
    13 万字 C 语言从入门到精通保姆级教程2021 年版
    10行代码集2000张美女图,Python爬虫120例,再上征途
Copyright © 2022 侵权请联系2656653265@qq.com    京ICP备2022015340号-1
正则表达式工具 cron表达式工具 密码生成工具

京公网安备 11010502049817号