V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
推荐学习书目
Learn Python the Hard Way
Python Sites
PyPI - Python Package Index
http://diveintopython.org/toc/index.html
Pocoo
值得关注的项目
PyPy
Celery
Jinja2
Read the Docs
gevent
pyenv
virtualenv
Stackless Python
Beautiful Soup
结巴中文分词
Green Unicorn
Sentry
Shovel
Pyflakes
pytest
Python 编程
pep8 Checker
Styles
PEP 8
Google Python Style Guide
Code Style from The Hitchhiker's Guide
redhatping
V2EX  ›  Python

爬虫爬到 90%的数据以后,超时了。。

  •  
  •   redhatping · 2016-09-14 15:35:37 +08:00 · 3571 次点击
    这是一个创建于 2984 天前的主题,其中的信息可能已经有所发展或是发生改变。
    顿时傻掉了, 这个如何中途保存呢。。 方便下次爬呢。 只会 urllib,beautifulsoup4 , 我知道 有个断点续爬, 但是这个东西怎么弄, 求个迎门砖。
    6 条回复    2016-09-16 12:04:05 +08:00
    Karblue
        1
    Karblue  
       2016-09-14 17:47:00 +08:00
    把爬的深度和连接记下来啊.下次直接开始从这里爬.
    web88518
        2
    web88518  
       2016-09-14 19:05:34 +08:00 via iPhone
    我也是新手,也遇到过不知道怎么处理好,没看到这样的实倒,
    haozibi
        3
    haozibi  
       2016-09-14 19:15:42 +08:00 via Android
    在数据库设计一个表,存放当前爬取的位置,或者没爬取 100 次保存一下数据
    practicer
        4
    practicer  
       2016-09-14 23:58:55 +08:00
    seen = []
    todo = []

    1 将带爬的 url 全部添加到 todo
    2 每爬过一个 url 时(或在 ConnectionError 抛出时)在循环体的末尾将 url 添加到 seen
    3 再从 todo 删除这个 url

    所以断了下次再从 todo 里接着爬就行了
    JamesMackerel
        5
    JamesMackerel  
       2016-09-15 11:54:44 +08:00 via Android
    布隆过滤器?
    makeapp
        6
    makeapp  
       2016-09-16 12:04:05 +08:00
    维护一个几个队列,用来存放增量爬取的数据
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2814 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 80ms · UTC 04:07 · PVG 12:07 · LAX 20:07 · JFK 23:07
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.