当前位置 博文首页 > python中用Scrapy实现定时爬虫的实例讲解

    python中用Scrapy实现定时爬虫的实例讲解

    作者:宋宋大人 时间:2021-02-06 09:01

    一般网站发布信息会在具体实现范围内发布,我们在进行网络爬虫的过程中,可以通过设置定时爬虫,定时的爬取网站的内容。使用python爬虫框架Scrapy框架可以实现定时爬虫,而且可以根据我们的时间需求,方便的修改定时的时间。

    1、Scrapy介绍

    Scrapy是python的爬虫框架,用于抓取web站点并从页面中提取结构化的数据。任何人都可以根据需求方便的修改。Scrapy用途广泛,可以用于数据挖掘、监测和自动化测试。

    2、使用Scrapy框架定时爬取

    import time
    from scrapy import cmdline
    def doSth():
      # 把爬虫程序放在这个类里 zhilian_spider 是爬虫的name
      cmdline.execute('scrapy crawl zhilian_spider'.split())
    # 想几点更新,定时到几点
    def time_ti(h=17, m=54):
      while True:
        now = datetime.datetime.now()
        # print(now.hour, now.minute)
        if now.hour == h and now.minute == m:
          doSth()
        # 每隔60秒检测一次
        time.sleep(60)
    time_ti()

    3、更简单的写法

    import time
    import sys
    import os
    import datetime
    def Dingshi():
    while True:
    os.system("scrapy crawl lcp")#lcp是我们爬虫的代码名字哦
    time.sleep(60)
    Dingshi()

    知识点扩展:

    直接使用Timer类实例代码

    import time
    import os
    while True:
     os.system("scrapy crawl News")
     time.sleep(86400) #每隔一天运行一次 24*60*60=86400s或者,使用标准库的sched模块
    import sched
    #初始化sched模块的scheduler类
    #第一个参数是一个可以返回时间戳的函数,第二个参数可以在定时未到达之前阻塞。
    schedule = sched.scheduler ( time.time, time.sleep )
    #被周期性调度触发的函数
    def func():
     os.system("scrapy crawl News")
    def perform1(inc):
     schedule.enter(inc,0,perform1,(inc,))
     func() # 需要周期执行的函数
    def mymain():
     schedule.enter(0,0,perform1,(86400,))
    if __name__=="__main__":
     mymain()
     schedule.run() # 开始运行,直到计划时间队列变成空为止关于cmd的实现方法,本人在单次执行爬虫程序时使用的是 
    cmdline.execute("scrapy crawl News".split())但可能因为cmdline是scrapy模块中自带的,所以定时执行时只能执行一次就退出了。
    js
    下一篇:没有了