python第三方库系列之十四--集群化部署定时任务apscheduler库

        如果将定时任务部署在一台服务器上,那么这个定时任务就是整个系统的单点,这台服务器出现故障的话会影响服务。对于可以冗余的任务(重复运行不影响服务),可以部署在多台服务器上,让他们同时执行,这样就可以很简单的避免单点。但是如果任务不允许冗余,最多只能有一台服务器执行任务,那么前面的方法显然行不通。本篇文章就向大家介绍如何避免这种互斥任务的单点问题,最后再介绍一下基于APScheduler的分布式定时任务框架,这个框架是通过多个项目的实践总结而成的。

        对于运行在同一台服务器上的两个进程,可以通过加锁实现互斥执行,而对于运行在多个服务器上的任务仍然可以通过用加锁实现互斥,不过这个锁是分布式锁。这个分布式锁并没有那么神秘,实际上只要一个提供原子性的数据库即可。比如,在数据库的locks表里有一个记录(lock record),包含属性:

name:锁的名字,互斥的任务需要用名字相同的锁。
active_ip:持有锁的服务器的ip。
update_time:上次持有锁的时间,其他非活跃的服务器通过这个属性判断活跃的服务器是否超时,如果超时,则会争夺锁。

        一个持有锁的服务器通过不断的发送心跳,来更新这个记录,心跳的内容就是持有锁的时间戳(update_time),以及本机ip。也就是说,通过发送心跳来保证当前的服务器是活跃的,而其他服务器通过lock record中的update_time来判断当前活跃的服务器是否超时,一旦超时,其他的服务器就会去争夺锁,接管任务的执行,并发送心跳更新active_ip。

        通过上面描述,这个框架中最重要的两个概念就是分布式锁和心跳。下面看一下分布式定时任务框架中是如何实现这两点的。当然,这个框架依赖于APScheduler,所以必须安装这个模块,具体APScheduler的介绍见我的上一篇文章:python第三方库系列之十三--定时任务apscheduler库,因为依赖APScheduler,所以这个框架很简单,只有一个类:

import datetime
import socket
import struct
import fcntl

from apscheduler.scheduler import Scheduler

def get_ip(ifname):
    s = socket.socket(socket.AF_INET, socket.SOCK_DGRAM)
    return socket.inet_ntoa(fcntl.ioctl(
        s.fileno(),
        0x8915,
        struct.pack('256s', ifname[:15])
    )[20:24])


class MutexScheduler(Scheduler):
    def __init__(self, local_ip, gconfig={}, **options):
        Scheduler.__init__(self, gconfig, **options)
        #self.ip = get_ip(settings.NETWORK_INTERFACE)
        self.ip = local_ip

    def mutex(self, lock=None, heartbeat=None, lock_else=None,
              unactive_interval=datetime.timedelta(seconds=10)):

        def mutex_func_gen(func):
            def mtx_func():
                if lock:
                    lock_rec = lock()
                    now = datetime.datetime.now().strftime('%Y-%m-%d %H:%M:%S')
                    now = datetime.datetime.strptime(now, "%Y-%m-%d %H:%M:%S")
                    # execute mutex job when the server is active, or the other server is timeout.
                    if not lock_rec or lock_rec['active_ip'] == self.ip or (
                        lock_rec['update_time'] and now - lock_rec['update_time'] >= unactive_interval):
                        if lock_rec:
                            del lock_rec['active_ip']
                            del lock_rec['update_time']
                        if not lock_rec:
                            lock_rec = {}
                        lock_attrs = func(**lock_rec)
                        if not lock_attrs:
                            lock_attrs = {}
                            # send heart beat
                        heartbeat(self.ip, now, **lock_attrs)
                    else:
                        lock_else(lock_rec)
                else:
                    func()

            return mtx_func

        self.mtx_func_gen = mutex_func_gen

        def inner(func):
            return func

        return inner

    def cron_schedule(self, **options):
        def inner(func):
            if hasattr(self, 'mtx_func_gen'):
                func = self.mtx_func_gen(func)
            func.job = self.add_cron_job(func, **options)
            return func

        return inner

        mutex方法是核心,通过装饰器的方式提供互斥功能。在使用时:

@sched.mutex(lock = my_lock, heartbeat = my_heartbeat)  
@sched.cron_schedule(second = '*')  
def my_job(**attrs):  
    print 'my_job ticks'  
#mutex装饰器必须用在cron_schedule装饰器之前,mutex主要是组装job。mutex的参数有:
#lock:函数,用于获取锁记录(lock record),函数原型:lock()。lock的返回值时dict,就是锁记录内容。
#heartbeat:函数,用于发出心跳,函数原型:heartbeat(ip, now, **attrs)。ip是本机ip;now是当前时间戳;attrs是一个dict,用于在锁记录中存放一些其他用户自定义信息。
#lock_else:函数,在没有获得锁时执行,函数原型:lock_else(lock_rec)。lock_rec是锁记录,包含active_ip,update_time以及用户自定义的属性。
#unactive_interval:datetime.timedelta类型,超时时间,也就是说当前时间减去update_time大于unactive_interval的话,就代表超时。类中默认值<span style="font-family: Consolas, 'Courier New', Courier, mono, serif; line-height: 18px; background-color: rgb(248, 248, 248);">unactive_interval=datetime.timedelta(seconds=</span><span class="number" style="margin: 0px; padding: 0px; border: 0px; font-family: Consolas, 'Courier New', Courier, mono, serif; line-height: 18px; background-color: rgb(248, 248, 248);">10</span><span style="margin: 0px; padding: 0px; border: 0px; font-family: Consolas, 'Courier New', Courier, mono, serif; line-height: 18px; background-color: rgb(248, 248, 248);">)是默认10s。</span>
#在使用这个类时,必须实现自己的lock,heartbeat以及lock_else函数。

        job的原型是job(**attrs),attrs就是存放在锁记录中的用户自定义属性,job可以有dict类型的返回值,这个返回值会存入锁记录中。

        下面,看一下具体使用的例子,使用的mongodb存放分布式锁。

import apscheduler.events  
import datetime  
import time  
import pymongo  
import sys  
import mtxscheduler  
  
sched = mtxscheduler.MutexScheduler()  

mongo = pymongo.Connection(host = '127.0.0.1', port = 27017)  
lock_store = mongo['lockstore']['locks']  
  
def lock():  
    conn = connect_adms_db()
	lock_name = 'xxx'
    sql = "select name, active_ip, update_time from locks where name='%s';" % lock_name
    log.info("sql:%s" % sql)
    res = conn.execute(sql)[0]
    conn.close()
    tuple = {'name': res["name"], 'active_ip': res["active_ip"], 'update_time': res["update_time"]}
    return tuple
  
def hb(ip, now, **attrs):  
    attrs['active_ip'] = ip  
    attrs['update_time'] = now  
	conn = connect_adms_db()
	lock_name = 'xxx'
    sql = "update locks set active_ip='%(ip)s', update_time='%(update_time)s' "           "where name='%(name)s'" % {'ip': ip, 'update_time': now, 'name': lock_name}
    log.info("sql:%s" % sql)
    res = conn.execute(sql)
    conn.close()
  
def le(lock_rec):  
    if lock_rec:  
        print 'active ip', lock_rec['active_ip']  
    else:  
         print 'lock else'  
  
i = 0  
 
@sched.mutex(lock = lock, heartbeat = hb, lock_else = le)  
@sched.cron_schedule(second = '*')  
def job(**attr):  
    global i  
    i += 1  
    print i  
  
def err_listener(ev):  
    if ev.exception:  
        print sys.exc_info()  
              
sched.add_listener(err_listener, apscheduler.events.EVENT_JOB_ERROR)  
  
sched.start()  
time.sleep(10)  

        这个任务很简单就是定时打印整数序列。同时在两台服务器上部署运行,可以发现只有一台服务器会输出整数序列。
        还有使用redis,mongodb存储锁。

郑重声明:本站内容如果来自互联网及其他传播媒体,其版权均属原媒体及文章作者所有。转载目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。