source: trunk/daemon/togad.py @ 37

Last change on this file since 37 was 37, checked in by bastiaans, 18 years ago

daemon/togad.py:

  • RRDTool module will only take string variable's for parameters wrote a simple RRDMutator class to the rrdtool binary
  • Now we can parse lists for arguments to rrdupdate
  • Threading and in-memory rrd seems to work, more testing required
File size: 17.4 KB
Line 
1#!/usr/bin/env python
2
3from xml.sax import make_parser
4from xml.sax.handler import ContentHandler
5import socket
6import sys
7import string
8import os
9import os.path
10import time
11import re
12import threading
13import mutex
14
15# Specify debugging level here;
16#
17# <=11 = metric XML
18# <=10 = host,cluster,grid,ganglia XML
19# <=9  = RRD activity,gmetad config parsing
20# <=8  = host processing
21# <=7  = daemon threading - NOTE: Daemon will 'halt on all errors' from this level
22#
23DEBUG_LEVEL = 10
24
25# Where is the gmetad.conf located
26#
27GMETAD_CONF = '/etc/gmetad.conf'
28
29# Where to store the archived rrd's
30#
31ARCHIVE_PATH = '/data/toga/rrds'
32
33# List of data_source names to archive for
34#
35ARCHIVE_SOURCES = [ "LISA Cluster" ]
36
37# Amount of hours to store in one single archived .rrd
38#
39ARCHIVE_HOURS_PER_RRD = 12
40
41# Wether or not to run as a daemon in background
42#
43DAEMONIZE = 0
44
45######################
46#                    #
47# Configuration ends #
48#                    #
49######################
50
51# What XML data types not to store
52#
53UNSUPPORTED_ARCHIVE_TYPES = [ 'string' ]
54
55"""
56This is TOrque-GAnglia's data Daemon
57"""
58
59class RRDMutator:
60
61        binary = '/usr/bin/rrdtool'
62
63        def __init__( self, binary=None ):
64
65                if binary:
66                        self.binary = binary
67
68        def create( self, filename, args ):
69                return self.perform( 'create' + ' "' + filename + '"', args )
70
71        def update( self, filename, args ):
72                return self.perform( 'update' + ' "' + filename + '"', args )
73
74        def perform( self, action, args ):
75
76                arg_string = None
77
78                for arg in args:
79
80                        if not arg_string:
81
82                                arg_string = arg
83                        else:
84                                arg_string = arg_string + ' ' + arg
85
86                debug_msg( 7, 'rrdm.perform(): ' + self.binary + ' ' + action + ' ' + arg_string  )
87
88                for line in os.popen( self.binary + ' ' + action + ' ' + arg_string ).readlines():
89
90                        if line.find( 'ERROR' ) != -1:
91
92                                error_msg = string.join( line.split( ' ' )[1:] )
93                                debu_msg( 7, error_msg )
94                                return 1
95
96                return 0
97
98class GangliaXMLHandler( ContentHandler ):
99        "Parse Ganglia's XML"
100
101        def __init__( self, config ):
102                self.config = config
103                self.clusters = { }
104
105        def startElement( self, name, attrs ):
106                "Store appropriate data from xml start tags"
107
108                if name == 'GANGLIA_XML':
109
110                        self.XMLSource = attrs.get( 'SOURCE', "" )
111                        self.gangliaVersion = attrs.get( 'VERSION', "" )
112
113                        debug_msg( 10, 'Found XML data: source %s version %s' %( self.XMLSource, self.gangliaVersion ) )
114
115                elif name == 'GRID':
116
117                        self.gridName = attrs.get( 'NAME', "" )
118                        self.time = attrs.get( 'LOCALTIME', "" )
119
120                        debug_msg( 10, '`-Grid found: %s' %( self.gridName ) )
121
122                elif name == 'CLUSTER':
123
124                        self.clusterName = attrs.get( 'NAME', "" )
125                        self.time = attrs.get( 'LOCALTIME', "" )
126
127                        if not self.clusters.has_key( self.clusterName ) and self.clusterName in ARCHIVE_SOURCES:
128
129                                self.clusters[ self.clusterName ] = RRDHandler( self.config, self.clusterName )
130
131                                debug_msg( 10, ' |-Cluster found: %s' %( self.clusterName ) )
132
133                elif name == 'HOST' and self.clusterName in ARCHIVE_SOURCES:     
134
135                        self.hostName = attrs.get( 'NAME', "" )
136                        self.hostIp = attrs.get( 'IP', "" )
137                        self.hostReported = attrs.get( 'REPORTED', "" )
138
139                        debug_msg( 10, ' | |-Host found: %s - ip %s reported %s' %( self.hostName, self.hostIp, self.hostReported ) )
140
141                elif name == 'METRIC' and self.clusterName in ARCHIVE_SOURCES:
142
143                        type = attrs.get( 'TYPE', "" )
144
145                        if type not in UNSUPPORTED_ARCHIVE_TYPES:
146
147                                myMetric = { }
148                                myMetric['name'] = attrs.get( 'NAME', "" )
149                                myMetric['val'] = attrs.get( 'VAL', "" )
150                                myMetric['time'] = self.hostReported
151
152                                self.clusters[ self.clusterName ].memMetric( self.hostName, myMetric )
153
154                                debug_msg( 11, ' | | |-metric: %s:%s' %( myMetric['name'], myMetric['val'] ) )
155
156        def storeMetrics( self ):
157
158                for clustername, rrdh in self.clusters.items():
159
160                        print 'storing metrics of cluster ' + clustername
161                        rrdh.storeMetrics()
162
163class GangliaXMLGatherer:
164        "Setup a connection and file object to Ganglia's XML"
165
166        s = None
167
168        def __init__( self, host, port ):
169                "Store host and port for connection"
170
171                self.host = host
172                self.port = port
173                self.connect()
174
175        def connect( self ):
176                "Setup connection to XML source"
177
178                for res in socket.getaddrinfo( self.host, self.port, socket.AF_UNSPEC, socket.SOCK_STREAM ):
179
180                        af, socktype, proto, canonname, sa = res
181
182                        try:
183
184                                self.s = socket.socket( af, socktype, proto )
185
186                        except socket.error, msg:
187
188                                self.s = None
189                                continue
190
191                        try:
192
193                                self.s.connect( sa )
194
195                        except socket.error, msg:
196
197                                self.s.close()
198                                self.s = None
199                                continue
200
201                        break
202
203                if self.s is None:
204
205                        debug_msg( 0, 'Could not open socket' )
206                        sys.exit( 1 )
207
208        def disconnect( self ):
209                "Close socket"
210
211                if self.s:
212                        self.s.close()
213                        self.s = None
214
215        def __del__( self ):
216                "Kill the socket before we leave"
217
218                self.disconnect()
219
220        def getFileObject( self ):
221                "Connect, and return a file object"
222
223                self.disconnect()
224                self.connect()
225
226                return self.s.makefile( 'r' )
227
228class GangliaXMLProcessor:
229
230        def __init__( self ):
231                "Setup initial XML connection and handlers"
232
233                self.config = GangliaConfigParser( GMETAD_CONF )
234
235                self.myXMLGatherer = GangliaXMLGatherer( 'localhost', 8651 ) 
236                self.myParser = make_parser()   
237                self.myHandler = GangliaXMLHandler( self.config )
238                self.myParser.setContentHandler( self.myHandler )
239
240        def daemon( self ):
241                "Run as daemon forever"
242
243                self.DAEMON = 1
244
245                # Fork the first child
246                #
247                pid = os.fork()
248
249                if pid > 0:
250
251                        sys.exit(0)  # end parent
252
253                # creates a session and sets the process group ID
254                #
255                os.setsid()
256
257                # Fork the second child
258                #
259                pid = os.fork()
260
261                if pid > 0:
262
263                        sys.exit(0)  # end parent
264
265                # Go to the root directory and set the umask
266                #
267                os.chdir('/')
268                os.umask(0)
269
270                sys.stdin.close()
271                sys.stdout.close()
272                #sys.stderr.close()
273
274                os.open('/dev/null', 0)
275                os.dup(0)
276                os.dup(0)
277
278                self.run()
279
280        def printTime( self ):
281                "Print current time in human readable format"
282
283                return time.strftime("%a %d %b %Y %H:%M:%S")
284
285        def grabXML( self ):
286
287                debug_msg( 7, self.printTime() + ' - mainthread() - xmlthread() started' )
288                pid = os.fork()
289
290                if pid == 0:
291                        # Child - XML Thread
292                        #
293                        # Process XML and exit
294
295                        debug_msg( 7, self.printTime() + ' - xmlthread()  - Start XML processing..' )
296                        self.processXML()
297                        debug_msg( 7, self.printTime() + ' - xmlthread()  - Done processing; exiting.' )
298                        sys.exit( 0 )
299
300                elif pid > 0:
301                        # Parent - Time/sleep Thread
302                        #
303                        # Make sure XML is processed on time and at regular intervals
304
305                        debug_msg( 7, self.printTime() + ' - mainthread() - Sleep '+ str( self.config.getLowestInterval() ) +'s: zzzzz..' )
306                        time.sleep( float( self.config.getLowestInterval() ) )
307                        debug_msg( 7, self.printTime() + ' - mainthread() - Awoken: waiting for XML thread..' )
308
309                        r = os.wait()
310                        ret = r[1]
311                        if ret != 0:
312                                debug_msg( 7, self.printTime() + ' - mainthread() - Done waiting: ERROR! xmlthread() exited with status %d' %(ret) )
313                                if DEBUG_LEVEL>=7: sys.exit( 1 )
314                        else:
315
316                                debug_msg( 7, self.printTime() + ' - mainthread() - Done waiting: xmlthread() finished succesfully' )
317
318        def run( self ):
319                "Main thread"
320
321                #self.processXML()
322                #self.storeMetrics()
323
324                #time.sleep( 20 )
325
326                #self.processXML()
327                #self.storeMetrics()
328
329                #sys.exit(1)
330
331                xmlthread = threading.Thread( None, self.processXML, 'xmlthread' )
332                storethread = threading.Thread( None, self.storeMetrics, 'storethread' )
333
334                while( 1 ):
335
336                        if not xmlthread.isAlive():
337                                # Gather XML at the same interval as gmetad
338
339                                # threaded call to: self.processXML()
340                                #
341                                xmlthread = threading.Thread( None, self.processXML, 'xmlthread' )
342                                debug_msg( 7, self.printTime() + ' - mainthread() - xmlthread() started' )
343                                xmlthread.start()
344
345                        if not storethread.isAlive():
346                                # Store metrics every .. sec
347
348                                # threaded call to: self.storeMetrics()
349                                #
350                                storethread = threading.Thread( None, self.storeMetrics, 'storethread' )
351                                debug_msg( 7, self.printTime() + ' - mainthread() - storethread() started' )
352                                storethread.start()
353               
354                        # Just sleep a sec here, to prevent daemon from going mad. We're all threads here anyway
355                        time.sleep( 1 ) 
356
357        def storeMetrics( self ):
358                "Store metrics retained in memory to disk"
359
360                STORE_INTERVAL = 5
361
362                debug_msg( 7, self.printTime() + ' - storethread() - Storing data..' )
363
364                # threaded call to: self.myHandler.storeMetrics()
365                #
366                storethread = threading.Thread( None, self.myHandler.storeMetrics(), 'storemetricthread' )
367                storethread.start()
368
369                debug_msg( 7, self.printTime() + ' - storethread() - Sleeping.. (%ss)' %STORE_INTERVAL )
370                time.sleep( STORE_INTERVAL )
371                debug_msg( 7, self.printTime() + ' - storethread() - Done sleeping.' )
372
373                if storethread.isAlive():
374
375                        debug_msg( 7, self.printTime() + ' - storethread() - storemetricthread() still running, waiting to finish..' )
376                        parsethread.join( 180 ) # Maximum time is 3 minutes for storing thread to finish - more then enough
377                        debug_msg( 7, self.printTime() + ' - storethread() - storemetricthread() finished.' )
378
379                debug_msg( 7, self.printTime() + ' - storethread() finished' )
380
381                return 0
382
383        def processXML( self ):
384                "Process XML"
385
386                debug_msg( 7, self.printTime() + ' - xmlthread() - Parsing..' )
387
388                # threaded call to: self.myParser.parse( self.myXMLGatherer.getFileObject() )
389                #
390                parsethread = threading.Thread( None, self.myParser.parse, 'parsethread', [ self.myXMLGatherer.getFileObject() ] )
391                parsethread.start()
392
393                debug_msg( 7, self.printTime() + ' - xmlthread() - Sleeping.. (%ss)' %self.config.getLowestInterval() )
394                time.sleep( float( self.config.getLowestInterval() ) ) 
395                debug_msg( 7, self.printTime() + ' - xmlthread() - Done sleeping.' )
396
397                if parsethread.isAlive():
398
399                        debug_msg( 7, self.printTime() + ' - xmlthread() - parsethread() still running, waiting to finish..' )
400                        parsethread.join( 180 ) # Maximum time is 3 minutes for XML thread to finish - more then enough
401                        debug_msg( 7, self.printTime() + ' - xmlthread() - parsethread() finished.' )
402
403                debug_msg( 7, self.printTime() + ' - xmlthread() finished.' )
404
405                return 0
406
407class GangliaConfigParser:
408
409        sources = [ ]
410
411        def __init__( self, config ):
412
413                self.config = config
414                self.parseValues()
415
416        def parseValues( self ):
417                "Parse certain values from gmetad.conf"
418
419                readcfg = open( self.config, 'r' )
420
421                for line in readcfg.readlines():
422
423                        if line.count( '"' ) > 1:
424
425                                if line.find( 'data_source' ) != -1 and line[0] != '#':
426
427                                        source = { }
428                                        source['name'] = line.split( '"' )[1]
429                                        source_words = line.split( '"' )[2].split( ' ' )
430
431                                        for word in source_words:
432
433                                                valid_interval = 1
434
435                                                for letter in word:
436
437                                                        if letter not in string.digits:
438
439                                                                valid_interval = 0
440
441                                                if valid_interval and len(word) > 0:
442
443                                                        source['interval'] = word
444                                                        debug_msg( 9, 'polling interval for %s = %s' %(source['name'], source['interval'] ) )
445       
446                                        # No interval found, use Ganglia's default     
447                                        if not source.has_key( 'interval' ):
448                                                source['interval'] = 15
449                                                debug_msg( 9, 'polling interval for %s defaulted to 15' %(source['name']) )
450
451                                        self.sources.append( source )
452
453        def getInterval( self, source_name ):
454
455                for source in self.sources:
456
457                        if source['name'] == source_name:
458
459                                return source['interval']
460
461                return None
462
463        def getLowestInterval( self ):
464
465                lowest_interval = 0
466
467                for source in self.sources:
468
469                        if not lowest_interval or source['interval'] <= lowest_interval:
470
471                                lowest_interval = source['interval']
472
473                # Return 15 when nothing is found, so that the daemon won't go insane with 0 sec delays
474                if lowest_interval:
475                        return lowest_interval
476                else:
477                        return 15
478
479class RRDHandler:
480
481        myMetrics = { }
482        slot = None
483
484        def __init__( self, config, cluster ):
485                self.cluster = cluster
486                self.config = config
487                self.slot = mutex.mutex()
488                self.rrdm = RRDMutator()
489
490        def getClusterName( self ):
491                return self.cluster
492
493        def memMetric( self, host, metric ):
494
495                if self.myMetrics.has_key( host ):
496
497                        if self.myMetrics[ host ].has_key( metric['name'] ):
498
499                                for mymetric in self.myMetrics[ host ][ metric['name'] ]:
500
501                                        if mymetric['time'] == metric['time']:
502
503                                                # Allready have this metric, abort
504                                                return 1
505                        else:
506                                self.myMetrics[ host ][ metric['name'] ] = [ ]
507                else:
508                        self.myMetrics[ host ] = { }
509                        self.myMetrics[ host ][ metric['name'] ] = [ ]
510
511                self.slot.testandset()
512                self.myMetrics[ host ][ metric['name'] ].append( metric )
513                self.slot.unlock()
514
515        def makeUpdateString( self, host, metricname ):
516
517                update_string = None
518
519                print self.myMetrics[ host ][ metricname ]
520
521                for m in self.myMetrics[ host ][ metricname ]:
522
523                        print m
524
525                        if not update_string:
526                                update_string = '%s:%s' %( m['time'], m['val'] )
527                        else:
528                                update_string = update_string + ' %s:%s' %( m['time'], m['val'] )
529
530                return update_string
531
532        def makeUpdateList( self, host, metricname ):
533
534                update_list = [ ]
535
536                for metric in self.myMetrics[ host ][ metricname ]:
537
538                        update_list.append( '%s:%s' %( metric['time'], metric['val'] ) )
539
540                return update_list
541
542        def storeMetrics( self ):
543
544                for hostname, mymetrics in self.myMetrics.items():     
545
546                        for metricname, mymetric in mymetrics.items():
547
548                                mytime = self.makeTimeSerial()
549                                self.createCheck( hostname, metricname, mytime )       
550                                update_ret = self.update( hostname, metricname, mytime )
551
552                                if update_ret == 0:
553
554                                        self.slot.testandset()
555                                        del self.myMetrics[ hostname ][ metricname ]
556                                        self.slot.unlock()
557                                        debug_msg( 9, 'stored metric %s for %s' %( hostname, metricname ) )
558                                else:
559                                        debug_msg( 9, 'metric update failed' )
560
561                                return 1
562
563        def makeTimeSerial( self ):
564                "Generate a time serial. Seconds since epoch"
565
566                # Seconds since epoch
567                mytime = int( time.time() )
568
569                return mytime
570
571        def makeRrdPath( self, host, metricname=None, timeserial=None ):
572                """
573                Make a RRD location/path and filename
574                If a metric or timeserial are supplied the complete locations
575                will be made, else just the host directory
576                """
577
578                if not timeserial:     
579                        rrd_dir = '%s/%s/%s' %( check_dir(ARCHIVE_PATH), self.cluster, host )
580                else:
581                        rrd_dir = '%s/%s/%s/%s' %( check_dir(ARCHIVE_PATH), self.cluster, host, timeserial )
582                if metricname:
583                        rrd_file = '%s/%s.rrd' %( rrd_dir, metricname )
584                else:
585                        rrd_file = None
586
587                return rrd_dir, rrd_file
588
589        def getLastRrdTimeSerial( self, host ):
590                """
591                Find the last timeserial (directory) for this host
592                This is determined once every host
593                """
594
595                rrd_dir, rrd_file = self.makeRrdPath( host )
596
597                newest_timeserial = 0
598
599                if os.path.exists( rrd_dir ):
600
601                        for root, dirs, files in os.walk( rrd_dir ):
602
603                                for dir in dirs:
604
605                                        valid_dir = 1
606
607                                        for letter in dir:
608                                                if letter not in string.digits:
609                                                        valid_dir = 0
610
611                                        if valid_dir:
612                                                timeserial = dir
613                                                if timeserial > newest_timeserial:
614                                                        newest_timeserial = timeserial
615
616                if newest_timeserial:
617                        return newest_timeserial
618                else:
619                        return 0
620
621        def checkNewRrdPeriod( self, host, current_timeserial ):
622                """
623                Check if current timeserial belongs to recent time period
624                or should become a new period (and file).
625
626                Returns the serial of the correct time period
627                """
628
629                last_timeserial = int( self.getLastRrdTimeSerial( host ) )
630                debug_msg( 9, 'last timeserial of %s is %s' %( host, last_timeserial ) )
631
632                if not last_timeserial:
633                        serial = current_timeserial
634                else:
635
636                        archive_secs = ARCHIVE_HOURS_PER_RRD * (60 * 60)
637
638                        if (current_timeserial - last_timeserial) >= archive_secs:
639                                serial = current_timeserial
640                        else:
641                                serial = last_timeserial
642
643                return serial
644
645        def getFirstTime( self, host, metricname ):
646                "Get the first time of a metric we know of"
647
648                first_time = 0
649
650                for metric in self.myMetrics[ host ][ metricname ]:
651
652                        if not first_time or metric['time'] <= first_time:
653
654                                first_time = metric['time']
655
656                return first_time
657
658        def createCheck( self, host, metricname, timeserial ):
659                "Check if an .rrd allready exists for this metric, create if not"
660
661                debug_msg( 9, 'rrdcreate: using timeserial %s for %s/%s' %( timeserial, host, metricname ) )
662
663                rrd_dir, rrd_file = self.makeRrdPath( host, metricname, timeserial )
664
665                if not os.path.exists( rrd_dir ):
666                        os.makedirs( rrd_dir )
667                        debug_msg( 9, 'created dir %s' %( str(rrd_dir) ) )
668
669                if not os.path.exists( rrd_file ):
670
671                        interval = self.config.getInterval( self.cluster )
672                        heartbeat = 8 * int(interval)
673
674                        params = [ ]
675
676                        params.append( '--step' )
677                        params.append( str( interval ) )
678
679                        params.append( '--start' )
680                        params.append( str( int( self.getFirstTime( host, metricname ) ) - 1 ) )
681
682                        params.append( 'DS:sum:GAUGE:%d:U:U' %heartbeat )
683                        params.append( 'RRA:AVERAGE:0.5:1:%s' %(ARCHIVE_HOURS_PER_RRD * 240) )
684
685                        self.rrdm.create( str(rrd_file), params )
686
687                        debug_msg( 9, 'created rrd %s' %( str(rrd_file) ) )
688
689        def update( self, host, metricname, timeserial ):
690
691                debug_msg( 9, 'rrdupdate: using timeserial %s for %s/%s' %( timeserial, host, metricname ) )
692
693                rrd_dir, rrd_file = self.makeRrdPath( host, metricname, timeserial )
694
695                #timestamp = metric['time']
696                #val = metric['val']
697
698                #update_string = '%s:%s' %(timestamp, val)
699                update_list = self.makeUpdateList( host, metricname )
700
701                #try:
702
703                self.rrdm.update( str(rrd_file), update_list )
704
705                #except rrdtool.error, detail:
706
707                #       debug_msg( 0, 'EXCEPTION! While trying to update rrd:' )
708                #       debug_msg( 0, '\trrd %s with %s' %( str(rrd_file), update_string ) )
709                #       debug_msg( 0, str(detail) )
710
711                #       return 1
712               
713                debug_msg( 9, 'updated rrd %s with %s' %( str(rrd_file), string.join( update_list ) ) )
714
715                return 0
716
717def main():
718        "Program startup"
719
720        myProcessor = GangliaXMLProcessor()
721
722        if DAEMONIZE:
723                myProcessor.daemon()
724        else:
725                myProcessor.run()
726
727def check_dir( directory ):
728        "Check if directory is a proper directory. I.e.: Does _not_ end with a '/'"
729
730        if directory[-1] == '/':
731                directory = directory[:-1]
732
733        return directory
734
735def debug_msg( level, msg ):
736
737        if (DEBUG_LEVEL >= level):
738                sys.stderr.write( msg + '\n' )
739
740# Let's go
741if __name__ == '__main__':
742        main()
Note: See TracBrowser for help on using the repository browser.