]> arthur.barton.de Git - netdata.git/blobdiff - python.d/elasticsearch.chart.py
Merge pull request #1807 from l2isbad/elasticsearch_plugin_p26
[netdata.git] / python.d / elasticsearch.chart.py
index 3ea0885b6b1e4d63e955daa2b4366748da17d47c..15d9538b4e5c24e91daf4d8c24ceebac6ae0d03b 100644 (file)
@@ -18,43 +18,54 @@ priority = 60000
 retries = 60
 
 # charts order (can be overridden if you want less charts, or different order)
-ORDER = ['search_perf_total', 'search_perf_time', 'search_latency', 'index_perf_total', 'index_perf_time',
-         'index_latency', 'jvm_mem_heap', 'jvm_gc_count', 'jvm_gc_time', 'thread_pool_qr', 'fdata_cache',
-         'fdata_ev_tr', 'cluster_health_status', 'cluster_health_nodes', 'cluster_health_shards', 'cluster_stats_nodes',
-         'cluster_stats_query_cache', 'cluster_stats_docs', 'cluster_stats_store', 'cluster_stats_indices_shards']
+ORDER = ['search_perf_total', 'search_perf_current', 'search_perf_time', 'search_latency', 'index_perf_total',
+         'index_perf_current', 'index_perf_time', 'index_latency', 'jvm_mem_heap', 'jvm_gc_count',
+         'jvm_gc_time', 'host_metrics_file_descriptors', 'host_metrics_http', 'host_metrics_transport',
+         'thread_pool_qr_q', 'thread_pool_qr_r', 'fdata_cache', 'fdata_ev_tr', 'cluster_health_status',
+         'cluster_health_nodes', 'cluster_health_shards', 'cluster_stats_nodes', 'cluster_stats_query_cache',
+         'cluster_stats_docs', 'cluster_stats_store', 'cluster_stats_indices_shards']
 
 CHARTS = {
     'search_perf_total': {
-        'options': [None, 'Number of queries, fetches', 'queries', 'Search performance', 'es.search_query', 'stacked'],
+        'options': [None, 'Total number of queries, fetches', 'number of', 'search performance', 'es.search_query_total', 'stacked'],
         'lines': [
-            ['query_total', 'search_total', 'incremental'],
-            ["fetch_total", 'fetch_total', 'incremental'],
-            ["query_current", 'search_current', 'absolute'],
-            ["fetch_current", 'fetch_current', 'absolute']
+            ['query_total', 'queries', 'incremental'],
+            ['fetch_total', 'fetches', 'incremental']
+        ]},
+    'search_perf_current': {
+        'options': [None, 'Number of queries, fetches in progress', 'number of', 'search performance', 'es.search_query_current', 'stacked'],
+        'lines': [
+            ['query_current', 'queries', 'absolute'],
+            ['fetch_current', 'fetches', 'absolute']
         ]},
     'search_perf_time': {
-        'options': [None, 'Time spent on queries, fetches', 'seconds', 'Search performance', 'es.search_time', 'stacked'],
+        'options': [None, 'Time spent on queries, fetches', 'seconds', 'search performance', 'es.search_time', 'stacked'],
         'lines': [
-            ["query_time_in_millis", 'query', 'incremental', 1, 1000],
-            ["fetch_time_in_millis", 'fetch', 'incremental', 1, 1000]
+            ['query_time_in_millis', 'query', 'incremental', 1, 1000],
+            ['fetch_time_in_millis', 'fetch', 'incremental', 1, 1000]
         ]},
     'search_latency': {
-        'options': [None, 'Query and fetch latency', 'ms', 'Search performance', 'es.search_latency', 'stacked'],
+        'options': [None, 'Query and fetch latency', 'ms', 'search performance', 'es.search_latency', 'stacked'],
         'lines': [
-            ["query_latency", 'query', 'absolute', 1, 1000],
-            ["fetch_latency", 'fetch', 'absolute', 1, 1000]
+            ['query_latency', 'query', 'absolute', 1, 1000],
+            ['fetch_latency', 'fetch', 'absolute', 1, 1000]
         ]},
     'index_perf_total': {
-        'options': [None, 'Number of documents indexed, index refreshes, flushes', 'documents/indexes',
-                    'Indexing performance', 'es.index_doc', 'stacked'],
+        'options': [None, 'Total number of documents indexed, index refreshes, index flushes to disk', 'number of',
+                    'indexing performance', 'es.index_performance_total', 'stacked'],
         'lines': [
             ['indexing_index_total', 'indexed', 'incremental'],
-            ["refresh_total", 'refreshes', 'incremental'],
-            ["flush_total", 'flushes', 'incremental'],
-            ["indexing_index_current", 'indexed_current', 'absolute'],
+            ['refresh_total', 'refreshes', 'incremental'],
+            ['flush_total', 'flushes', 'incremental']
+        ]},
+    'index_perf_current': {
+        'options': [None, 'Number of documents currently being indexed', 'currently indexed',
+                    'indexing performance', 'es.index_performance_current', 'stacked'],
+        'lines': [
+            ['indexing_index_current', 'documents', 'absolute']
         ]},
     'index_perf_time': {
-        'options': [None, 'Time spent on indexing, refreshing, flushing', 'seconds', 'Indexing performance',
+        'options': [None, 'Time spent on indexing, refreshing, flushing', 'seconds', 'indexing performance',
                     'es.search_time', 'stacked'],
         'lines': [
             ['indexing_index_time_in_millis', 'indexing', 'incremental', 1, 1000],
@@ -62,89 +73,94 @@ CHARTS = {
             ['flush_total_time_in_millis', 'flushing', 'incremental', 1, 1000]
         ]},
     'index_latency': {
-        'options': [None, 'Indexing and flushing latency', 'ms', 'Indexing performance',
+        'options': [None, 'Indexing and flushing latency', 'ms', 'indexing performance',
                     'es.index_latency', 'stacked'],
         'lines': [
             ['indexing_latency', 'indexing', 'absolute', 1, 1000],
             ['flushing_latency', 'flushing', 'absolute', 1, 1000]
         ]},
     'jvm_mem_heap': {
-        'options': [None, 'JVM heap currently in use/committed', 'percent/MB', 'Memory usage and gc',
+        'options': [None, 'JVM heap currently in use/committed', 'percent/MB', 'memory usage and gc',
                     'es.jvm_heap', 'area'],
         'lines': [
-            ["jvm_heap_percent", 'inuse', 'absolute'],
-            ["jvm_heap_commit", 'commit', 'absolute', -1, 1048576]
+            ['jvm_heap_percent', 'inuse', 'absolute'],
+            ['jvm_heap_commit', 'commit', 'absolute', -1, 1048576]
         ]},
     'jvm_gc_count': {
-        'options': [None, 'Count of garbage collections', 'counts', 'Memory usage and gc', 'es.gc_count', 'stacked'],
+        'options': [None, 'Count of garbage collections', 'counts', 'memory usage and gc', 'es.gc_count', 'stacked'],
         'lines': [
-            ["young_collection_count", 'young', 'incremental'],
-            ["old_collection_count", 'old', 'incremental']
+            ['young_collection_count', 'young', 'incremental'],
+            ['old_collection_count', 'old', 'incremental']
         ]},
     'jvm_gc_time': {
-        'options': [None, 'Time spent on garbage collections', 'ms', 'Memory usage and gc', 'es.gc_time', 'stacked'],
+        'options': [None, 'Time spent on garbage collections', 'ms', 'memory usage and gc', 'es.gc_time', 'stacked'],
         'lines': [
-            ["young_collection_time_in_millis", 'young', 'incremental'],
-            ["old_collection_time_in_millis", 'old', 'incremental']
+            ['young_collection_time_in_millis', 'young', 'incremental'],
+            ['old_collection_time_in_millis', 'old', 'incremental']
         ]},
-    'thread_pool_qr': {
-        'options': [None, 'Number of queued/rejected threads in thread pool', 'threads', 'Queues and rejections',
-                    'es.qr', 'stacked'],
+    'thread_pool_qr_q': {
+        'options': [None, 'Number of queued threads in thread pool', 'queued threads', 'queues and rejections',
+                    'es.qr_queued', 'stacked'],
         'lines': [
-            ["bulk_queue", 'bulk_queue', 'absolute'],
-            ["index_queue", 'index_queue', 'absolute'],
-            ["search_queue", 'search_queue', 'absolute'],
-            ["merge_queue", 'merge_queue', 'absolute'],
-            ["bulk_rejected", 'bulk_rej', 'absolute'],
-            ["index_rejected", 'index_rej', 'absolute'],
-            ["search_rejected", 'search_rej', 'absolute'],
-            ["merge_rejected", 'merge_rej', 'absolute']
+            ['bulk_queue', 'bulk', 'absolute'],
+            ['index_queue', 'index', 'absolute'],
+            ['search_queue', 'search', 'absolute'],
+            ['merge_queue', 'merge', 'absolute']
+        ]},
+    'thread_pool_qr_r': {
+        'options': [None, 'Number of rejected threads in thread pool', 'rejected threads', 'queues and rejections',
+                    'es.qr_rejected', 'stacked'],
+        'lines': [
+            ['bulk_rejected', 'bulk', 'absolute'],
+            ['index_rejected', 'index', 'absolute'],
+            ['search_rejected', 'search', 'absolute'],
+            ['merge_rejected', 'merge', 'absolute']
         ]},
     'fdata_cache': {
-        'options': [None, 'Fielddata cache size', 'MB', 'Fielddata cache', 'es.fdata_cache', 'line'],
+        'options': [None, 'Fielddata cache size', 'MB', 'fielddata cache', 'es.fdata_cache', 'line'],
         'lines': [
-            ["index_fdata_mem", 'mem_size', 'absolute', 1, 1048576]
+            ['index_fdata_mem', 'mem_size', 'absolute', 1, 1048576]
         ]},
     'fdata_ev_tr': {
         'options': [None, 'Fielddata evictions and circuit breaker tripped count', 'number of events',
-                    'Fielddata cache', 'es.fdata_ev_tr', 'line'],
+                    'fielddata cache', 'es.fdata_ev_tr', 'line'],
         'lines': [
-            ["index_fdata_evic", 'evictions', 'incremental'],
-            ["breakers_fdata_trip", 'tripped', 'incremental']
+            ['index_fdata_evic', 'evictions', 'incremental'],
+            ['breakers_fdata_trip', 'tripped', 'incremental']
         ]},
     'cluster_health_nodes': {
-        'options': [None, 'Nodes and tasks statistics', 'units', 'Cluster health API',
+        'options': [None, 'Nodes and tasks statistics', 'units', 'cluster health API',
                     'es.cluster_health', 'stacked'],
         'lines': [
-            ["health_number_of_nodes", 'nodes', 'absolute'],
-            ["health_number_of_data_nodes", 'data_nodes', 'absolute'],
-            ["health_number_of_pending_tasks", 'pending_tasks', 'absolute'],
-            ["health_number_of_in_flight_fetch", 'inflight_fetch', 'absolute']
+            ['health_number_of_nodes', 'nodes', 'absolute'],
+            ['health_number_of_data_nodes', 'data_nodes', 'absolute'],
+            ['health_number_of_pending_tasks', 'pending_tasks', 'absolute'],
+            ['health_number_of_in_flight_fetch', 'inflight_fetch', 'absolute']
         ]},
     'cluster_health_status': {
-        'options': [None, 'Cluster status', 'status', 'Cluster health API',
+        'options': [None, 'Cluster status', 'status', 'cluster health API',
                     'es.cluster_health_status', 'area'],
         'lines': [
-            ["status_green", 'green', 'absolute'],
-            ["status_red", 'red', 'absolute'],
-            ["status_foo1", None, 'absolute'],
-            ["status_foo2", None, 'absolute'],
-            ["status_foo3", None, 'absolute'],
-            ["status_yellow", 'yellow', 'absolute']
+            ['status_green', 'green', 'absolute'],
+            ['status_red', 'red', 'absolute'],
+            ['status_foo1', None, 'absolute'],
+            ['status_foo2', None, 'absolute'],
+            ['status_foo3', None, 'absolute'],
+            ['status_yellow', 'yellow', 'absolute']
         ]},
     'cluster_health_shards': {
-        'options': [None, 'Shards statistics', 'shards', 'Cluster health API',
+        'options': [None, 'Shards statistics', 'shards', 'cluster health API',
                     'es.cluster_health_sharts', 'stacked'],
         'lines': [
-            ["health_active_shards", 'active_shards', 'absolute'],
-            ["health_relocating_shards", 'relocating_shards', 'absolute'],
-            ["health_unassigned_shards", 'unassigned', 'absolute'],
-            ["health_delayed_unassigned_shards", 'delayed_unassigned', 'absolute'],
-            ["health_initializing_shards", 'initializing', 'absolute'],
-            ["health_active_shards_percent_as_number", 'active_percent', 'absolute']
+            ['health_active_shards', 'active_shards', 'absolute'],
+            ['health_relocating_shards', 'relocating_shards', 'absolute'],
+            ['health_unassigned_shards', 'unassigned', 'absolute'],
+            ['health_delayed_unassigned_shards', 'delayed_unassigned', 'absolute'],
+            ['health_initializing_shards', 'initializing', 'absolute'],
+            ['health_active_shards_percent_as_number', 'active_percent', 'absolute']
         ]},
     'cluster_stats_nodes': {
-        'options': [None, 'Nodes statistics', 'nodes', 'Cluster stats API',
+        'options': [None, 'Nodes statistics', 'nodes', 'cluster stats API',
                     'es.cluster_stats_nodes', 'stacked'],
         'lines': [
             ['count_data_only', 'data_only', 'absolute'],
@@ -154,30 +170,49 @@ CHARTS = {
             ['count_client', 'client', 'absolute']
         ]},
     'cluster_stats_query_cache': {
-        'options': [None, 'Query cache statistics', 'queries', 'Cluster stats API',
+        'options': [None, 'Query cache statistics', 'queries', 'cluster stats API',
                     'es.cluster_stats_query_cache', 'stacked'],
         'lines': [
             ['query_cache_hit_count', 'hit', 'incremental'],
             ['query_cache_miss_count', 'miss', 'incremental']
         ]},
     'cluster_stats_docs': {
-        'options': [None, 'Docs statistics', 'count', 'Cluster stats API',
+        'options': [None, 'Docs statistics', 'count', 'cluster stats API',
                     'es.cluster_stats_docs', 'line'],
         'lines': [
             ['docs_count', 'docs', 'absolute']
         ]},
     'cluster_stats_store': {
-        'options': [None, 'Store statistics', 'MB', 'Cluster stats API',
+        'options': [None, 'Store statistics', 'MB', 'cluster stats API',
                     'es.cluster_stats_store', 'line'],
         'lines': [
             ['store_size_in_bytes', 'size', 'absolute', 1, 1048567]
         ]},
     'cluster_stats_indices_shards': {
-        'options': [None, 'Indices and shards statistics', 'count', 'Cluster stats API',
+        'options': [None, 'Indices and shards statistics', 'count', 'cluster stats API',
                     'es.cluster_stats_ind_sha', 'stacked'],
         'lines': [
             ['indices_count', 'indices', 'absolute'],
             ['shards_total', 'shards', 'absolute']
+        ]},
+    'host_metrics_transport': {
+        'options': [None, 'Cluster communication transport metrics', 'kbit/s', 'host metrics',
+                    'es.host_metrics_transport', 'area'],
+        'lines': [
+            ['transport_rx_size_in_bytes', 'in', 'incremental', 8, 1000],
+            ['transport_tx_size_in_bytes', 'out', 'incremental', -8, 1000]
+        ]},
+    'host_metrics_file_descriptors': {
+        'options': [None, 'Available file descriptors in percent', 'percent', 'host metrics',
+                    'es.host_metrics_descriptors', 'area'],
+        'lines': [
+            ['file_descriptors_used', 'used', 'absolute', 1, 10]
+        ]},
+    'host_metrics_http': {
+        'options': [None, 'Opened HTTP connections', 'connections', 'host metrics',
+                    'es.host_metrics_http', 'line'],
+        'lines': [
+            ['http_current_open', 'opened', 'absolute', 1, 1]
         ]}
 }
 
@@ -224,7 +259,7 @@ class Service(UrlService):
                         (self._get_cluster_stats, url_cluster_stats)]
 
         # Remove disabled API calls from 'avail methods'
-        self.methods = [choice[0] for choice in list(zip(avail_methods, user_choice)) if choice[1]]
+        self.methods = [avail_methods[_] for _ in range(len(avail_methods)) if user_choice[_]]
 
         # Run _get_data for ALL active API calls. 
         api_result = {}
@@ -280,14 +315,13 @@ class Service(UrlService):
         if not data:
             queue.put({})
         else:
-            data = data.json()
+            data = data.json() if '__call__' in dir(data.json) else data.json
 
             to_netdata = dict()
             to_netdata.update(update_key('health', data))
-            to_netdata['status_green'] = 1 if to_netdata.get('health_status') == 'green' else 0
-            to_netdata['status_red'] = 1 if to_netdata.get('health_status') == 'red' else 0
-            to_netdata['status_yellow'] = 1 if to_netdata.get('health_status') == 'yellow' else 0
-            to_netdata['status_foo1'], to_netdata['status_foo2'], to_netdata['status_foo3'] = 0, 0, 0
+            to_netdata.update({'status_green': 0, 'status_red': 0, 'status_yellow': 0,
+                               'status_foo1': 0, 'status_foo2': 0, 'status_foo3': 0})
+            to_netdata[''.join(['status_', to_netdata.get('health_status', '')])] = 1
 
             queue.put(to_netdata)
 
@@ -302,7 +336,7 @@ class Service(UrlService):
         if not data:
             queue.put({})
         else:
-            data = data.json()
+            data = data.json() if '__call__' in dir(data.json) else data.json
 
             to_netdata = dict()
             to_netdata.update(update_key('count', data['nodes']['count']))
@@ -310,7 +344,7 @@ class Service(UrlService):
             to_netdata.update(update_key('docs', data['indices']['docs']))
             to_netdata.update(update_key('store', data['indices']['store']))
             to_netdata['indices_count'] = data['indices']['count']
-            to_netdata['shards_total'] = data['indices']['shards']['total']
+            to_netdata['shards_total'] = data['indices'].get('shards', {}).get('total')
 
             queue.put(to_netdata)
 
@@ -325,7 +359,8 @@ class Service(UrlService):
         if not data:
             queue.put({})
         else:
-            data = data.json()
+            data = data.json() if '__call__' in dir(data.json) else data.json
+
             node = list(data['nodes'].keys())[0]
             to_netdata = dict()
             # Search performance metrics
@@ -357,10 +392,16 @@ class Service(UrlService):
             to_netdata['index_fdata_evic'] = data['nodes'][node]['indices']['fielddata']['evictions']
             to_netdata['breakers_fdata_trip'] = data['nodes'][node]['breakers']['fielddata']['tripped']
 
+            # Host metrics
+            to_netdata.update(update_key('http', data['nodes'][node]['http']))
+            to_netdata.update(update_key('transport', data['nodes'][node]['transport']))
+            to_netdata['file_descriptors_used'] = round(float(data['nodes'][node]['process']['open_file_descriptors'])
+                                                        / data['nodes'][node]['process']['max_file_descriptors'] * 1000)
+            
             queue.put(to_netdata)
 
     def find_avg(self, value1, value2, key):
-        if key not in self.latency.keys():
+        if key not in self.latency:
             self.latency.update({key: [value1, value2]})
             return 0
         else:
@@ -374,4 +415,4 @@ class Service(UrlService):
 
 
 def update_key(string, dictionary):
-    return {'_'.join([string, k]): v for k, v in dictionary.items()}
+    return dict([('_'.join([string, elem[0]]), elem[1]) for elem in dictionary.items()])