]> arthur.barton.de Git - netdata.git/blobdiff - python.d/elasticsearch.chart.py
Merge pull request #1807 from l2isbad/elasticsearch_plugin_p26
[netdata.git] / python.d / elasticsearch.chart.py
index 798238c91b12417aa0c3fb6f1244139d2111159e..15d9538b4e5c24e91daf4d8c24ceebac6ae0d03b 100644 (file)
@@ -18,20 +18,25 @@ priority = 60000
 retries = 60
 
 # charts order (can be overridden if you want less charts, or different order)
-ORDER = ['search_perf_total', 'search_perf_time', 'search_latency', 'index_perf_total', 'index_perf_time',
-         'index_latency', 'jvm_mem_heap', 'jvm_gc_count', 'jvm_gc_time', 'host_metrics_file_descriptors',
-         'host_metrics_http', 'host_metrics_transport', 'thread_pool_qr', 'fdata_cache', 'fdata_ev_tr',
-         'cluster_health_status', 'cluster_health_nodes', 'cluster_health_shards', 'cluster_stats_nodes',
-         'cluster_stats_query_cache', 'cluster_stats_docs', 'cluster_stats_store', 'cluster_stats_indices_shards']
+ORDER = ['search_perf_total', 'search_perf_current', 'search_perf_time', 'search_latency', 'index_perf_total',
+         'index_perf_current', 'index_perf_time', 'index_latency', 'jvm_mem_heap', 'jvm_gc_count',
+         'jvm_gc_time', 'host_metrics_file_descriptors', 'host_metrics_http', 'host_metrics_transport',
+         'thread_pool_qr_q', 'thread_pool_qr_r', 'fdata_cache', 'fdata_ev_tr', 'cluster_health_status',
+         'cluster_health_nodes', 'cluster_health_shards', 'cluster_stats_nodes', 'cluster_stats_query_cache',
+         'cluster_stats_docs', 'cluster_stats_store', 'cluster_stats_indices_shards']
 
 CHARTS = {
     'search_perf_total': {
-        'options': [None, 'Number of queries, fetches', 'queries', 'search performance', 'es.search_query', 'stacked'],
+        'options': [None, 'Total number of queries, fetches', 'number of', 'search performance', 'es.search_query_total', 'stacked'],
         'lines': [
-            ['query_total', 'search_total', 'incremental'],
-            ['fetch_total', 'fetch_total', 'incremental'],
-            ['query_current', 'search_current', 'absolute'],
-            ['fetch_current', 'fetch_current', 'absolute']
+            ['query_total', 'queries', 'incremental'],
+            ['fetch_total', 'fetches', 'incremental']
+        ]},
+    'search_perf_current': {
+        'options': [None, 'Number of queries, fetches in progress', 'number of', 'search performance', 'es.search_query_current', 'stacked'],
+        'lines': [
+            ['query_current', 'queries', 'absolute'],
+            ['fetch_current', 'fetches', 'absolute']
         ]},
     'search_perf_time': {
         'options': [None, 'Time spent on queries, fetches', 'seconds', 'search performance', 'es.search_time', 'stacked'],
@@ -46,13 +51,18 @@ CHARTS = {
             ['fetch_latency', 'fetch', 'absolute', 1, 1000]
         ]},
     'index_perf_total': {
-        'options': [None, 'Number of documents indexed, index refreshes, flushes', 'documents/indexes',
-                    'indexing performance', 'es.index_doc', 'stacked'],
+        'options': [None, 'Total number of documents indexed, index refreshes, index flushes to disk', 'number of',
+                    'indexing performance', 'es.index_performance_total', 'stacked'],
         'lines': [
             ['indexing_index_total', 'indexed', 'incremental'],
             ['refresh_total', 'refreshes', 'incremental'],
-            ['flush_total', 'flushes', 'incremental'],
-            ['indexing_index_current', 'indexed_current', 'absolute'],
+            ['flush_total', 'flushes', 'incremental']
+        ]},
+    'index_perf_current': {
+        'options': [None, 'Number of documents currently being indexed', 'currently indexed',
+                    'indexing performance', 'es.index_performance_current', 'stacked'],
+        'lines': [
+            ['indexing_index_current', 'documents', 'absolute']
         ]},
     'index_perf_time': {
         'options': [None, 'Time spent on indexing, refreshing, flushing', 'seconds', 'indexing performance',
@@ -88,18 +98,23 @@ CHARTS = {
             ['young_collection_time_in_millis', 'young', 'incremental'],
             ['old_collection_time_in_millis', 'old', 'incremental']
         ]},
-    'thread_pool_qr': {
-        'options': [None, 'Number of queued/rejected threads in thread pool', 'threads', 'queues and rejections',
-                    'es.qr', 'stacked'],
+    'thread_pool_qr_q': {
+        'options': [None, 'Number of queued threads in thread pool', 'queued threads', 'queues and rejections',
+                    'es.qr_queued', 'stacked'],
         'lines': [
-            ['bulk_queue', 'bulk_queue', 'absolute'],
-            ['index_queue', 'index_queue', 'absolute'],
-            ['search_queue', 'search_queue', 'absolute'],
-            ['merge_queue', 'merge_queue', 'absolute'],
-            ['bulk_rejected', 'bulk_rej', 'absolute'],
-            ['index_rejected', 'index_rej', 'absolute'],
-            ['search_rejected', 'search_rej', 'absolute'],
-            ['merge_rejected', 'merge_rej', 'absolute']
+            ['bulk_queue', 'bulk', 'absolute'],
+            ['index_queue', 'index', 'absolute'],
+            ['search_queue', 'search', 'absolute'],
+            ['merge_queue', 'merge', 'absolute']
+        ]},
+    'thread_pool_qr_r': {
+        'options': [None, 'Number of rejected threads in thread pool', 'rejected threads', 'queues and rejections',
+                    'es.qr_rejected', 'stacked'],
+        'lines': [
+            ['bulk_rejected', 'bulk', 'absolute'],
+            ['index_rejected', 'index', 'absolute'],
+            ['search_rejected', 'search', 'absolute'],
+            ['merge_rejected', 'merge', 'absolute']
         ]},
     'fdata_cache': {
         'options': [None, 'Fielddata cache size', 'MB', 'fielddata cache', 'es.fdata_cache', 'line'],
@@ -300,7 +315,7 @@ class Service(UrlService):
         if not data:
             queue.put({})
         else:
-            data = data.json()
+            data = data.json() if '__call__' in dir(data.json) else data.json
 
             to_netdata = dict()
             to_netdata.update(update_key('health', data))
@@ -321,7 +336,7 @@ class Service(UrlService):
         if not data:
             queue.put({})
         else:
-            data = data.json()
+            data = data.json() if '__call__' in dir(data.json) else data.json
 
             to_netdata = dict()
             to_netdata.update(update_key('count', data['nodes']['count']))
@@ -344,7 +359,8 @@ class Service(UrlService):
         if not data:
             queue.put({})
         else:
-            data = data.json()
+            data = data.json() if '__call__' in dir(data.json) else data.json
+
             node = list(data['nodes'].keys())[0]
             to_netdata = dict()
             # Search performance metrics