]> arthur.barton.de Git - netdata.git/commitdiff
elasticsearch plugin: configuration file added
authorIlya <ilyamaschenko@gmail.com>
Thu, 19 Jan 2017 07:00:52 +0000 (16:00 +0900)
committerIlya <ilyamaschenko@gmail.com>
Thu, 19 Jan 2017 07:00:52 +0000 (16:00 +0900)
conf.d/python.d/elasticsearch.conf [new file with mode: 0644]

diff --git a/conf.d/python.d/elasticsearch.conf b/conf.d/python.d/elasticsearch.conf
new file mode 100644 (file)
index 0000000..1faee85
--- /dev/null
@@ -0,0 +1,72 @@
+# netdata python.d.plugin configuration for elasticsearch stats
+#
+# This file is in YaML format. Generally the format is:
+#
+# name: value
+#
+# There are 2 sections:
+#  - global variables
+#  - one or more JOBS
+#
+# JOBS allow you to collect values from multiple sources.
+# Each source will have its own set of charts.
+#
+# JOB parameters have to be indented (using spaces only, example below).
+
+# ----------------------------------------------------------------------
+# Global Variables
+# These variables set the defaults for all JOBs, however each JOB
+# may define its own, overriding the defaults.
+
+# update_every sets the default data collection frequency.
+# If unset, the python.d.plugin default is used.
+# update_every: 1
+
+# priority controls the order of charts at the netdata dashboard.
+# Lower numbers move the charts towards the top of the page.
+# If unset, the default for python.d.plugin is used.
+# priority: 60000
+
+# retries sets the number of retries to be made in case of failures.
+# If unset, the default for python.d.plugin is used.
+# Attempts to restore the service are made once every update_every
+# and only if the module has collected values in the past.
+# retries: 5
+
+# ----------------------------------------------------------------------
+# JOBS (data collection sources)
+#
+# The default JOBS share the same *name*. JOBS with the same name
+# are mutually exclusive. Only one of them will be allowed running at
+# any time. This allows autodetection to try several alternatives and
+# pick the one that works.
+#
+# Any number of jobs is supported.
+#
+# All python.d.plugin JOBS (for all its modules) support a set of
+# predefined parameters. These are:
+#
+# job_name:
+#     name: myname     # the JOB's name as it will appear at the
+#                      # dashboard (by default is the job_name)
+#                      # JOBs sharing a name are mutually exclusive
+#     update_every: 1  # the JOB's data collection frequency
+#     priority: 60000  # the JOB's order on the dashboard
+#     retries: 5       # the JOB's number of restoration attempts
+#
+# Additionally to the above, elasticsearch plugin also supports the following:
+#
+#     host: 'ipaddress'                # Server ip address or hostname.
+#     port: 'port'                     # Port on which elasticsearch  listen.
+#     cluster_health: False/True       # Calls to cluster health elasticsearch API. Enabled by default.
+#     cluster_stats: False/True        # Calls to cluster stats elasticsearch API. Enabled by default.
+#
+# ----------------------------------------------------------------------
+# AUTO-DETECTION JOBS
+# only one of them will run (they have the same name)
+#
+#local:
+# host: '127.0.0.1'
+# port: '9200'
+# cluster_health: True
+# cluster_stats: True