]> arthur.barton.de Git - netdata.git/blobdiff - README.md
added new files to makefiles
[netdata.git] / README.md
index 0003c84449a9bce452c4d6b365b16ed243dbf2b6..43b143fd92aa04fc7d8306f9bddeeba113a4c9c6 100755 (executable)
--- a/README.md
+++ b/README.md
@@ -1,13 +1,13 @@
 netdata
 =======
 
-linux real time system monitoring over the web
+### Linux real time system monitoring, over the web!
 
-Netdata is a daemon that collects system information from a linux system and presents a web site to view the data.
+**Netdata** is a daemon that collects system information from a linux system and presents a web site to view the data.
 The presentation is full of charts that precisely render all system values, in realtime, for a short time (1 hour by default).
 
 You can use it to monitor all your servers, linux PCs or linux embedded devices, without the need to ssh to them.
-Also, you can view a short history of all collected values.
+Also, you can view a short history of all collected values, so if something happens you can use **netdata** to find out what and when.
 
 Check it live at:
 
@@ -17,7 +17,9 @@ Check it live at:
 
 Here is a screenshot:
 
-![image](https://cloud.githubusercontent.com/assets/2662304/2593406/3c797e88-ba80-11e3-8ec7-c10174d59ad6.png)
+![image](https://cloud.githubusercontent.com/assets/2662304/11323720/0ea2a5f4-9123-11e5-9c30-d57072b8e12c.png)
+
+![image](https://cloud.githubusercontent.com/assets/2662304/11323728/3cb6e810-9123-11e5-97b3-662fd6f35725.png)
 
 
 # Features
@@ -30,13 +32,23 @@ Here is a screenshot:
 - **extremely lightweight**
 
   It only needs a few megabytes of memory to store all its round robin database.
-  
-  Internally, it uses a **custom-made 32-bit number** to store all the values, along with a limited number of metadata for each collected value. This floating point number can store in 32 bits values from -167772150000000.0 to  167772150000000.0 with a precision of 0.00001 (yes, it is a floating point number, meaning that higher integer values have less decimal precision). Of course, this provides an extremely optimized memory footprint. 
+
+  Although `netdata` does all its calculation using `long double` (128 bit) arithmetics, it stores all values using a **custom-made 32-bit number**. This custom-made number can store in 29 bits values from -167772150000000.0 to  167772150000000.0 with a precision of 0.00001 (yes, it is a floating point number, meaning that higher integer values have less decimal precision) and 3 bits for flags (2 are currently used and 1 is reserved for future use). This provides an extremely optimized memory footprint with just 0.0001% max accuracy loss (run: `./netdata --unittest` to see it in action).
 
 - **per second data collection**
 
   Every chart, every value, is updated every second. Of course, you can control collection period per module.
 
+  **netdata** can perform several calculations on each value (dimension) collected:
+
+  - **absolute**, stores the collected value, as collected (this is used, for example for the number of processes running, the number of connections open, the amount of RAM used, etc)
+
+  - **incremental**, stores the difference of the collected value to the last collected value (this is used, for example, for the bandwidth of interfaces, disk I/O, i.e. for counters that always get incremented) - **netdata** automatically interpolates these values to second boundary, using nanosecond calculations so that small delays at the data collection layer will not affect the quality of the result - also, **netdata** detects arithmetic overflows and presents them properly at the charts.
+
+  - **percentage of absolute row**, stores the percentage of the collected value, over the sum of all dimensions of the chart.
+
+  - **percentage of incremental row**, stores the percentage of this collected value, over the sum of the the **incremental** differences of all dimensions of the chart (this is used, for example, for system CPU utilization).
+
 - **visualizes QoS classes automatically**
 
   If you also use FireQOS for QoS, it collects class names automatically.
@@ -44,7 +56,7 @@ Here is a screenshot:
 - **appealing web site**
 
   The web site uses bootstrap and google charts for a very appealing result.
-  It works even on mobile devices and adapts to screen size changes and rotation.
+  It works even on mobile devices and adapts to screen size changes and rotation (responsive design).
 
 - **web charts do respect your browser resources**
 
@@ -67,7 +79,7 @@ Here is a screenshot:
  - `/proc/meminfo` (memory information)
  - `/proc/vmstat` (system performance)
  - `/proc/net/rpc/nfsd` (NFS server statistics for both v3 and v4 NFS)
- - `tc` classes (QoS classes)
+ - `tc` classes (QoS classes - [with FireQOS class names](http://firehol.org/tutorial/fireqos-new-user/))
 
 - It supports **plugins** for collecting information from other sources!
 
@@ -75,44 +87,52 @@ Here is a screenshot:
 
   It ships with 2 plugins: `apps.plugin` and `charts.d.plugin`:
 
- - `apps.plugin` is a plugin that attempts to collect statistics per process.
+ - `apps.plugin` is a plugin that attempts to collect statistics per process. It groups the entire process tree based on your settings (for example, mplayer, kodi, vlc are all considered `media`) and for each group it attempts to find CPU usage, memory usages, physical and logical disk read and writes, number of processes, number of threads, number of open files, number of open sockets, number of open pipes, minor and major page faults (major = swapping), etc. 15 stackable (per group) charts in total.
 
  - `charts.d.plugin` provides a simple way to script data collection in BASH. It includes example plugins that collect values from:
 
-  - `nut` (UPS load, frequency, voltage, etc)
-  - `pi` (raspberry pi CPU clock and temperature)
-  - `postfix` (e-mail queue size)
-  - `squid` (web proxy statistics)
+    - `nut` (UPS load, frequency, voltage, etc, for multiple UPSes)
+    - `sensors` (temperature, voltage, current, power, humidity, fans rotation sensors)
+    - `cpufreq` (current CPU clock frequency, for all CPUs)
+    - `postfix` (e-mail queue size)
+    - `squid` (web proxy statistics)
+    - `mysql` (mysql global statistics)
+    - `opensips` (opensips statistics)
+
+    Of course, you can write your own using BASH scripting.
 
 - netdata is a web server, supporting gzip compression
 
   It serves its own static files and dynamic files for rendering the site.
-  (it does not support authentication or SSL - limit its access using your firewall)
+  It does not support authentication or SSL - limit its access using your firewall.
+  It does not allow ` .. ` or ` / ` in the files requested (so it can only serve files stored in the web directory `/usr/share/netdata/web`).
 
 
 # How it works
 
 1. You run a daemon on your linux: netdata.
  This deamon is written in C and is extremely lightweight.
+
  netdata:
 
-  - reads several /proc files
-  - keeps track of the values in memroy (a short history)
-  - generates JSON and JSONP HTTP responses containing all the data needed for the web graphs
-  - is a web server. You can access JSON data by using:
+  - Spawns threads to collect all the data for all sources
+  - Keeps track of the collected values in memory (no disk I/O at all)
+  - Generates JSON and JSONP HTTP responses containing all the data needed for the web graphs
+  - Is a standalone web server.
+
+ For example, you can access JSON data by using:
+
  ```
  http://127.0.0.1:19999/data/net.eth0
  ```
+
  This will give you the JSON file for traffic on eth0.
  The above is equivalent to:
+
  ```
  http://127.0.0.1:19999/data/net.eth0/3600/1/average/0/0
  ```
+
  where:
 
   - 3600 is the number of entries to generate.
@@ -121,8 +141,7 @@ Here is a screenshot:
   - 0/0 they are `before` and `after` timestamps, allowing panning on the data
 
 
-2. On your web page, you add a few javascript lines and a DIV for every graph you need.
- Your browser will hit the web server to fetch the JSON data and refresh the graphs.
+2. If you need to embed a **netdata** chart on your web page, you can add a few javascript lines and a `div` for every graph you need. Check [this example](http://195.97.5.206:19999/datasource.html) (open it in a new tab and view its source to get the idea).
 
 3. Graphs are generated using Google Charts API (so, your client needs to have internet access).
 
@@ -138,16 +157,32 @@ To install it in Ubuntu, you need to run:
 apt-get install zlib1g-dev
 ```
 
+You also need to have a basic build environment in place. You will need packages like
+`gcc`, `autoconf`, `autogen`, `automake`, `pgk-config`, etc.
+
 Then do this to install and run netdata:
 
 ```sh
+
+# download it
 git clone https://github.com/ktsaou/netdata.git netdata.git
 cd netdata.git
-./netdata.start
+
+# build it
+./netdata-installer.sh
+
 ```
 
-Once you run it, the file conf.d/netdata.conf will be created. You can edit this file to set options for each graph.
-To apply the changes you made, you have to run netdata.start again.
+The script `netdata-installer.sh` will build netdata and install it to your system.
+
+Once the installer completes, the file `/etc/netdata/netdata.conf` will be created.
+You can edit this file to set options. To apply the changes you made, you have to restart netdata.
+
+- You can start netdata by executing it with `/usr/sbin/netdata` (the installer will also start it).
+
+- You can stop netdata by killing it with `killall netdata`.
+    You can stop and start netdata at any point. Netdata saves on exit its round robbin
+    database to `/var/cache/netdata` so that it will continue from where it stopped the last time.
 
 To access the web site for all graphs, go to:
 
@@ -155,3 +190,6 @@ To access the web site for all graphs, go to:
  http://127.0.0.1:19999/
  ```
 
+You can get the running config file at any time, by accessing `http://127.0.0.1:19999/netdata.conf`.
+
+To start it at boot, just run `/usr/sbin/netdata` from your `/etc/rc.local` or equivalent.