]> arthur.barton.de Git - netdata.git/blob - README.md
added new files to makefiles
[netdata.git] / README.md
1 netdata
2 =======
3
4 ### Linux real time system monitoring, over the web!
5
6 **Netdata** is a daemon that collects system information from a linux system and presents a web site to view the data.
7 The presentation is full of charts that precisely render all system values, in realtime, for a short time (1 hour by default).
8
9 You can use it to monitor all your servers, linux PCs or linux embedded devices, without the need to ssh to them.
10 Also, you can view a short history of all collected values, so if something happens you can use **netdata** to find out what and when.
11
12 Check it live at:
13
14  - [My Home Gentoo Box](http://195.97.5.206:19999/)
15  - [My Home Raspberry Pi B+](http://195.97.5.204:19999/) with data collection every 5s (raspbian playing movies 24x7)
16  - [My Home Raspberry Pi 2](http://195.97.5.205:19999/) (osmc as an access point)
17
18 Here is a screenshot:
19
20 ![image](https://cloud.githubusercontent.com/assets/2662304/11323720/0ea2a5f4-9123-11e5-9c30-d57072b8e12c.png)
21
22 ![image](https://cloud.githubusercontent.com/assets/2662304/11323728/3cb6e810-9123-11e5-97b3-662fd6f35725.png)
23
24
25 # Features
26
27 - **highly optimized C code**
28
29   It only needs a few milliseconds per second to collect all the data.
30   It will nicelly run even on a raspberry pi with just one cpu core, or any other embedded system.
31
32 - **extremely lightweight**
33
34   It only needs a few megabytes of memory to store all its round robin database.
35
36   Although `netdata` does all its calculation using `long double` (128 bit) arithmetics, it stores all values using a **custom-made 32-bit number**. This custom-made number can store in 29 bits values from -167772150000000.0 to  167772150000000.0 with a precision of 0.00001 (yes, it is a floating point number, meaning that higher integer values have less decimal precision) and 3 bits for flags (2 are currently used and 1 is reserved for future use). This provides an extremely optimized memory footprint with just 0.0001% max accuracy loss (run: `./netdata --unittest` to see it in action).
37
38 - **per second data collection**
39
40   Every chart, every value, is updated every second. Of course, you can control collection period per module.
41
42   **netdata** can perform several calculations on each value (dimension) collected:
43
44   - **absolute**, stores the collected value, as collected (this is used, for example for the number of processes running, the number of connections open, the amount of RAM used, etc)
45
46   - **incremental**, stores the difference of the collected value to the last collected value (this is used, for example, for the bandwidth of interfaces, disk I/O, i.e. for counters that always get incremented) - **netdata** automatically interpolates these values to second boundary, using nanosecond calculations so that small delays at the data collection layer will not affect the quality of the result - also, **netdata** detects arithmetic overflows and presents them properly at the charts.
47
48   - **percentage of absolute row**, stores the percentage of the collected value, over the sum of all dimensions of the chart.
49
50   - **percentage of incremental row**, stores the percentage of this collected value, over the sum of the the **incremental** differences of all dimensions of the chart (this is used, for example, for system CPU utilization).
51
52 - **visualizes QoS classes automatically**
53
54   If you also use FireQOS for QoS, it collects class names automatically.
55
56 - **appealing web site**
57
58   The web site uses bootstrap and google charts for a very appealing result.
59   It works even on mobile devices and adapts to screen size changes and rotation (responsive design).
60
61 - **web charts do respect your browser resources**
62
63   The charts adapt to show only as many points are required to have a clear view.
64   Also, the javascript code respects your browser resources (stops refreshing when the window looses focus, when scrolling, etc).
65
66 - **highly configurable**
67
68   All charts and all features can be enabled or disabled.
69   The program generates its configuration file based on the resources available on the system it runs, for you to edit.
70
71 - It reads and renders charts for all these:
72  - `/proc/net/dev` (all netwrok interfaces for all their values)
73  - `/proc/diskstats` (all disks for all their values)
74  - `/proc/net/snmp` (total IPv4, TCP and UDP usage)
75  - `/proc/net/netstat` (more IPv4 usage)
76  - `/proc/net/stat/nf_conntrack` (connection tracking performance)
77  - `/proc/net/ip_vs/stats` (IPVS connection statistics)
78  - `/proc/stat` (CPU utilization)
79  - `/proc/meminfo` (memory information)
80  - `/proc/vmstat` (system performance)
81  - `/proc/net/rpc/nfsd` (NFS server statistics for both v3 and v4 NFS)
82  - `tc` classes (QoS classes - [with FireQOS class names](http://firehol.org/tutorial/fireqos-new-user/))
83
84 - It supports **plugins** for collecting information from other sources!
85
86   Plugins can be written in any computer language (pipe / stdout communication for data collection).
87
88   It ships with 2 plugins: `apps.plugin` and `charts.d.plugin`:
89
90  - `apps.plugin` is a plugin that attempts to collect statistics per process. It groups the entire process tree based on your settings (for example, mplayer, kodi, vlc are all considered `media`) and for each group it attempts to find CPU usage, memory usages, physical and logical disk read and writes, number of processes, number of threads, number of open files, number of open sockets, number of open pipes, minor and major page faults (major = swapping), etc. 15 stackable (per group) charts in total.
91
92  - `charts.d.plugin` provides a simple way to script data collection in BASH. It includes example plugins that collect values from:
93
94     - `nut` (UPS load, frequency, voltage, etc, for multiple UPSes)
95     - `sensors` (temperature, voltage, current, power, humidity, fans rotation sensors)
96     - `cpufreq` (current CPU clock frequency, for all CPUs)
97     - `postfix` (e-mail queue size)
98     - `squid` (web proxy statistics)
99     - `mysql` (mysql global statistics)
100     - `opensips` (opensips statistics)
101
102     Of course, you can write your own using BASH scripting.
103
104 - netdata is a web server, supporting gzip compression
105
106   It serves its own static files and dynamic files for rendering the site.
107   It does not support authentication or SSL - limit its access using your firewall.
108   It does not allow ` .. ` or ` / ` in the files requested (so it can only serve files stored in the web directory `/usr/share/netdata/web`).
109
110
111 # How it works
112
113 1. You run a daemon on your linux: netdata.
114  This deamon is written in C and is extremely lightweight.
115
116  netdata:
117
118   - Spawns threads to collect all the data for all sources
119   - Keeps track of the collected values in memory (no disk I/O at all)
120   - Generates JSON and JSONP HTTP responses containing all the data needed for the web graphs
121   - Is a standalone web server.
122
123  For example, you can access JSON data by using:
124
125  ```
126  http://127.0.0.1:19999/data/net.eth0
127  ```
128
129  This will give you the JSON file for traffic on eth0.
130  The above is equivalent to:
131
132  ```
133  http://127.0.0.1:19999/data/net.eth0/3600/1/average/0/0
134  ```
135
136  where:
137
138   - 3600 is the number of entries to generate.
139   - 1 is grouping count, 1 = every single entry, 2 = half the entries, 3 = one every 3 entries, etc
140   - `average` is the grouping method. It can also be `max`.
141   - 0/0 they are `before` and `after` timestamps, allowing panning on the data
142
143
144 2. If you need to embed a **netdata** chart on your web page, you can add a few javascript lines and a `div` for every graph you need. Check [this example](http://195.97.5.206:19999/datasource.html) (open it in a new tab and view its source to get the idea).
145
146 3. Graphs are generated using Google Charts API (so, your client needs to have internet access).
147
148
149 # Installation
150
151 ## Automatic installation
152
153 Before you start, make sure you have `zlib` development files installed.
154 To install it in Ubuntu, you need to run:
155
156 ```sh
157 apt-get install zlib1g-dev
158 ```
159
160 You also need to have a basic build environment in place. You will need packages like
161 `gcc`, `autoconf`, `autogen`, `automake`, `pgk-config`, etc.
162
163 Then do this to install and run netdata:
164
165 ```sh
166
167 # download it
168 git clone https://github.com/ktsaou/netdata.git netdata.git
169 cd netdata.git
170
171 # build it
172 ./netdata-installer.sh
173
174 ```
175
176 The script `netdata-installer.sh` will build netdata and install it to your system.
177
178 Once the installer completes, the file `/etc/netdata/netdata.conf` will be created.
179 You can edit this file to set options. To apply the changes you made, you have to restart netdata.
180
181 - You can start netdata by executing it with `/usr/sbin/netdata` (the installer will also start it).
182
183 - You can stop netdata by killing it with `killall netdata`.
184     You can stop and start netdata at any point. Netdata saves on exit its round robbin
185     database to `/var/cache/netdata` so that it will continue from where it stopped the last time.
186
187 To access the web site for all graphs, go to:
188
189  ```
190  http://127.0.0.1:19999/
191  ```
192
193 You can get the running config file at any time, by accessing `http://127.0.0.1:19999/netdata.conf`.
194
195 To start it at boot, just run `/usr/sbin/netdata` from your `/etc/rc.local` or equivalent.