home » search tags
Die Suche tag = kibana ergab 4 Treffer:

November
22
Da ist doch glatt am 11.11.2014 eine neue beta von Kibana4 erschienen und ich hab es nicht mitbekommen.

Wenn ich mir den entsprechenden Blogpost und die Screenshots ansehe, dann muss ich sagen nice. Mal sehen welchen Eindruck es hinterlässt wenn ich endlich Zeit finde es auf einem Testsystem mal live zu sehen. Alleine der map support macht diese Version so interessant.
April
2
Wie hier bereits beschrieben kann man Logstash (und Kibana) nutzen um z.B. die Besucher einer Webseite geographisch darzustellen, das ganze sieht dann z.B. so aus

April
2
Wer elasticsearch/logstash nutzt, der nutzt meist auch Kibana zur Visualisierung.

Die passende conf für Nginx sieht dabei wie folgt aus

location /kibana {
auth_basic "Kibana";
auth_basic_user_file /srv/www/htpasswd.users;
alias /srv/www/html/kibana;
}

# Password protected end points
location ~ ^/kibana-int/dashboard/.*$ {
proxy_pass http://elasticsearch;
proxy_read_timeout 90;
limit_except GET {
proxy_pass http://elasticsearch;
auth_basic "Kibana";
auth_basic_user_file /srv/www/htpasswd.users;
}
}

location ~ ^/kibana-int/temp.*$ {
proxy_pass http://elasticsearch;
proxy_read_timeout 90;
limit_except GET {
proxy_pass http://127.0.0.1:9200;
auth_basic "Kibana";
auth_basic_user_file /srv/www/htpasswd.users;
}
}



Den passenden upstream kann man wie folgt definieren

upstream elasticsearch {
server 127.0.0.1:9200;
keepalive 32;
}

März
26
Wer einen Webserver betreibt will gerne wissen aus welcher Region der Welt seine Besucher kommen.
Da ich die Logfiles von div. Webservern mit Logstash verarbeite lag es nahe diese Funktion direkt beim indexieren zu erledigen, somit entfällt zukünftig das manuelle Nachschlagen der Geodaten (z.B. via utrace.de.

Das anpassen von Logstash ist schnell geschehen

Zuerst besorgt man sich eine passende GeoIP-Datenbank, z.B. die Opensource Version von MaxMind
wget -N http://geolite.maxmind.com/download/geoip/database/GeoLiteCity.dat.gz



Nach dem entpacken

gunzip GeoLiteCity.dat.gz && cp GeoLiteCity.dat /opt/logstash/



kann man mit der Konfiguration von Logstash beginnen. Als Basis dient ein System das nach folgender Anleitung "Elasticsearch - Basisinstallation/Testsystem" installiert wurde.

Die zentrale Konfigurationsdatei (in meinem Falle logstash.conf) muss mit folgenden Filter erweitert werden

filter {
if [remoteaddr] {
geoip {
source => "remoteaddr"
target => "geoip"
database => "/opt/logstash/GeoLiteCity.dat"
add_field => [ "[geoip][coordinates]", "%{[geoip][longitude]}" ]
add_field => [ "[geoip][coordinates]", "%{[geoip][latitude]}" ]
}
mutate {
convert => [ "[geoip][coordinates]", "float" ]
}
}
}



Nach einem restart/reload von Logstash kann man nun die folgenden neuen Felder finden: