Beitragsübersicht

[Seite: 12] Alle veröffentlichten Beiträge nach dem Zeitpunkt der Veröffentlchung sortiert.

Betriebssystemwechsel: Von Debian 7 wieder zurück zu Windows 7

Vor ungefähr zweieinhalb Monaten habe ich einen Betriebssystemwechsel vollzogen und bin von Windows 7 komplett auf Debian-Linux umgestiegen, weil ich Linux mal ausprobieren und es auch tatsächlich produktiv nutzen wollte. Der Hauptgrund, warum ich mich für Debian entschieden habe, war das elegante Design der GNOME-Shell und weil unter Debian standardmäßig keine proprietäre, sondern nur quelloffene Software mit dabei ist.
Außerdem wollte ich nicht mehr von großen […] zum Beitrag

Ehemaliger CIA-Chef: Whistleblower Edward Snowden sollte gehängt werden

Unglaublich: Der ehemalige Chef der Central Intelligence Agency (CIA), James Woolsey, hat gefordert, dass man den Whistleblower Edward Snowden wegen Hochverrat anklagen und ihn an seinem Hals aufhängen soll, bis er tot ist. Das sagte er dem US-amerikanischen Nachrichtensender Fox. Außerdem hält er es für idiotisch, wenn man Edward Snowden vollständigen Straferlass gäbe.
An so einer menschenverachtenden Äußerung sieht man schon, wie dieser Verein drauf ist, der andere Menschen […] zum Beitrag

TV: Wissenssendung Galileo führt zu Besucheransturm

Auf ProSieben läuft täglich von Montag bis Sonntag ab 19:05 Uhr die "Wissenssendung" Galileo, in der immer verschiedene Themen behandelt werden. Vor einiger Zeit verzeichnete mein Blog zur Ausstrahlungszeit von Galileo mal (im Vergleich zu sonst) erhöhten Traffic auf zwei Artikel über das […] zum Beitrag

Google: Spontane PageRank-Aktualisierung

Die Suchmaschine Google, die mit mehreren Milliarden Suchanfragen pro Tag die meistbesuchte Webseite der Welt ist, hat spontan ihren öffentlichen PageRank aller im Google-Index enthaltenen Webseiten aktualisiert, so dass Seitenbetreiber sich nun freuen können, falls ihr PageRank gestiegen ist (und […] zum Beitrag

XAMPP: VirtualHosts zum Apache-Server hinzufügen

Nachdem man die lokale Server-Testumgebung XAMPP installiert hat, lassen sich die Dienste unter dem lokalen Hostnamen localhost im Webbrowser aufrufen. Hat man aber mehr als ein Projekt am Laufen und möchte diese alle über verschiedene Hostnamen aufrufen können, dann kann man in der Apache- […] zum Beitrag

Google: Webmaster-Tools und Authentifizierungsoptionen

Die Webmaster-Tools von Google sind ein nützliches Werkzeug für Webmaster, die Detailinformationen über die Suchanfragen oder den Indexierungsstatus ihrer Webseite erfahren möchten. Außerdem kann man mit Hilfe einer vorhandenen Sitemap auf der entsprechenden Webseite auch überprüfen, welche […] zum Beitrag

Debian: Der Evolution-Mailclient und die RSS-Unterstützung

Der Evolution-Mailclient ist unter Debian 7 (Codename: Wheezy) standardmäßig mit an Bord und hat alle Funktionalitäten, die einem Mozilla Thunderbird auch bietet. Warum also einen zusätzlichen Mailclient installieren, wenn schon von Haus aus ein guter bereitgestellt wird? Ich habe mich jetzt schon […] zum Beitrag

Softwarevorstellung: „Is My Website Down?“

Heute möchte ich mal die in Java geschriebene Software Is My Website Down? von Marvin Menzerath vorstellen. Das kleine Tool, das sich entweder per Konsole oder auch über die grafische Benutzeroberfläche bedienen lässt, prüft in einem benutzerdefinierten Intervall eine oder mehrere benutzerdefinierte […] zum Beitrag

Idee: Einheitliche Useragent-Kennungen für Suchmaschinenbots

Wenn man sich mal die verschiedenen Useragents von bekannten Suchmaschinenbots anguckt, dann sind diese zwar fast alle gleich aufgebaut, aber man kann sie leider nicht mit einem einzigen regulären Ausdruck matchen. Wenn man zum Beispiel mit einem Skript überprüfen möchte, ob der aktuelle Useragent […] zum Beitrag

Apache: Badbots und Content-Scraper per .htaccess aussperren

Wenn man sich die HTTP-Logfiles von seinem Webserver oder seinem Loggingskript anguckt, dann findet man teilweise immer wieder Zugriffe von unbekannten Useragents, die einfach nur Ressourcen verbrauchen und für den Blogbetreiber keinerlei Mehrwert haben. Meistens handelt es sich dabei um sogenannte Content-Scraper, die nur darauf aus sind, den Inhalt der Webseite zu kopieren und erneut zu veröffentlichen.
Manche Bots sind teilweise so aggressiv, dass sie mit mehreren […] zum Beitrag