So verstehen Sie, was ein Honeypot ist
Wenn ein Server ständigen Angriffsversuchen ausgesetzt ist, insbesondere weil er ohne Filter direkt mit dem Internet verbunden ist, ist es unvermeidlich, dass er mit allerlei automatisiertem Unsinn bombardiert wird. Dabei handelt es sich nicht um gezielte Angriffe – eher um Bots, die große Teile des IP-Raums scannen, offene Ports ausspionieren oder zufällige Payloads testen, um zu sehen, ob etwas Interessantes auftaucht. Wenn Sie einen öffentlich zugänglichen Server betreiben, sei es eine Website, eine API oder etwas anderes, sagen Sie im Grunde jedem und allem, was da draußen scannt: „Kommt her!“.So läuft es nun einmal, aber zum Glück gibt es ein paar praktische Möglichkeiten, diesen zufälligen Scannern das Leben schwerer zu machen. Denn natürlich müssen Windows, Linux oder welches Betriebssystem auch immer es einem unnötig schwer machen, oder?
So richten Sie einen einfachen Honeypot ein, um Angreifer in die Falle zu locken
Methode 1: Verwenden Sie eine gefälschte Admin-Seite oder täuschen Sie sie mit einem einfachen Honeypot-Skript vor
Dies ist zwar mit geringem Aufwand verbunden, aber effektiv, um Gelegenheitsscanner oder Script-Kiddies zu erwischen. Im Grunde erstellen Sie ein gefälschtes Login- oder Admin-Panel – nichts Besonderes, nur ein Verzeichnis wie /admin oder /wp-admin, das verlockend aussieht, aber eigentlich nichts tut. Richten Sie dann die Protokollierung aller IP-Adressen und Interaktionen ein, die darauf zugreifen. In manchen Fällen reicht es aus, das Verzeichnis zu erstellen und ein Skript abzulegen, das IP-Adressen und Anfragen in einer Datei oder Datenbank protokolliert.
Warum es hilft: Es zeigt Ihnen sofort, wer auf Ihren sensibelsten Seiten herumstöbert. Wenn der Scanner auf Ihre gefälschte Admin-Seite trifft, erhalten Sie die genaue IP-Adresse, Uhrzeit und möglicherweise sogar den User-Agent. Bei einem Setup funktionierte es auf Anhieb, bei einem anderen dauerte es mehrere Versuche, aber im Allgemeinen sind diese Lockvögel gut darin, die automatisierten Skripte abzufangen, die Ihre Website crawlen. Stellen Sie nur sicher, dass das Verzeichnis nicht von irgendwo anders verlinkt ist, sonst könnten legitime Benutzer versehentlich darauf stoßen. Fügen Sie außerdem einen Kommentar in Ihre robots.txt-Datei ein, wie z. B.„