Cómo entender qué es un honeypot
Cuando un servidor sufre constantes intentos de ataque, sobre todo porque está conectado directamente a internet sin filtros, es inevitable que reciba todo tipo de ataques automatizados sin sentido. No se trata de ataques dirigidos, sino de bots que escanean grandes franjas de espacio IP, revisan puertos abiertos o prueban cargas útiles aleatorias para ver si aparece algo interesante. Si ejecutas un servidor público, ya sea un sitio web, una API o lo que sea, básicamente estás diciendo «ven a por mí» a cualquiera o cualquier cosa que esté escaneando. Así es como funciona, pero por suerte, hay algunas formas prácticas de complicarles la vida a esos escáneres aleatorios. Porque, claro, Windows, Linux o cualquier sistema operativo tiene que complicarlo más de lo necesario, ¿no?
Cómo configurar un honeypot básico para atrapar atacantes
Método 1: utilice una página de administración falsa o un señuelo con un script honeypot simple
Esto es bastante sencillo, pero efectivo para detectar a los exploradores casuales o a los script kiddies. Básicamente, crea un inicio de sesión o panel de administración falso; nada especial, solo un directorio como /admin o /wp-admin que parece atractivo, pero que en realidad no hace nada. Luego, configura el registro de cada IP e interacción que intente acceder a él. En algunas configuraciones, esto solo consiste en crear el directorio y colocar un script que registre las IP y las solicitudes en un archivo o base de datos.
Por qué ayuda: Puede indicarte al instante quién está husmeando en tus páginas más sensibles. Cuando el escáner detecta tu página de administración falsa, obtienes la IP exacta, la hora e incluso el agente de usuario. En una configuración funcionó a la primera; en otra, tardó varios intentos, pero en general, estos señuelos son eficaces para detectar los scripts automatizados que rastrean tu sitio. Solo asegúrate de que el directorio no esté enlazado desde ningún otro sitio, o usuarios legítimos podrían acceder a él accidentalmente. Además, añade un comentario en tu archivo robots.txt como `