De vez en cuando es saludable pasarse por commandlinefu, siempre te encuentras alguna sorpresilla: enrevesadas lineas de comandos, que nos permiten hacer cosas que serían imposibles con una interfaz gráfica,o que nos permiten realizar las tareas de una forma diferente a la habitual, como es en este caso.
Es sabido que navegadores como Firefox, tienen la función de poder consultar la última modificación de una web en su menú contextual, tan solo tenemos que hacer botón derecho y seleccionar <Ver información de la página>.
Pero que pasa si por ejemplo utilizamos chrome u otro navegador? pues que no disponemos de esa opción…pero bueno, para eso está la terminal y el comando wget que este caso no lo utilizaremos para descargar contenidos, sino en modo arácnico (spider) 🙂
wget -S --
spider website 2>&1 | grep Mod
Donde sustituiremos website por la dirección de la página web que queremos examinar, para este ejemplo utilicé http://info.cern.ch/ que es una de las direcciones más antiguas de internet
wget -S <code>--</code>spider http://info.cern.ch/ 2>&1 | grep Mod
y vemos que el dato de la última modificación coincide con el nos proporcionó anteriormente firefox.
Fuente | Comandlinefu
Muchas gracias por el post, estaría bien un dia tratar los scripts con los que poder obtener determinados datos de una web, (bien es verdad que para ello se suelen usar scripts en php u otros lenguajes), pero con bash algo se podrá hacer ¿no?. Saludos¡¡ 😀
Gracias a ti. Tomo noto de la idea para futuras entradas.
Un Saludo!
Cheking…
wget -S –spider http://lamiradadelreplicante.wordpress.com/ 2>&1 | grep Mod
XD
Interesante comando e interesantes enlaces!!!
XD! los wget los carga el diablo…
Saludos!
no me funciona