martedì 24 luglio 2007

Webscanner tool

Premessa
In questi ultimi tempi si sente sempre di piu' parlare di pagine internet che contengono script, che in maniera non visibile, reindirizzano la navigazione del browser su siti contenenti programmi pericolosi di vario genere (spyware, trojan ecc...) che vengono scaricati sul computer del malcapitato sfruttando falle di sicurezza del browser internet.
Sulla rete ci sono ottimi siti che si interessano di questi problemi avvisando e proponendo soluzioni a questi attacchi informatici come ad esempio
http://maipiugromozon.blogspot.com/
http://www.pcalsicuro.com/
ecc....


Per creare una lista di siti che sono infetti e quindi potenzialmente pericolosi, se visitati, bisogna prima di tutto verificare se nel codice della home page (ma a volte anche in altre pagine del sito attaccato) siano stati salvati script pericolosi (molte volte anche offuscati per renderne difficile l' individuazione.)

Inoltre molti siti sono condivisi un unico indirizzo IP e quindi per poter sapere quanti e quali siti sono presenti occorre utilizzare un sito di reverse IP che generi una lista delle URL presenti per quell'IP.
Ottenuta la lista occorre verificare uno ad uno i siti scaricandone il codice cercando all interno del codice del sito la presenza di iframe pericolosi.

Il programma
Webscanner automatizza la ricerca e lo scaricamento di siti presenti in una range di indirizzi IP (vedi screenshoot) , eseguendo tutto in maniera interamente automatica ed ottenendo il codice della home page, (ridenominato in file TXT) per poterne verificare il contenuto.
Inoltre, dato che ci sono parecchi siti su uno stesso ip, webscanner offre la possibilita' di filtrare il download del codice solo per quelli che presentano all interno una determinata stringa di testo.
Una volta ottenuta la lista di siti per quell'IP il programma ne esegue una scansione scaricando la home page, verificando se contiene la stringa cercata e salvando in un folder il file txt della pagina.
Finita la scansione viene generato un file di log con le url dei siti esaminati e di quelli scaricati.
A questo punto sui file salvati si potra fare qualunque ulteriore verifica attraverso un programma di ricerca, per trovare determinati codici.




Alcune caratteristiche:
Il programma e' scritto in AUTOIT , mentre utilizza WGET per lo scaricamento delle pagine web, le dimensioni sono di circa 300K e le varie impostazioni sono salvate su file . INI.

Appena possibile rendero' disponibile la prima versione funzionante anche se da testare perche' non definitiva e con possibili bug.

Edgar

2 commenti:

febigene ha detto...

EVS si attiva a Bangkok...a quando una software_house??

Edgar Bangkok ha detto...

heheeheh