TOOLS MOTORI DI RICERCA
TOOLS ONLINE per migliorare il posizionamento del proprio sito web. |
1) Utilissimo servizio che
simula ciò che vede lo spider di un motore di ricerca; inoltre fornisce
statistiche delle parole chiave e dei link collegati. 2) Utile servizio per chi
utilizza un file robots.txt per posizionarsi sui motori di ricerca. 3) Altro interessante tool
per controllare la "Keyword Density", ossia il numero di volte
che si ripete e viene vista una determinata keywords all'interno di una
pagina web da un motore di ricerca. Vengono analizzati i meta-tags, l'header,
la description e il body. 4) Se il tuo sito scompare
dalle liste di Google non correre ad effettuare una nuova segnalazione di
tutte le pagine web. E' probabile che Google stia aggiornando i propri
database. Vai su Google-Dance per conoscere i risultati su tutti i
database di Google. 5) Mi sapresti dire almeno
due motori di ricerca Finlandesi? Sicuramente potrai trovarli su
searchenginecolossus.com, la directory mondiale dei search engine. 6) E' meglio inserire i siti
a mano nei motori o usare questo servizio di inserimento automatico? Di
fatto con questo tool PROFESSIONALE realizzato da www.submission.it
(ottimo sito da andare a vedere!) è la medesima cosa. Inserimento
gratuito su 200 motori di ricerca mondiali, divisi geograficamente. 7) Un generatore gratuito di
doorpage online. Le doorpage sono pagine "nascoste" per essere
catturate dagli spider nei motori di ricerca. 8) Un tool che indica quante
pagine del proprio sito web sono presenti in un determinato motore di
ricerca. E il proprio risultato può essere confrontato con quelli di 5
altri siti competitor a propria scelta. 9) Un misuratore online
della cosiddetta "link popularity": ossia attraverso questo
sistema potremmo sapere quante pagine contenenti un link al nostro sito
sono presenti in un determinato motore di ricerca. |
Rimani sempre aggiornato su questo argomento: iscriviti
alla Newsletter
Liste di user-agent e indirizzi IP User-agent e indirizzi IP usati dagli spider |
---|
Avere a disposizione una
lista dei nomi con cui gli spider dei motori di ricerca si presentano
durante il prelievo delle pagine web può risultare estremamente utile per
identificare i robot meno conosciuti o per bloccare l'accesso ai robot
sgraditi, attraverso una direttiva del server o il ricorso al file
robots.txt.
Search engine robots ospita una lunga lista di user-agent di motori di ricerca, di browser e di altri tipi di robot, ordinata per genere. Oltre all'user-agent viene indicato anche l'indirizzo IP solitamente usato dal robot e un eventuale link al sito di appartenenza. List of Robot Agent Strings è un elenco alfabetico di user-agent costantemente aggiornato in tempo reale da alcuni script. Per ogni user-agent è presente una pagina che ne approfondisce le caratteristiche, indicando tra le altre informazioni anche una lista di IP usati dal robot relativo all'user-agent. Search Engine IP Addresses pubblica invece una lista costantemente aggiornata degli indirizzi IP utilizzati dai principali motori di ricerca: Alltheweb, Altavista, Lycos, Inktomi, Wisenut, Google, e Ask Jeeves/Teoma. Molto utile per quei temerari che volessero utilizzare tecniche di cloaking per riconoscere gli spider e fornire loro contenuti fortemente ottimizzati. |
Rimani sempre aggiornato su questo argomento: iscriviti alla Newsletter