La storia dei Motori di Ricerca

Alcune ere Internet fa (15 anni o giù di lì) si apriva al grande pubblico ( per la verità piccolo all’epoca in Italia) la rete con tutte le sue immense potenzialità in termini di sviluppo e conoscenza … e business ovviamente. A partire da quel momento, in una corsa inarrestabile e con valori di crescita esponenziali il web si popolava di documenti, pagine e siti web più o meno articolati e complessi. Con la crescita del web si avvertì presto la necessità di un metodo per rendere reperibili le informazioni; la rete ovviamente non è un libro scritto da un unico autore, dotato di indice e didascalie ma piuttosto un insieme disordinato di risorse disperse su tutto il territorio del pianeta e in perenne ed istantanea mutazione.

Nacquero allora i “Motori di Ricerca” ovvero degli “spider” o “crawler” che a spasso per il “world wide web” leggevano i documenti che incontravano e li catalogavano rendendoli disponibili agli utenti nelle “SERP” (acronimo per Search Engine Result Page ovvero pagine dei risultati dei motori di ricerca). I metodi di indicizzazione si basavano essenzialmente su: – i contenuti visibili delle pagine (molto poco allora..) -i “metatag” ovvero parti di codice non visibili agli umani che leggono la pagina ma importantissimi (oggi molto meno) per gli “spider” . I più importanti Metatag sono:

  • il <META NAME=”title”> che è il titolo della pagina web e quindi il primo identificatore dell’argomento di cui il documento tratta (ancora oggi molto importante)
  • il <META NAME=”description”> che rafforza ed espande i contenuti del titolo (ancora utile)
  • il <META NAME=”keywords”> che amplifica il valore di determinate chiavi (oggi praticamente ignorato dai motori più importanti)

I primi motori di ricerca fra i quali possiamo citare http://www.altavista.com, http://www.yahoo.com, http://www.excite.com , http://www.lycos.com, http://www.hotbot.com http://www.virgilio.it, http://www.arianna.it sono stati i terreni di conquista per i primi pionieri del SEO (acronimo per Search Engine Optimization /optimizator ovvero ottimizzazione/ottimizzatore per motori di ricerca) e ad oggi, con l’eccezione di Yahoo sono stati assorbiti da altri (in particolare Google) e sono quindi cessati di esistere come ”spider” autonomi anche se sono ancora minimamente utilizzati nelle ricerche pur attingendo i risultati dai database delle corporation da cui sono stati acquisiti.
La battaglia SEO appena iniziata, si concentrava all’epoca sostanzialmente sulla capacità di “ingannare” lo spider facendogli trovare una quantità di ripetizioni della stesse keywords nei tag nascosti ai visitatori, e le stesse keywords proposte all’interno della pagina magari (spesso) utilizzando un testo dello stesso colore dello sfondo o nascosto con vari artifici…Il risultato di ciò fu abbastanza disastroso: ai primi posti delle pagine delle ricerche accadeva spesso di trovare documenti che poco o nulla erano attinenti alle ricerche effettuate, che (a volte) reindirizzavano a siti più o meno sporchi e contenenti dialer o pornografia o quant’altro. Ciò in ragione dell’abilità del SEO (allora era ancora un modesto ‘ webmaster ’ per la verità, con competenze di web marketing) di trovare formule quasi alchimistiche di equilibrio tra ‘densità, prominenza, occorrenze’ etc… tali da soddisfare le preferenze di tal motore piuttosto che di tal altro. E ciò a scapito di pagine che avrebbero meritato ben altri posizionamenti ma scarsamente ottimizzate e quindi relegate in seconda o terza pagina.

Tentativi di arginare il fenomeno furono posti in essere soprattutto con l’introduzione delle “directory human reviewed” quali http://www.dmoz.org (Directory.MOZilla) e http://dir.yahoo.com in cui i siti per essere inseriti devono subire il controllo di un umano. Esse sono ancora oggi risorse importanti ma non riuscirono, allora, a far fronte alla velocità di crescita del web e a sostituire o integrare in modo effettivo gli spider automatici.

Tutto ciò sino all’avvento di Mister G… [continua..]

(4834)

Articoli correlati:

Tagged under:

1 Commento

  1. Sugel Rispondi

    Certo si potrebbe ricorrere ai log del server per controllare le visite dei bots ma non sempre si hanno a disposizione e non tutti sono capaci di leggerli. 08 03 2011 Pubblicato in Nel mio quotidiano giro di aggiornamento sui siti e blog di SEO internazionali mi sono imbattuto in questo di Hessam Lavi ex membro dello spam team di Google che calava la mannaia sul portale del noto brand tedesco Hugo Boss e si chiedeva se sara vittima di ban a breve visto anche il recente . La risposta e arrivata puntuale si alcune pagine del Hugo Boss sono state bannate.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

× Supporto Live

Al momento siamo offline. Potete contattarci via email..