Guida SEO : Il Corso Completo E Gratuito

Come Funzionano I Motori Di Ricerca : Scansione, Indicizzazione E Posizionamento

Motori Di Ricerca

Per prima cosa, mostrati

Come menzionato nel Capitolo 1, i motori di ricerca sono macchine di risposta.Esistono per scoprire, comprendere e organizzare i contenuti di Internet al fine di offrire i risultati più pertinenti alle domande poste dai ricercatori.

Indice Argomenti nascondi

Per essere visualizzati nei risultati di ricerca, i tuoi contenuti devono prima essere visibili ai motori di ricerca.

È probabilmente il pezzo più importante del puzzle SEO: se il tuo sito non può essere trovato, non c’è modo che tu possa mai comparire nelle SERP (pagina dei risultati dei motori di ricerca).

Come funzionano i motori di ricerca?

I motori di ricerca hanno tre funzioni principali:

  1. Scansione: ricerca di contenuti in Internet, cercando il codice / contenuto per ogni URL che trovano.
  2. Indice: memorizza e organizza i contenuti trovati durante il processo di scansione. Una volta che una pagina è nell’indice, è in esecuzione per essere visualizzata come risultato per le query pertinenti.
  3. Classifica: fornire i contenuti che risponderanno meglio alla query di un ricercatore, il che significa che i risultati sono ordinati dal più rilevante al meno rilevante.

Che cosa è la scansione dei motori di ricerca?

La scansione è il processo di scoperta in cui i motori di ricerca inviano un team di robot (noti come crawler o spider) per trovare contenuti nuovi e aggiornati. Il contenuto può variare – potrebbe essere una pagina web, un’immagine, un video, un PDF, ecc. – ma indipendentemente dal formato, il contenuto viene scoperto dai collegamenti.

motori di ricerca

Googlebot inizia recuperando alcune pagine Web, quindi segue i collegamenti su tali pagine per trovare nuovi URL.

Saltando lungo questo percorso di collegamenti, il crawler è in grado di trovare nuovi contenuti e aggiungerli al loro indice chiamato Caffeina – un enorme database di URL scoperti – da recuperare in seguito quando un ricercatore cerca informazioni che il contenuto di tale URL è un buona partita per.

Che cos’è un indice di un motore di ricerca?

I motori di ricerca elaborano e archiviano le informazioni che trovano in un indice, un enorme database di tutto il contenuto che hanno scoperto e che ritengono abbastanza buono da essere utilizzato dagli utenti.

Il Ranking nei motori di ricerca

Quando qualcuno effettua una ricerca, i motori di ricerca setacciano il loro indice per contenuti altamente pertinenti e quindi ordinano quel contenuto nella speranza di risolvere la query del ricercatore.

Questo ordinamento dei risultati della ricerca per pertinenza è noto come classifica.

In generale, puoi presumere che più in alto è un sito Web, più pertinente è per il motore di ricerca che ritiene che il sito sia adatto alla query.

È possibile bloccare i crawler dei motori di ricerca da una parte o da tutto il tuo sito o indicare ai motori di ricerca di evitare di memorizzare determinate pagine nel loro indice.

Sebbene ci possano essere motivi per farlo, se desideri che i tuoi contenuti vengano trovati dai ricercatori, devi prima assicurarti che siano accessibili ai crawler e che siano indicizzabili.

Altrimenti, è ovviamente invisibile. Alla fine di questo capitolo, avrai il contesto di cui hai bisogno per lavorare con il motore di ricerca, piuttosto che contro di esso!

Scansione: i motori di ricerca sono in grado di trovare le tue pagine?

Come hai appena appreso, assicurarsi che il tuo sito venga sottoposto a scansione e indicizzato è un prerequisito per essere visualizzato nelle SERP.

Se hai già un sito Web, potrebbe essere una buona idea iniziare vedendo quante delle tue pagine sono nell’indice.

Ciò fornirà alcuni spunti fantastici sul fatto che Google stia eseguendo la scansione  trovando tutte le tue pagine desiderate e nessuna di quelle non desideri siano presenti. 

Un modo per controllare le pagine indicizzate è “site: tuodominio.com”, una ricerca avanzata tramite operatore.

Vai su Google e digita “site: tuodominio.com” nella barra di ricerca. Ciò restituirà i risultati che Google ha nel suo indice per il sito specificato:

Ioperatori di ricerca

Il numero di risultati visualizzati da Google (vedi “Informazioni sui risultati” sopra) non è esatto, ma esegue risultati più accurati, monitora e utilizza il rapporto sulla copertura dell’indice in Google Search Console.

Puoi iscriverti a una Google Search Console gratuita se non ne hai attualmente una. Con questo strumento, puoi inviare la sitemap per il tuo sito e monitorare, tra le altre cose, quante pagine inviare all’indice di Google, .

Se non sei presente in alcuna posizione nei risultati di ricerca, ci sono alcuni possibili motivi tra i quali:

  • Il tuo sito è nuovo di zecca e non è ancora stato sottoposto a scansione.
  • Il tuo sito non è collegato a nessun sito Web esterno.
  • La navigazione del tuo sito rende difficile per un robot la scansione efficace.
  • Il tuo sito contiene alcuni codici di base chiamati direttive del crawler che bloccano i motori di ricerca.
  • Il tuo sito è stato penalizzato da Google per tattiche di spam.

Spiega ai motori di ricerca come eseguire la scansione del tuo sito

Se hai utilizzato Google Search Console o l’operatore di ricerca avanzata “site: domain.com” e hai scoperto che alcune delle tue pagine importanti mancano dall’indice e / o alcune delle tue pagine non importanti sono state indicizzate erroneamente, ci sono alcune ottimizzazioni che puoi implementare per indirizzare meglio Googlebot in relazione a come desideri che i tuoi contenuti web vengano sottoposti a scansione. Dire ai motori di ricerca come eseguire la scansione del tuo sito può darti un miglior controllo di ciò che finisce nell’indice.

Molte persone pensano ad assicurarsi che Google possa trovare le loro pagine importanti, ma è facile dimenticare che ci sono probabilmente pagine che non vuoi che Googlebot trovi.

Questi potrebbero includere elementi come vecchi URL con contenuto scarso, URL duplicati (come parametri di ordinamento e filtro per il commercio elettronico), pagine codici promozionali speciali, pagine di gestione temporanea o di prova e così via.

Per indirizzare Googlebot lontano da determinate pagine e sezioni del tuo sito, utilizzare robots.txt.

Robots.txt

I file Robots.txt si trovano nella directory principale dei siti Web (es. Tuodominio.com/robots.txt) e suggeriscono su quali parti dei motori di ricerca del tuo sito devono e non devono eseguire la scansione, nonché la velocità con cui eseguono la scansione del tuo sito tramite specifiche direttive robots.txt.

In che modo Googlebot tratta i file robots.txt

  • Se Googlebot non riesce a trovare un file robots.txt per un sito, procede alla scansione del sito.
  • Se Googlebot trova un file robots.txt per un sito, di solito si atterrà ai suggerimenti e procederà alla scansione del sito.
  • Se Googlebot rileva un errore durante il tentativo di accedere al file robots.txt di un sito e non è in grado di determinare se ne esiste uno o meno, non eseguirà la scansione del sito.

Ottimizza per il crawl budget!

Il  crawl budget è il numero medio di URL sui quali Googlebot eseguirà la scansione del tuo sito prima di lasciarlo, quindi crawl budget assicura che Googlebot non stia perdendo tempo a eseguire la scansione delle pagine non importanti a rischio di ignorare quelle che lo sono.

Il crawl budget è molto importante su siti molto grandi con decine di migliaia di URL, ma non è mai una cattiva idea impedire ai crawler di accedere ai contenuti che sicuramente non ti interessano.

Assicurati solo di non bloccare l’accesso di un crawler alle pagine su cui hai aggiunto altre direttive, come tag canonici o “no-index”. Se Googlebot è bloccato da una pagina, non sarà in grado di vedere le istruzioni su quella pagina.

Non tutti i robot web seguono robots.txt.

Le persone con cattive intenzioni (ad es. spammer di indirizzi e-mail) costruiscono robot che non seguono questo protocollo.

In effetti, alcuni cattivi utenti usano i file robots.txt per capire dove hai trovato i tuoi contenuti privati.

Sebbene possa sembrare logico bloccare i crawler da pagine private come le pagine di accesso e amministrazione in modo che non vengano visualizzate nell’indice, posizionare la posizione di tali URL in un file robots.txt accessibile pubblicamente significa anche che le persone con intenzioni dannose può trovarli più facilmente.

È meglio NoIndex queste pagine e chiuderle dietro un modulo di accesso piuttosto che inserirle nel file robots.txt.

Puoi leggere maggiori dettagli al riguardo nella sezione robots.txt del nostro Centro didattico.

Definizione dei parametri URL in GSC

Alcuni siti (più comuni con l’e-commerce) rendono disponibili gli stessi contenuti su più URL diversi aggiungendo determinati parametri agli URL.

Se hai mai effettuato acquisti online, probabilmente hai ristretto la ricerca tramite i filtri.

Ad esempio, puoi cercare “scarpe” su Amazon, quindi perfezionare la ricerca per dimensione, colore e stile.

Ogni volta che perfezioni, l’URL cambia leggermente:

https://www.example.com/products/women/dresses/green.htm

https: //www.example.com/products/women? Categoria=abiti&colore=verde

https: //example.com/shopindex.php product_id = 32 u0026 highlight = dress + verde u0026 cat_id=1 u0026 sessionid=123 $affid=43 

Come fa Google a sapere quale versione dell’URL offrire agli utenti?

Google fa un ottimo lavoro nel capire da solo l’URL rappresentativo, ma puoi utilizzare la funzione Parametri URL in Google Search Console per dire a Google esattamente come vuoi che trattino le tue pagine.

Se utilizzi questa funzione per dire a Googlebot di “eseguire la scansione di nessun URL con il parametro ____”, stai essenzialmente chiedendo di nascondere questo contenuto a Googlebot, il che potrebbe comportare la rimozione di tali pagine dai risultati di ricerca.

Questo è quello che vuoi se quei parametri creano pagine duplicate, ma non è l’ideale se vuoi che queste pagine vengano indicizzate.

I crawler possono trovare tutti i tuoi contenuti importanti?

Ora che conosci alcune tattiche per garantire che i crawler dei motori di ricerca stiano lontani dai tuoi contenuti non importanti, scopriamo le ottimizzazioni che possono aiutare Googlebot a trovare le tue pagine importanti.

A volte un motore di ricerca sarà in grado per trovare parti del tuo sito eseguendo la scansione, ma altre pagine o sezioni potrebbero essere oscurate per un motivo o per l’altro.

È importante assicurarsi che i motori di ricerca siano in grado di scoprire tutto il contenuto che si desidera indicizzare e non solo la tua home page.

Chiediti questo: il bot può eseguire la scansione del tuo sito Web?

non indicizzare

Il contenuto è nascosto dietro i moduli di accesso?

Se si richiede agli utenti di accedere, compilare moduli o rispondere a sondaggi prima di accedere a determinati contenuti, i motori di ricerca non vedranno quelle pagine protette. Un crawler sicuramente non vi accederà.

Ti affidi ai moduli di ricerca?

I robot non possono utilizzare i moduli di ricerca. Alcune persone credono che se posizionano una casella di ricerca sul loro sito, i motori di ricerca saranno in grado di trovare tutto ciò che i loro visitatori cercano.

Il testo è nascosto all’interno di contenuti non testuali?

Moduli multimediali non testuali (immagini, video, GIF, ecc.) Non devono essere utilizzati per visualizzare il testo che si desidera indicizzare.

Mentre i motori di ricerca stanno migliorando nel riconoscere le immagini, non vi è ancora alcuna garanzia che saranno in grado di leggerle e comprenderle.

È sempre meglio aggiungere testo all’interno del markup della tua pagina web.

I motori di ricerca possono seguire la navigazione del tuo sito?

Siccome un crawler deve scoprire il tuo sito tramite link di altri siti, ha anche bisogno di un percorso di link sul tuo sito per guidarlo da una pagina all’altra.

Se hai una pagina che desideri venga trovata dai motori di ricerca ma non è collegata a nessuna altra pagina, questa sarà invisibile.

Molti siti commettono l’errore critico di strutturare la loro navigazione in modi inaccessibili ai motori di ricerca, ostacolando la loro capacità di essere elencati nei risultati di ricerca.

navigazione sito

Errori di navigazione comuni che possono impedire ai crawler di vedere tutto il tuo sito:

  • Navigazione mobile che mostra risultati diversi rispetto alla navigazione del desktop
  • Qualsiasi tipo di navigazione in cui le voci di menu non si trovano nell’HTML, come le navigazioni abilitate per JavaScript. Google è molto migliorato nella scansione e nella comprensione di Javascript, ma non è ancora un processo perfetto. Il modo più sicuro per garantire che qualcosa venga trovato, compreso e indicizzato da Google è inserendolo nell’HTML.
  • La personalizzazione, o mostrando una navigazione unica a un tipo specifico di visitatore rispetto ad altri, potrebbe sembrare mascheramento a un crawler del motore di ricerca
  • Dimenticando di collegarti a una pagina principale del tuo sito web attraverso la tua navigazione – ricorda, i collegamenti sono i percorsi che i crawler seguono verso nuove pagine!

Ecco perché è essenziale che il tuo sito web abbia una navigazione chiara e utili strutture di cartelle URL.

Hai un’architettura delle informazioni pulita?

L’architettura delle informazioni è la pratica di organizzare ed etichettare i contenuti su un sito Web per migliorarne l’efficienza e la reperibilità per gli utenti.

La migliore architettura dell’informazione è intuitiva, il che significa che gli utenti non dovrebbero pensare molto per fluire attraverso il tuo sito Web o per trovare qualcosa.

Stai utilizzando sitemap?

Una sitemap è proprio quello che sembra: un elenco di URL sul tuo sito che i crawler possono utilizzare per scoprire e indicizzare i tuoi contenuti.

Uno dei modi più semplici per assicurarsi che Google trovi le pagine con la massima priorità è quello di creare un file che soddisfi gli standard di Google e inviarlo tramite Google Search Console.

Sebbene l’invio di una Sitemap non sostituisca la necessità di una buona navigazione del sito, può sicuramente aiutare i crawler a seguire un percorso verso tutte le tue pagine importanti.

Assicurati di aver incluso solo gli URL che desideri vengano indicizzati dai motori di ricerca e di fornire indicazioni coerenti ai crawler. Ad esempio, non includere un URL nella tua Sitemap se hai bloccato quell’URL tramite robots.txt o includi nella tua Sitemap URL che sono duplicati anziché la versione canonica preferita (forniremo maggiori informazioni sulla canonicalizzazione nel Capitolo 5!).

Se il tuo sito non ha altri siti collegati ad esso, potresti comunque riuscire a indicizzarlo inviando la tua Sitemap XML in Google Search Console. Non c’è garanzia che includeranno un URL inviato nel loro indice, ma vale la pena provare!

errori-server

I crawler trovano errori quando provano ad accedere ai tuoi URL?

Durante la scansione degli URL sul tuo sito, un crawler potrebbe riscontrare errori.

Puoi andare al rapporto “Errori di scansione” di Google Search Console per rilevare gli URL su cui ciò potrebbe accadere: questo rapporto mostrerà gli errori del tuo server e quelli non trovati.

Anche i file di registro del server possono mostrartelo, oltre a un tesoro di altre informazioni come la frequenza di scansione, ma poiché l’accesso e l’analisi dei file di registro del server sono una tattica più avanzata, non ne discuteremo a lungo nella Guida per principianti.

Prima di poter fare qualcosa di significativo con il rapporto sugli errori di scansione, è importante comprendere gli errori del server e quelli “non trovati”.

Codici 4xx: quando i crawler dei motori di ricerca non possono accedere ai tuoi contenuti a causa di un errore del client

Gli errori 4xx sono errori del client, il che significa che l’URL richiesto contiene una sintassi errata o non può essere soddisfatto.

Uno degli errori 4xx più comuni è l’errore “404 – non trovato”. Questi potrebbero verificarsi a causa di un URL rifiutato, di una pagina eliminata o di un reindirizzamento interrotto, solo per citare alcuni esempi.

Quando i motori di ricerca raggiungono un 404, non possono accedere all’URL. Quando gli utenti colpiscono un 404, possono sentirsi frustrati e andarsene.

Codici 5xx: quando i crawler dei motori di ricerca non possono accedere ai tuoi contenuti a causa di un errore del server

Gli errori 5xx sono errori del server, il che significa che il server in cui si trova la pagina web non ha soddisfatto la richiesta del ricercatore o del motore di ricerca di accedere alla pagina.

Nel rapporto “Errore di scansione” di Google Search Console, è presente una scheda dedicata a questi errori. Questi in genere si verificano perché la richiesta per l’URL è scaduta, quindi Googlebot ha abbandonato la richiesta.

Consulta la documentazione di Google per ulteriori informazioni sulla risoluzione dei problemi di connettività del server.

Per fortuna, c’è un modo per dire sia ai ricercatori che ai motori di ricerca che la tua pagina è stata spostata: il reindirizzamento 301 (permanente).

reindirizzamento 301

Supponi di spostare una pagina da example.com/young-cani/ a example.com/cuccioli/. I motori di ricerca e gli utenti hanno bisogno di un ponte per passare dal vecchio URL al nuovo. Quel ponte è un reindirizzamento 301.

 Quando si implementa un 301:Quando non si implementa un 301:
Link EquityTrasferisce l’autorità del collegamento dalla vecchia posizione della pagina al nuovo URL.Senza un 301, l’autorità dall’URL precedente non viene trasferita alla nuova versione dell’URL.
IndicizzazioneAiuta Google a trovare e indicizzare la nuova versione della pagina.La sola presenza di errori 404  sul tuo sito non pregiudica le prestazioni di ricerca, ma lascia che le pagine 404 per il posizionamento / traffico escano dall’indice, con classifiche e traffico che le accompagnano.
L’esperienza utenteAssicura agli utenti di trovare la pagina che stanno cercando.Consentire ai tuoi visitatori di fare clic su link non funzionanti li porterà a pagine di errore anziché alla pagina prevista, il che può essere frustrante.

Lo stesso codice di stato 301 indica che la pagina è stata spostata in modo permanente in una nuova posizione, quindi evita di reindirizzare gli URL a pagine non pertinenti – URL in cui il contenuto del vecchio URL non è effettivamente presente.

Se una pagina è classificata per una query e la 301 viene inserita in un URL con contenuto diverso, potrebbe scendere in posizione di ranking poiché il contenuto che l’ha resa rilevante per quella particolare query non è più presente. I 301 sono potenti: sposta gli URL in modo responsabile!

Hai anche la possibilità di reindirizzare 302 una pagina, ma questo dovrebbe essere riservato per spostamenti temporanei e nei casi in cui il passaggio dell’equità del collegamento non è un grosso problema.

I 302 sono un po’ come una deviazione su strada. Stai temporaneamente assorbendo il traffico attraverso un determinato percorso, ma non sarà così per sempre.

Fai attenzione alle catene di reindirizzamento!

Può essere difficile per Googlebot raggiungere la tua pagina se deve passare attraverso più reindirizzamenti.

Google chiama queste “catene di reindirizzamento” e consigliano di limitarle il più possibile. Se reindirizzi esempio.com/1 su esempio.com/2, in seguito decidi di reindirizzarlo a esempio.com/3, è meglio eliminare l’intermediario e semplicemente reindirizzare esempio.com/1 su esempio.com/3. Ulteriori informazioni sulle catene di reindirizzamento.

Dopo esserti assicurato che il tuo sito sia ottimizzato per la crawlability, il prossimo ordine di attività è assicurarti che possa essere indicizzato.

Indicizzazione: in che modo i motori di ricerca

interpretano e memorizzano le tue pagine?

Dopo esserti assicurato che il tuo sito sia stato sottoposto a scansione, il prossimo passo è assicurarti che possa essere indicizzato.

Esatto, solo perché il tuo sito può essere scoperto e sottoposto a scansione da un motore di ricerca non significa necessariamente che verrà archiviato nel loro indice.

Nella sezione precedente sulla scansione, abbiamo discusso di come i motori di ricerca rilevano le tue pagine web.

L’indice è dove sono memorizzate le tue pagine trovate. Dopo che un crawler trova una pagina, il motore di ricerca la rende visibile al browser.

Nel fare ciò, il motore di ricerca analizza i contenuti di quella pagina. Tutte queste informazioni sono memorizzate nel suo indice.

google index

Continua a leggere per scoprire come funziona l’indicizzazione e come assicurarti che il tuo sito entri in questo importantissimo database.

Posso vedere come un crawler di Googlebot vede le mie pagine?

Sì, la versione cache della tua pagina rifletterà un’istantanea dell’ultima volta in cui Googlebot ha eseguito la scansione.

Google esegue la scansione e memorizza nella cache le pagine Web a frequenze diverse. I siti più affermati e noti che pubblicano frequentemente  verranno sottoposti a scansione più spesso rispetto al sito Web molto meno attivo in termini di pubblicazioni.

È possibile visualizzare l’aspetto della versione cache di una pagina facendo clic sulla freccia a discesa accanto all’URL nella SERP e cliccando su “Copia Cache”:

Puoi anche visualizzare la versione di solo testo del tuo sito per determinare se il tuo contenuto importante viene sottoposto a scansione e memorizzato nella cache in modo efficace.

Le pagine vengono mai rimosse dall’indice?

Sì, le pagine possono essere rimosse dall’indice! Alcuni dei motivi principali per cui un URL potrebbe essere rimosso includono:

  • L’URL sta restituendo un errore “non trovato” (4XX) o un errore del server (5XX) – Questo potrebbe essere accidentale (la pagina è stata spostata e un reindirizzamento 301 non era stato impostato) o intenzionale (la pagina è stata eliminata e 404 modificata per rimuoverla dall’indice)
  • All’URL è stato aggiunto un metatag noindex – Questo tag può essere aggiunto dai proprietari del sito per indicare al motore di ricerca di omettere la pagina dal suo indice.
  • L’URL è stato penalizzato manualmente per violazione delle Linee guida per i webmaster del motore di ricerca e, di conseguenza, è stato rimosso dall’indice.
  • L’URL è stato bloccato dalla scansione con l’aggiunta di una password richiesta prima che i visitatori possano accedere alla pagina .

Se ritieni che una pagina del tuo sito web precedentemente inclusa nell’indice di Google non venga più visualizzata, puoi utilizzare lo strumento Controllo URL per conoscere lo stato della pagina o utilizzare Visualizza come Google che ha una funzione “Richiedi indicizzazione” che invia singoli URL all’indice. (Bonus: lo strumento “fetch” di GSC ha anche un’opzione di “rendering” che ti consente di vedere se ci sono problemi con il modo in cui Google sta interpretando la tua pagina).

Dì ai motori di ricerca come indicizzare il tuo sito

Meta direttive dei robot

Le meta direttive (o “meta tag”) sono istruzioni che puoi dare ai motori di ricerca su come vuoi che la tua pagina web venga trattata.

Puoi dire ai crawler dei motori di ricerca cose come “non indicizzare questa pagina nella ricerca risultati “o non trasferire alcuna “autorità” a nessun collegamento su pagina “.

Queste istruzioni vengono eseguite tramite i meta tag robot nella “HEAD”  delle pagine HTML (più comunemente utilizzate) o tramite il tag X-robot nell’intestazione HTTP.

Le Robot Meta tag 

Il meta tag robot può essere utilizzato nella “HEAD” dell’HTML della tua pagina web. Può escludere tutti o motori di ricerca specifici.

Le seguenti sono le meta direttive più comuni, insieme alle situazioni in cui potresti applicarle:

  • index / noindex dice ai motori se la pagina deve essere sottoposta a scansione e conservata in un indice dei motori di ricerca per il recupero. Se scegli di utilizzare “noindex”, stai comunicando ai crawler che desideri che la pagina venga esclusa dai risultati di ricerca. Per impostazione predefinita, i motori di ricerca presumono di poter indicizzare tutte le pagine, quindi l’utilizzo del valore “indice” non è necessario.
  • Quando potresti usarlo: potresti scegliere di contrassegnare una pagina come “noindex” se stai cercando di tagliare le pagine istituzionali dall’ indice di Google del tuo sito (ad es. Pagine del profilo generate dall’utente) ma le vuoi comunque accessibili ai visitatori.
  • follow/nofollow indica ai motori di ricerca se i collegamenti sulla pagina devono essere seguiti o non seguiti. “Segui” si traduce in bot che seguono i collegamenti sulla tua pagina e passano l’equità dei collegamenti a tali URL. Oppure, se si sceglie di utilizzare “nofollow”, i motori di ricerca non seguiranno né trasferiranno alcun link equity ai link presenti nella pagina. Per impostazione predefinita, si presume che tutte le pagine abbiano l’attributo ‘follow’.
  • Quando è possibile utilizzarlo: nofollow viene spesso utilizzato insieme a noindex quando si tenta di impedire l’indicizzazione di una pagina e di impedire al crawler di seguire i collegamenti sulla pagina.

Ecco un esempio di noindex di un meta robot, tag nofollow:

...

Questo esempio esclude tutti i motori di ricerca dall’indicizzazione della pagina e dal seguire qualsiasi link su pagina. Se desideri escludere più crawler, come ad esempio googlebot e bing, puoi usare più tag di esclusione robot.

X-Robots-Tag

Il tag x-robots viene utilizzato nell’intestazione HTTP dell’URL, offrendo maggiore flessibilità e funzionalità rispetto ai meta tag se si desidera bloccare i motori di ricerca su larga scala perché è possibile utilizzare espressioni regolari, bloccare file non HTML e applica tag noindex a livello di sito.

Ad esempio, potresti facilmente escludere intere cartelle o tipi di file (come tuosito/no-bake/vecchie-ricette-to-noindex):

Ad esempio, potresti facilmente escludere intere cartelle o tipi di file

(come tuosito.com/no-bake/vecchie-ricette-to-noindex):

 Header set X-Robots-Tag “noindex, nofollow”

O tipi di file specifici (come i PDF):

 Header set X-Robots-Tag “noindex, nofollow”

Per ulteriori informazioni sui Meta Robot Tag, esplora le Specifiche dei meta tag dei robot di Google.

Suggerimento WordPress:

In Bacheca/Impostazioni/Lettura, assicurati che la casella “Visibilità dei motori di ricerca” non sia selezionata. Questo impedisce ai motori di ricerca di accedere al tuo sito tramite il tuo file robots.txt!

Comprendere i diversi modi in cui puoi influenzare la scansione e l’indicizzazione ti aiuterà a evitare le insidie comuni che possono impedire di trovare le tue pagine importanti.

RANKING: in che modo i motori di ricerca classificano gli URL?

In che modo i motori di ricerca assicurano che quando qualcuno digita una query nella barra di ricerca, ottengano in cambio risultati pertinenti? Tale processo è noto come classificazione o ordinamento dei risultati di ricerca in base dalla più pertinente alla meno rilevante per una determinata query.

classifica dei motori di ricerca

Per determinare la pertinenza, i motori di ricerca utilizzano algoritmi, un processo o una formula con cui le informazioni memorizzate vengono recuperate e ordinate in modo significativo.

Questi algoritmi hanno subito molti cambiamenti nel corso degli anni al fine di migliorare la qualità dei risultati di ricerca.

Google, ad esempio, apporta ogni giorno modifiche agli algoritmi: alcuni di questi aggiornamenti sono piccole modifiche di qualità, mentre altri sono aggiornamenti di algoritmi core/generici implementati per affrontare un problema specifico, come Penguin per affrontare lo spam dei link.

Perché l’algoritmo cambia così spesso? Google sta solo cercando di tenerci in guardia? Sebbene Google non sveli sempre i dettagli sul perché fanno ciò che fanno, sappiamo che l’obiettivo di Google quando si eseguono le regolazioni dell’algoritmo è migliorare la qualità generale della ricerca.

Ecco perché, in risposta alle domande sull’aggiornamento dell’algoritmo, Google risponderà con qualcosa del tipo: “Stiamo apportando aggiornamenti di qualità in ogni momento”.

Ciò indica che, se il tuo sito ha subito un aggiustamento dell’algoritmo, confrontalo con le Linee guida sulla qualità di Google o le Linee guida per la valutazione della qualità della ricerca, entrambi stanno dicendo molto in termini di ciò che i motori di ricerca vogliono.

Cosa vogliono i motori di ricerca?

I motori di ricerca hanno sempre desiderato la stessa cosa: fornire risposte utili alle domande dei ricercatori nei formati più utili.

Se questo è vero, allora perché sembra che il SEO sia diverso ora rispetto agli anni passati? Pensaci in termini di qualcuno che impara una nuova lingua.

All’inizio, la loro comprensione della lingua è molto rudimentale; nel corso del tempo, la loro comprensione inizia ad approfondirsi e imparano la semantica – il significato dietro il linguaggio e la relazione tra parole e frasi.

Alla fine, con abbastanza pratica, lo studente conosce abbastanza bene la lingua per comprenderne anche le sfumature ed è in grado di fornire risposte anche a domande vaghe o incomplete.

Quando i motori di ricerca stavano appena iniziando a imparare la nostra lingua, era molto più facile “ingannarli”usando trucchi e tattiche che andavano contro le linee guida relative alla qualità.

Prendi il riempimento di parole chiave, ad esempio. Se desideri classificare una determinata parola chiave come “battute divertenti”, potresti aggiungere le parole “battute divertenti” un sacco di volte sulla tua pagina e renderla parecchio azzardata, nella speranza di aumentare la tua classifica per quel termine:

Benvenuti in battute divertenti! Raccontiamo le battute più divertenti del mondo. Le battute divertenti sono divertenti e pazze. La tua battuta divertente ti aspetta. Siediti e leggi barzellette divertenti perché le barzellette divertenti possono renderti felice e più divertente. Alcune battute divertenti preferite.

Questa tattica creava terribili esperienze utente e invece di ridere di battute divertenti, le persone venivano bombardate da testi fastidiosi e difficili da leggere. Potrebbe aver funzionato in passato, ma non è mai stato quello che volevano i motori di ricerca.

Il ruolo dei collegamenti (LINKS) nel SEO

Quando parliamo di link, potremmo significare due cose. I backlink o “link in entrata” sono link da altri siti Web che puntano al tuo sito Web, mentre i link interni sono link sul tuo sito che puntano ad altre tue pagine (sullo stesso sito).

link interni ed esterni

I link hanno fin da sempre svolto un ruolo importante nel SEO.

Molto presto, i motori di ricerca avevano bisogno di aiuto per capire quali URL fossero più affidabili di altri per aiutarli a determinare come classificare i risultati di ricerca.

Il calcolo del numero di link che punta a un determinato sito li ha aiutati a farlo.

I backlink funzionano in modo molto simile ai riferimenti WoM (Word-of-Mouth o Passaparola) nella vita reale.

Prendiamo un ipotetico coffee shop, Il Caffè Di Paola, come esempio:

  • Rinvii da altri = buon segno di autorità Esempio: molte persone diverse ti hanno detto che il caffè di Paola è il migliore in città
  • Rinvii da te stesso = parziale, quindi non un buon segno di autorità Esempio: Paola afferma che il caffè di Paola è il meglio in città
  • Referenze da fonti irrilevanti o di bassa qualità = non un buon segno di autorità e potrebbero persino farti segnalare per lo spam Esempio: Paola ha pagato per fare in modo che le persone che non hanno mai visitato il suo bar dicessero agli altri quanto è bello.
  • Nessun riferimento = autorità poco chiara Esempio: Il caffè di Paola potrebbe essere buono, ma non sei stato in grado di trovare qualcuno che abbia un’opinione, quindi non puoi esserne sicuro.

Questo è il motivo per cui è stato creato il PageRank

Il PageRank (parte dell’algoritmo principale di Google) è un algoritmo di analisi dei collegamenti che prende il nome da uno dei fondatori di Google, Larry Page.

PageRank stima l’importanza di una pagina web misurando la qualità e la quantità di collegamenti che la puntano.

Il presupposto è che più una pagina Web è pertinente, importante e affidabile, più link avrà guadagnato.

Più backlinks naturali hai da siti Web di alta autorità (attendibili), migliore è la tua probabilità di classificarti più in alto nei risultati di ricerca.

Il ruolo dei contenuti nel SEO

Non ci sarebbe motivo di link se questi non indirizzassero gli utenti verso qualcosa. Quel qualcosa è il contenuto!

Il contenuto è più di semplici parole; è qualcosa che deve essere consumato dai ricercatori: ci sono contenuti video, contenuti di immagini e, naturalmente, testo.

Se i motori di ricerca sono macchine di risposta, il contenuto è il mezzo con cui i motori forniscono tali risposte.

Ogni volta che qualcuno esegue una ricerca, ci sono migliaia di risultati possibili, quindi come fanno i motori di ricerca a decidere quali pagine il ricercatore troverà preziose ?

Una parte importante nella determinazione del posizionamento della pagina per una determinata query è quanto il contenuto della tua pagina corrisponda alle intenzioni della query.

In altre parole, questa pagina corrisponde alle parole cercate e aiuta a implementare il compito che il ricercatore stava cercando di svolgere?

Non esistono parametri di riferimento rigorosi su quanto devono essere lunghi i tuoi contenuti, quante volte devono contenere una parola chiave o cosa inserisci nei tag di intestazione.

Tutti questi parametri possono giocare un ruolo nel modo in cui una pagina si comporta nella ricerca, ma l’attenzione dovrebbe essere rivolta agli utenti che leggeranno il contenuto.

Oggi, con centinaia o addirittura migliaia di segnali di classifica, i primi tre sono rimasti abbastanza coerenti :

  • collegamenti al tuo sito Web (che fungono da segnali di credibilità di terze parti),
  • contenuti in-page (contenuti di qualità che soddisfano l’intento di un ricercatore)
  • RankBrain.

Che cos’è RankBrain?

RankBrain è il componente di apprendimento automatico dell’algoritmo principale di Google.

L’apprendimento automatico è un programma per computer che continua a migliorare le sue previsioni nel tempo attraverso nuove osservazioni e dati di addestramento.

In altre parole, è sempre in fase di apprendimento e, poiché è sempre in fase di apprendimento, i risultati della ricerca dovrebbero migliorare costantemente.

Ad esempio, se RankBrain nota un URL di classificazione inferiore che fornisce un risultato migliore agli utenti rispetto agli URL di classificazione superiore, puoi scommettere che RankBrain regolerà tali risultati, spostando in alto il risultato più pertinente e degradando le pagine meno rilevanti come sottoprodotto.

google rankbrain

Come la maggior parte delle cose con il motore di ricerca, non sappiamo esattamente cosa comprende RankBrain.

Che cosa significa questo per il SEO?

Poiché Google continuerà a sfruttare RankBrain per promuovere i contenuti più pertinenti e utili, dobbiamo concentrarci sul soddisfacimento delle intenzioni dei ricercatori più che mai.

Fornisci le migliori informazioni ed esperienze possibili agli utenti che potrebbero arrivare sulla tua pagina, e avrai fatto un grande primo passo per ottenere buoni risultati nel mondo RankBrain.

Metriche di coinvolgimento: correlazione, causalità o entrambi?

Con le classifiche di Google, le metriche di coinvolgimento sono molto probabilmente correlazione e causalità di parte.

Quando diciamo metriche di coinvolgimento, intendiamo i dati che rappresentano il modo in cui i ricercatori interagiscono con il tuo sito dai risultati di ricerca.

Ciò include parametri come:

  • Clic (visite dalla ricerca)
  • Tempo sulla pagina (quantità di tempo che il visitatore ha trascorso su una pagina prima di lasciarla)
  • Frequenza di rimbalzo (la percentuale di tutte le sessioni del sito Web in cui gli utenti hanno visualizzato solo una pagina)
  • Pogo – sticking (facendo clic su un risultato organico e quindi tornando rapidamente alla SERP per scegliere un altro risultato)

Molti test hanno indicato che le metriche di coinvolgimento sono correlate a una classificazione più elevata, ma la causalità è stata oggetto di accesi dibattiti.

Le buone metriche di coinvolgimento sono solo indicative di siti altamente classificati? Oppure i siti sono classificati in alto perché possiedono buone metriche di coinvolgimento?

L’evoluzione dei risultati di ricerca

Quando ai motori di ricerca mancava molta della raffinatezza che hanno oggi, il termine “10 collegamenti blu” è stato coniato per descrivere la struttura piatta della SERP.

Ogni volta che veniva eseguita una ricerca, Google restituiva una pagina con 10 risultati organici, ciascuno nello stesso formato.

risultati organici
Risultati Organici

In questo panorama di ricerca, tenere il primo posto era il santo graal del SEO. Ma poi è successo qualcosa. Google ha iniziato ad aggiungere risultati in nuovi formati nelle pagine dei risultati di ricerca, chiamate funzionalità SERP. Alcune di queste funzionalità SERP includono:

  • Pubblicità a pagamento
  • Snippet in primo piano
  • Caselle “Le persone chiedono anche” 
  • Pacchetto locale (mappa)
  • Pannello delle conoscenze
  • Sitelink

E Google ne aggiunge sempre di nuovi.

Hanno anche sperimentato “SERP a zero risultati”, un fenomeno in cui un solo risultato del Knowledge Graph è stato visualizzato sulla SERP senza risultati al di sotto di esso tranne un’opzione per “visualizzare più risultati”.

L’aggiunta di queste funzionalità ha causato un po ‘di panico iniziale per due motivi principali.

Primo, molte di queste caratteristiche hanno portato a risultati più spinti verso il basso sulla SERP. Un altro sottoprodotto è che un minor numero di utenti fa clic sui risultati organici poiché più risposte alla SERP sono già presenti sulla SERP stessa.

Allora perché Google dovrebbe fare questo? Tutto risale all’esperienza di ricerca. Il comportamento dell’utente indica che alcune query sono soddisfatte meglio da diversi formati di contenuto. Notare come i diversi tipi di funzionalità SERP corrispondono ai diversi tipi di intenti di query.

Intento della queryPossibile funzione SERP attivata
InformativoSnippet in primo piano
Informativo con una rispostaKnowledge Graph / risposta istantanea
LocalePacchetto mappe
TransazionaleShopping

Parleremo di più delle intenzioni nel Capitolo 3, ma per ora, è importante sapere che le risposte possono essere fornite agli utenti in una vasta gamma di formati e in che modo la struttura dei tuoi contenuti può influire sul formato in cui vengono visualizzati nella ricerca.

Ricerca localizzata

Un motore di ricerca come Google ha un proprio indice proprietario delle schede di attività commerciali locali, da cui crea risultati di ricerca locali.

Se stai eseguendo un lavoro SEO locale per un’azienda che ha una posizione fisica, i clienti possono visitarla (es: dentista ) o per un’azienda che fornisce visite a domicilio ai propri clienti (es: idraulico), assicurati di richiedere, verificare e ottimizzare un elenco gratuito di Google My Business.

Quando si tratta di risultati di ricerca localizzati, Google utilizza due fattori principali per determinare la classifica:

  1. Rilevanza
  2. Distanza
  3. Autorevolezza

Rilevanza

Rilevanza è quanto un’azienda locale corrisponde a ciò che il ricercatore sta cercando.

Per assicurarti che l’azienda stia facendo tutto il possibile per essere pertinente per gli utenti, assicurati che le informazioni sull’attività siano compilate in modo accurato e accurato.

Distanza

Google utilizza la tua posizione geografica per offrirti un servizio migliore sui risultati locali.

I risultati della ricerca locale sono estremamente sensibili alla prossimità, che si riferisce alla posizione del ricercatore e / o alla posizione specificata nella query (se il ricercatore ne ha incluso uno).

I risultati della ricerca organica sono sensibili alla posizione di un ricercatore, anche se raramente come pronunciati come nei risultati del pacchetto locale.

Autorevolezza

Con autorevolezza, Google sta cercando di premiare le aziende famose nel mondo reale. Oltre alla rilevanza offline di un’azienda, Google cerca anche alcuni fattori online per determinare il posizionamento locale, come:

Recensioni

Il numero di recensioni di Google ricevute da un’azienda locale e il sentimento di tali recensioni hanno un notevole impatto sulla loro capacità di classificarsi nei risultati locali.

Citazioni

Una “citazione commerciale” o una “scheda di attività commerciale” è un riferimento-web basato su un’attività commerciale locale “NAP” (nome, indirizzo, numero di telefono) su una piattaforma localizzata (Yelp, Acxiom, YP, Infogroup, Localeze, ecc.)

Le classifiche locali sono influenzate dal numero e dalla coerenza delle citazioni commerciali locali.

Google estrae i dati da un’ampia varietà di fonti nel creare continuamente il proprio indice di attività locale.

Quando Google trova più riferimenti coerenti al nome, alla posizione e al numero di telefono di un’azienda, rafforza la “fiducia” di Google nella validità di tali dati.

Ciò porta quindi a Google essere in grado di mostrare l’attività con un livello di sicurezza più elevato.

Google utilizza anche informazioni provenienti da altre fonti sul Web, come collegamenti e articoli.

Classifica organica

Le migliori pratiche SEO si applicano anche alla SEO locale, dal momento che Google considera anche la posizione di un sito Web nei risultati di ricerca organici nel determinare la classifica locale.

Nel prossimo capitolo, imparerai le migliori pratiche su pagina che aiuteranno Google e gli utenti capire meglio i tuoi contenuti.

Indubbiamente ora più che mai, i risultati locali sono influenzati dai dati del mondo reale.

Questa interattività è il modo in cui i ricercatori interagiscono e rispondono alle attività commerciali locali, piuttosto che a informazioni puramente statiche  come link e citazioni.

Poiché Google vuole fornire agli utenti le attività locali migliori e più pertinenti, ha perfettamente senso per loro di utilizzare le metriche di coinvolgimento in tempo reale per determinare la qualità e la pertinenza.


Non devi conoscere i dettagli dell’algoritmo di Google (che rimane un mistero!), Ma ormai dovresti avere un’ottima conoscenza di base di come il motore di ricerca trova, interpreta, archivia e classifica i contenuti.

Grazie a questa conoscenza, impariamo a scegliere le parole chiave che i tuoi contenuti saranno indirizzate nel Capitolo 3 (Ricerca di parole chiave)!

Torna su