Statistiche di utilizzo dei motori di ricerca nel mondo

Quali sono i motori di ricerca più utilizzati al mondo?

I dati e le statistiche riportati in questo articolo si riferiscono al periodo 2013/2014. Per alcuni paesi ho scelto di riportare i dati provenienti da più fonti, quando disponibili o nel caso di discordanze.

Panoramica generale

Attualmente Google è il principale motore di ricerca, in particolare in Occidente.

Negli Stati Uniti detiene il 67% del mercato, mentre nella maggior parte dei Paese Europei e Sudamericani le quote di mercato sono prossime o superiori al 90%.

A livello mondiale la situazione non è uniforme: in grandi paesi euroasiatici quali Cina, Russia, Giappone, Corea del Sud il mercato è dominato da importanti realtà locali.

Cina

In Cina il primo motore è Baidu con oltre il 60% del mercato, seguito da Qihoo 360 che è cresciuto rapidamente fino la quota attuale del 25%.

Baidu Screenshot

Russia

In Russia il primo motore è Yandex con quote di mercato attorno al 55/60%.
Google è il secondo player con circa il 30/35% del mercato ed un’utenza mediamente più giovane (probabilmente attirata da Android, Youtube e numerosi servizi di Google).

Yandex screenshot

Giappone

In Giappone il primo motore di ricerca è Yahoo! Japan con circa la metà del mercato. A seconda delle fonte, detiene tra il 45% ed 55% del mercato, mentre  Google circa un terzo (35%). E’ importante però specificare che Google fornisce i risultati di ricerca a Yahoo!, per cui le serp dei due motori sono in realtà molto simili. In altri paesi del mondo invece a fornire i dati a Yahoo! è Microsoft grazie ad un accordo decennale (Italia, USA, UK, etc).

Yahoo! Japan Screenshot

Corea

Patria di grandi multinazionali (Samsung, LG, Yundai/Kia, SK), la Corea tra i paesi più popolosi è quello con la maggiore penetrazione Internet e Mobile al mondo, seguita dal Giappone.
In Corea del Sud a dominare sono player locali:

  • Naver con oltre il 70%
  • Daum con il 15%.

Le logiche di questi motori di ricerca da molti punti di vista sono abbastanza differenti da quelle di Google, che in Corea detiene solo il 3,5% del mercato.  A differenza della scarna e leggera interfaccia di Google, i motori coreani presentano una struttura a portale con serp che includono dati provenienti da diverse fonti. Non solo risultati organici e a pagamento, ma anche da social network e user generated content (Naver Cafè, etc).

Screenshot Naver
In Corea Google, sebbene parta da una situazione assolutamente minoritaria, è in crescita grazie ad Android ed agli altri servizi in grado di attirare un pubblico giovane.

Motori di ricerca e % per paese ordinati per PIL

Stati Uniti

MdR USA  Dati Maggio 2014 (fonte: comscore.com)
Google 67,6%
Bing 18,7%
Yahoo! 10,0%
Ask Network 2,4%
AOL, Inc 1,3

Cina

MdR Cina Dati Maggio 2014 (fonte cnzz.com)
Baidu 60,5
Qihoo 360 25,2%
New Sogou 12,4%
Google 1%
Bing 1%
Altri

Giappone

MdR Giappone Dati 2014
Yahoo! Japan 55%
Google 35%
Altri 11%

Germania

MdR Germania Dati Febbraio 2014 (de.statista.com) Dati Marzo 2014 (fonte: AT Internet)
Google e relative proprietà 91,2% 93,7%
Bing e proprietà Microsoft 3,5% 2,1%
Yahoo! e relative proprietà 1,4% 0,9%
T-Online 1% 1,2%
Ask.com 0,7%
Web.de 0,6%
AOL Suche 0,5%
gmx.net 0,5%

 

Francia

MdR Francia Dati Marzo 2014 (AT Internet)
Google e relative proprietà 92%
Bing e proprietà Microsoft 2,9%
Yahoo! e relative proprietà 2,0%
Mysearchdial 0,6%
Orange 0,4%
Altri 2,1

Regno Unito

MdR Regno Unito UK Dati Maggio 2014 (theeword.co.uk) Dati Marzo 2014 (AT Internet)
Google e proprietà 89,12% 93,3%
Bing 5,84% 3,6%
Yahoo! 3,51% 2,0%
Others 1,53%


Brasile

MdR Brasile
Dati Marzo 2014
Google Brasile + Google.com 93,95%
Bing 1,52%
Ask 1,36%
Yahoo! Brasil 0,51%

Russia

MdR Russia Dati Maggio 2014 (liveinternet.ru)
Yandex 54%
Google 34,8%
Search.mail.ru 7,9%
Rambler 0,8%

Italia

MdR Italia Dati 2014 (fonte: gs.statcounter.com)
Google 94%
Bing 2,3%
Yahoo! 1,5%
Arianna 0,4%
Ask 0,3

India

MdR India Dati 2014 (fonte: gs.statcounter.com)
Google 95%
Yahoo! 2%
Bing 1,3%
Ask 0,4%

Canada

MdR Canada Dati 2014 (fonte: Hitwise)
Google.ca + Google.com 76,15%
Bing 12,36%
Ask 3,62%
Yahoo! Canada Search 2,33%

Australia

MdR Australia Dati 2014
Google 93,42%
Altri 6,58%

Spagna

MdR Spagna Dati Febbraio 2014
Google e relative proprietà 96,1%
Bing 1,4%
Yahoo! 1,2%
Ask 0,3%
Orange 0,4%
Altri 2,1

Messico

MdR Messico Dati 2014
Google 90,5%
MercadoLibre: 2,1%
Bing/Microsoft 1,8%
Yahoo! 1,7%
Altri 3,9%

Corea del Sud

MdR Corea del Sud Dati 2014 (fonte: Econsultancy.com)
Naver 80%
Daum 15%
Google 3,5%
Nate 1,1%

Indonesia

MdR Indonesia Dati 2014 (fonte: fonte: statcounter.com)
Google 94%
Yahoo! 2,5/3%
Bing 1%
Ask 1%

Turchia

MdR Turchia Dati 2014 (fonte: Rankingtr.com)
Google 92,12%
Yandex 5,13%
msn 1,97%
Ask 1,97%
Yahoo! 0,51%

Paesi Bassi

MdR Paesi Bassi/Olanda Dati 2014 (fonte: Nownederland)
Google 94%
Yahoo! 3%
Vinden.nlmsn 3%
Bing 1%

Arabia Saudita

MdR Arabia Saudita Dati 2013
Google 95%
Yahoo! 2,6%
Bing 1,9%

Polonia

MdR Polonia Dati 2013 (fonte: Gemius)
Google 93%
Bing 2,2%
Yahoo! 1,7%
onet.pl 0,9%
Altri 2,2%

Singapore

MdR Singapore Dati 2014 (fonte: Hitwise)
Google.com.sg + Google.com 87,2%
Yahoo! 8,98%
Bing/Microsoft 1,57%

Link innaturali e penalizzazioni

I backlink sono ancora molto importanti ai fini del posizionamento organico e probabilmente conteranno molto ancora per diversi anni.

Cosa è cambiato allora ?

Dall’avvento di Google Penguin nell’aprile del 2012 è diventato ancora più importante capire la differenza tra link naturali ed innaturali dal punto di vista di Google.
Un sito web il cui profilo presenta molti link innaturali può essere penalizzato da Google con tutto ciò che ne consegue: aspettare mesi per sperare di riprendersi. Inoltre uscire da una penalizzazione, non significa recuperare le posizioni perse, ma semplicemente ritornare in una situazione da cui è possibile ripartire utilizzando strategie diverse. Essere colpiti da Penguin, penalizzazione algoritmica che attualmente viene aggiornata ogni 6/7 mesi, può quindi richiedere di aspettare questo periodo di tempo per poter ripartire. Ovviamente è un duro colpo per il portafoglio se pensiamo per esempio ad un e-commerce.

Ma quali sono le caratteristiche e le tipologie di link innaturali ?

Da tenere a mente la filosofia di Google secondo cui un link per essere naturale deve essere messo spontaneamente o diversamente deve avere l’attributo nofollow. Ogni altro link messo con intento manipolatorio nei confronti dell’algoritmo di Google è potenzialmente problematico. Nelle linee guida per i webmaster leggiamo esplicitamente: “Qualsiasi link mirato a manipolare il PageRank o il posizionamento di un sito nei risultati di ricerca di Google può essere considerato parte di uno schema di link e costituisce una violazione delle Istruzioni per i webmaster di Google”

Di seguito ho cercato di riepilogare tutte le principali situazioni di link innaturali

1) Anchor text sovraottimizzati. Un profilo che conta molti link con anchor commerciali per le keyword di maggiore pregio dall’uscita di Penguin rischia molto (anche prima esistevano penalizzazioni per queste situazioni, ma con Penguin c’è stato il salto di qualità).

2) Scambio link:   A linka B  e B linka A. Google è in grado di individuare questi link molto facilmente, dopotutto per il più celebre tra i motori il web non è altro che un gigantesco grafo da visitare. Chi non ha mai visto footer di B&B o di alberghi pieni di banner e link a portali turistici che effettuano l’inserimento della struttura previo scambio?
Nella migliore delle ipotesi quei link non valgono più nulla, nella peggiore sono già un problema e quindi da ripulire. Dipende anche dalla percentuale rispetto al totale, poichè Google stesso nelle linee guida  specifica l’aggettivo  “eccessivo“:
Scambio eccessivo di link (“Collegati a me e io mi collego a te”) o creazione di pagine partner esclusivamente per lo scambio di link.

Si perchè avere in un profilo una piccola percentuale di link frutto di scambio è talvolta fisiologico.

Come si vede Google specifica che può essere problematico ricevere link da pagine contenenti nel nome, title della pagina o headline le keyword:  “partners“, “links“, “scambio link“, “link amici“, “siti amici“. Queste keyword sono chiaro indice di una situazione di “scambio” e quindi di link non spontanei.

Google è ovviamente  in grado di individuare situazioni di scambio indirette più elaborate tipo: A linka B – B Linka C – C  linka A e simili.

3) Link acquistati: non solo con denaro, ma anche con scambio prodotti e servizi (come specificato anche in questo caso nelle linee guida).  E’ inevitabile pensare ai prodotti spediti ai blogger in cambio di recensioni con link (anche questa è una forma di pagamento per Google). In alcuni settori questa prassi è diffusissima (pensiamo al settore dei food blogger).

Come fa google a capire quando un link è stato comprato o è frutto di uno scambio ? Probabilmente non sempre può riuscirci, ma sta diventando sempre più bravo a farlo. Alcune indizi possono portare ad individuare siti che vendono link in maniera sistematica: anchor text addomesticati,  la scomparsa di link dopo un certo periodo di tempo, la posizione dei link, etc.

4) Guest posting: questa strategia è recentemente finita sotto la lente di ingrandimento di Google. Matt Cutts, l’ingegnere responsabile del team antispam, ha dichiarato che se usata in maniera sistematica come strategia di link building è certamente problematica. Si ne è abusato molto, con siti che hanno elevate percentuali di backlink di questo tipo.

5) Link generati automaticamente: per esempio da profili e commenti in forum e blog. Da anni esistono software che in automatico tentano di aggiungere commenti su blog e forum o creano finti profili utente con il solo scopo di inserire link. Questo prassi è da anni considerata spammosa e lo stesso attributo nofollow è nato da un accordo dei big della search (Google, Yahoo! e Microsoft)  per gestire queste situazioni.

6) Widget link: sono quelle strategie per le quali un sito distribuisce un pezzo di codice (widget) da mettere su altri siti. Solitamente nel pezzo di codice è inserito un backlink al sito di origine, magari con anchor text ottimizzato. Google cita esplicitamente questa tecnica nelle norme di qualità segnalandola come violazione delle linee guida. Questa tecnica andava di moda alcuni anni fa, anche se ho recentemente incontrato un sito che ne faceva largo uso: dopo una iniziale miglioramento del ranking è stato inesorabilmente penalizzato.

7) Advertorials: stiamo parlando sostanzialmente di pubbliredazionali/articoli pubblicitari a pagamento con link. Anche in questo caso Google sta diventando sempre più bravo ad individuarli. E’ salito agli onori della cronaca di settore un caso di penalizzazione che ha coinvolto il sito inglese del colosso della consegna dei fiori a domicilio interflora.co.uk.

8) Footer link: sono i link posti nei piè di pagina dei siti web. Un link naturale è posto nel contesto giusto, tipicamente in un testo/articolo con del testo intorno.Ci sono ovviamente eccezioni. Un’azienda potrà sicuramente linkare nel footer i siti dei brand che le appartengono o di aziende sussidiare, senza per questo avere problemi. In altri casi, se non c’è un valido motivo, questi link sono da rimuovere perchè molto sospetti.

9) Sitewide link: sono i link che vengono messi in punti per cui il link viene replicato in molte o tutte le pagine del sito (esempio header, sidebar, footer).  Si vengono a creare veri e propri sciami di link, per cui un sito riceve link da migliaia di pagine di un altro. Un classico esempio sono i link nei blogroll dei blog. Non tutti i link di questo tipo sono necessariamente un problema, ma in caso di penalizzazione sono da valutare attentamente in particolare se gli anchor text sono commerciali e non brand. Sono in generale ritenuti artificiosi, in caso di dubbio è meglio rimuoverli.

10)  Percentuale link dofollow/nofollow:  qualche considerazione da un punto di vista statistico va effettuata. Avere il 100% di link dofollow è anomalo, fisiologicamente difficile specialmente per un sito che è online da diversi anni e riceve molti link. Un profilo di link naturale riceverà link di vario tipo: follow, nofollow, con redirezioni etc.

11) Rilevanza Geografica:  un’altra anomalia è rappresentata dal ricevere link da zone geograficamente non rilevanti per la nostra attività. Un’attività che si rivolge solo all’Italia, con sito in lingua italiana, non sarà naturale che riceva la maggior parte dei link da siti di altri paesi (in altri lingue). Ho visto problemi di questo tipo in lavori effettuati da parte di seo agency, che effettuavano attività di link building per siti in sola lingua italiana mettendo link da siti di article marketing unicamente in inglese.

12) Contestualità: Google cataloga da anni i siti web. Sa di quale argomento tratta un sito. Per cui è in grado di valutare la contestualità di un link: è normale che un sito di un’agenzia immobiliare riceva un link da un sito che parla di scarpe? Probabilmente no.

13) Velocità di acquisizione: sempre dal punto di vista statistico è importante capire la velocità di acquisizione dei link. Avere un profilo in cui i link sono acquisiti in maniera cronologicamente anomala (tutti in un breve lasso di tempo e poi più nulla) è probabilmente indice di una attività di acquisizione artificiale. Alcuni tool quali Majestic Seo consentono di verificare lo storico di acquisizione link di un determinato sito.

14) Link network: alcuni soggetti hanno creato nel tempo vere e proprie reti di siti e blog con lo scopo è di linkare e “spingere” siti propri e dei clienti. Solitamente parliamo di network curati con attenzione: dati di registrazione del dominio diversi o anonimi, codici di tracking diversi (analytics, adsense, tag manager), con attenzione ai link in ingresso ed uscita. Queste situazioni se scoperte possono causare problemi.

15) Article directory:  sono siti web dove gli utenti possono pubblicare, in distribuzione libera, articoli originali, suddivisi in categorie o sottocategorie tematiche.

16) Comunicati stampa ed Article Marketing: analoghi ai precedenti, questi tipi di link non hanno i connotati di link naturali. In molti casi sono poi stati reinterpretati all’italiana: molti articoli sono strutturati in maniera prevedibile con lunghezza più o meno standard e due link. Uno con anchor text mirato e l’altro link con al dominio a fine articolo. E’ chiaro che una situazione di questo tipo è un “pattern” facilmente riconoscibile da Google.

17) Siti Bookmark: nati per consentire di salvare online i siti di interesse catalogandoli con tag, sono stati spesso oggetto di abuso da parte dei seo.

18) Link da affiliazione: gli esperti di Google hanno dichiarato di essere piuttosto bravi nel riconoscere i link di affiliazione e a non tenerne conto ai fini del ranking. Questo vale sicuramente per i link che appartengono a circuiti di affiliazione noti o quando nelle url degli affiliati sono presenti parametri parlanti con un’indicazione dell’affiliato  (Es: url?pn=726). Nel caso di sistemi di affiliazione “home made” senza parametri nell’url, ma tracciati tramite la provenienza (referral) come può Google capire se si tratta di un link naturale o di un link di affiliazione (e quindi “commerciale”) ?

19) Web directory: sono uno dei primi servizi del web (basta pensare a come nacque Yahoo!). Google nel 2012 ha iniziato a prendere  provvedimenti contro alcune delle directory internazionali contenenti maggiore quantità di spam. Queste directory in una certa percentuale sono state deindicizzate (e quindi azzerato il valore dei link in uscita).Altre dichiarazioni indicavano il problema nel “tiny content” (poco contenuto e spesso duplicato che accompagna le segnalazioni). Nella realtà quotidiana queste directory, almeno quelle migliori, sono ancora utilizzate ed in settori poco competitivi sembrano ancora “spingere” un po’. Molte però mostrano già segni di sofferenza con PR azzerato o a N/A. Quello che resta da capire è come si comporterà Google in futuro? Si tratta palesemente di link non naturali e per alcuni siti rappresentano anche il 40/50% dei link in ingresso. Il valore di queste link verrà annullato o finiranno per avere un impatto negativo?  La maggior parte dei tool di link risk management segnala già questi link come innaturali e quindi da rimuovere.

20) qualsiasi link non contemplato nei precedenti e creato appositamente con l’intenzione di manipolare l’algoritmo di Google.

Screaming Frog, lo spider seo per l’analisi dei siti web

googlebot-250Gli Spider Seo sono software che effettuano la scansione di un sito web, in maniera analoga a quanto fanno Googlebot e i crawler dei motori di ricerca.  Questi software, link dopo link, scaricano un intero sito e creano un grafo che mappa tutte le risorse e le informazioni collegate (tipo di documento, dimensioni, http status code etc).

Sono strumenti preziosissimi che consentono di scoprire problemi relativi all’architettura di un sito web. Problemi che, se non gestiti, possono portare a penalizzazioni del sito, cattiva esperienza degli utenti e performance scadenti.

Dopo averne provati diversi,  gratuiti e a pagamento, sono giunto alla conclusione che Screaming Frog (SF) è attualmente nel complesso il migliore prodotto sul mercato.

Screaming Frog in Azione - individuazione 404

Multipiattaforma (gira su Windows, Mac, Linux), è molto veloce ed ha un’interfaccia più intuitiva rispetto alla maggior parte dei concorrenti. Basta infatti inserire l’url e il software inizia la scansione del sito andando a popolare di informazioni le varie schede (tab). Si possono verificare rallentamenti quando si ha a che fare con siti di grandi dimensioni (tipicamente con più di 60.000/70.000 url). In tal caso di possono modificare le impostazioni nel file di configurazione allocando più memoria. In alternativa si può effettuare la scansione del sito frazionandola in diverse parti.

Il tool è a pagamento con licenza annuale da rinnovare al costo di 99£.  Se non attivato, funziona in versione demo e consente la scansione fino ad un massimo di 500 url, con altre limitazioni che lo rendono utile solo per l’analisi di piccoli siti.

Può  effettuare il crawling di:

  • un intero sito
  • una singola pagina (utile se volete vedere per esempio i link in uscita nel caso di pagine molto grandi)
  • una directory (per esempio la scansione del blog impostato come sottocartella del: sito.it/blog).

e può individuare diverse categorie di problemi:

  • status code 404 (risorsa non trovata)
  • status code 301/302 (redirezioni permanenti, temporanee etc)
  • status code 50x  (problemi al server)
  • no response (risorse esterne linkate che non rispondono)
  • tutti i link in uscita da un sito (quale risorse esterne linka il sito ?)
  • tutte le risorse interne al sito (pagine web, immagini, css, javascript esterni, SWF, pdf etc)
  • url che contengono caratteri non ascii, potenzialmente problematiche per  vecchi browser
  • url troppo lunghe, poco leggibili e quindi non “serps friendly”
  • url con parametri dinamici, riscrivibili e potenzialmente indicative di possibili pagine duplicate
  • pagine duplicate (identiche al byte)
  • pagine con title o description duplicate: ogni pagina dovrebbe avere title e description univoci che ne riflettano il contenuto
  • pagine con title e description troppo lunghi o sotto-ottimizzati
  • assenza di h1 ed h2
  • doppi title, description e h1  presenti nell’html della pagina (capita più spesso di quanto si pensi!)
  • immagini linkate dal sito e relativi problemi (immagini di dimensioni eccessive)
  • pagine del sito con direttive quali canonical, noindex, nofollow: sono direttive delicate che influenzano la distribuzione del valore dei link all’interno del sito e l’indicizzazione delle pagine
  • creazione della sitemap e verifica di una esistente
  • assenza di alt tag (o eccessiva lunghezza) nelle immagini
  • individuare situazioni di cloaking modificando lo user agent presentato al web server.
  • etc

SF consente di scegliere quali risorse includere o escludere nella fase crawling (directory, immagini, swf, javascript, css),  rispetto del robots.txt, profondità di ricerca, gestione dei cookie, crawling di pagine protette, rispetto delle direttive (canonical, follow, noindex). Oltre alla scansione di un singolo url alla volta, SF può elaborare un elenco di url con la modalità di lavoro “list“.

Si possono anche effettuare ricerche personalizzate  utilizzando gli appositi campi custom. Per esempio individuare  tutte le pagine che contengono una specifica stringa di testo come codici di tracking (script di Google Analytics per esempio), pulsanti social di condivisione, etc. I principali report sono esportabili in formato csv per l’analisi da foglio di calcolo.

Quindi lato seo può aiutarci a risolvere tanti problemi.

Trovo particolarmente utile poter individuare:

  • tutte le pagine all’interno del sito che linkano una certa pagina  (mi risulta sia l’unico software di questa categoria a farlo)
  • tutte le pagine duplicate

Su questo ultimo aspetto c’è però da dire che SF trova le pagine perfettamente identiche (utilizza un algoritmo di hash). In molte situazioni della vita reale però si trovano situazioni in cui le pagine duplicate differiscono di pochi byte. Agli occhi di Google, sono sempre “contenuto duplicato”, ma non vengono identificate come tali. Sarebbero necessari algoritmi più sofisticati che effettuino lo striping del codice html e confrontino la similarità

Possiamo individuare status code 404, 301 e poterli costi gestire (se l’utilizzo all’interno del sito non è giustificato)

screaming-frog-404-301-500

Da una rapida scanssione possiamo capire rapidamente problemi con il multilingua.  La web agency ha utilizzato le variabili di sessione per la selezione della lingua corrente, mantenendo lo stesso url e  lo spider di Google vede solo la lingua di default.

Screaming Frog è molto utile anche quando si lavora alla risoluzione di penalizzazioni.

Sappiamo che alcune penalizzazioni quali Panda sono riconducibili a problemi con i contenuti e l’architettura di un sito. Possiamo allora individuare pagine con poco contenuto (semplicemente effettuando la scansione ed ordinando per numero di caratteri/parole ) per poi arricchirle o gestirle.

Size e Word Count in Screaming Frog

Possiamo trovare tutti i link in uscita dal sito in analisi, opzione utile quando si ha a che fare con problemi dovuti a link (in ingresso o in uscita dal sito).

Quando si fa attività di link building possiamo effettuare la scansione di un sito a cui vogliamo chiedere un link, per capire se può essere una buona risorsa o meno. Potremmo per esempio scoprire molti link in uscita con anchor text commerciali e capire di avere a che fare con un sito che effettua sistematicamente la compravendita link, quindi potenzialmente pericoloso.

Risulta utile per l’analisi di siti che riteniamo possano essere stati compromessi con l’iniezione di codice malevolo e l’inserimento di link a siti pericolosi (PPC: porn, pills, casinò). Situazione che si verifica frequentemente con installazioni di WordPress non aggiornate e violate, o installando  temi di dubbia provenienza.

In questo caso possiamo cambiare lo user agent impostandolo come “googlebot” per bypassare tentativi di cloaking ed effettuare la scansione per verificare tutti i link in uscita trovati.

Mi è capitato di lavorare su un sito sicuramente penalizzato a causa di link accidentali ricevuti da concorrenti e rivenditori. In questo caso i tool di ricerca backlink quali Majestic Seo e Ahrefs, pur individuando i siti, non riuscivano a trovare tutte le pagine che ospitavano i link accidentali. SF si è allora rivelato un alleato utilissimo per scansionare in maniera massiva tali siti e trovare tutti i link in uscita dannosi diretti al sito in analisi.

Una scansione veloce può far emergere problemi con il file robots.txt.Per quanto possa sembrare strano queste situazioni sono abbastanza frequenti: impostazioni di WordPress con impostazioni di  blocco per i motori di ricerca o web agency che pubblicano un nuovo sito tralasciando di sistemare il file robots.txt impostato a “Disallow /”.

Per concludere Screaming Frog è un po’ il coltellino svizzero della seo, almeno di quella più tecnica. E’ utilissimo per trovare e pulire tutto ciò che non funziona su un sito web.