Statistiche di utilizzo dei motori di ricerca nel mondo

Quali sono i motori di ricerca più utilizzati al mondo?

I dati e le statistiche riportati in questo articolo si riferiscono al periodo 2013/2014. Per alcuni paesi ho scelto di riportare i dati provenienti da più fonti, quando disponibili o nel caso di discordanze.

Panoramica generale

Attualmente Google è il principale motore di ricerca, in particolare in Occidente.

Negli Stati Uniti detiene il 67% del mercato, mentre nella maggior parte dei Paese Europei e Sudamericani le quote di mercato sono prossime o superiori al 90%.

A livello mondiale la situazione non è uniforme: in grandi paesi euroasiatici quali Cina, Russia, Giappone, Corea del Sud il mercato è dominato da importanti realtà locali.

Cina

In Cina il primo motore è Baidu con oltre il 60% del mercato, seguito da Qihoo 360 che è cresciuto rapidamente fino la quota attuale del 25%.

Baidu Screenshot

Russia

In Russia il primo motore è Yandex con quote di mercato attorno al 55/60%.
Google è il secondo player con circa il 30/35% del mercato ed un’utenza mediamente più giovane (probabilmente attirata da Android, Youtube e numerosi servizi di Google).

Yandex screenshot

Giappone

In Giappone il primo motore di ricerca è Yahoo! Japan con circa la metà del mercato. A seconda delle fonte, detiene tra il 45% ed 55% del mercato, mentre  Google circa un terzo (35%). E’ importante però specificare che Google fornisce i risultati di ricerca a Yahoo!, per cui le serp dei due motori sono in realtà molto simili. In altri paesi del mondo invece a fornire i dati a Yahoo! è Microsoft grazie ad un accordo decennale (Italia, USA, UK, etc).

Yahoo! Japan Screenshot

Corea

Patria di grandi multinazionali (Samsung, LG, Yundai/Kia, SK), la Corea tra i paesi più popolosi è quello con la maggiore penetrazione Internet e Mobile al mondo, seguita dal Giappone.
In Corea del Sud a dominare sono player locali:

  • Naver con oltre il 70%
  • Daum con il 15%.

Le logiche di questi motori di ricerca da molti punti di vista sono abbastanza differenti da quelle di Google, che in Corea detiene solo il 3,5% del mercato.  A differenza della scarna e leggera interfaccia di Google, i motori coreani presentano una struttura a portale con serp che includono dati provenienti da diverse fonti. Non solo risultati organici e a pagamento, ma anche da social network e user generated content (Naver Cafè, etc).

Screenshot Naver
In Corea Google, sebbene parta da una situazione assolutamente minoritaria, è in crescita grazie ad Android ed agli altri servizi in grado di attirare un pubblico giovane.

Motori di ricerca e % per paese ordinati per PIL

Stati Uniti

MdR USA  Dati Maggio 2014 (fonte: comscore.com)
Google 67,6%
Bing 18,7%
Yahoo! 10,0%
Ask Network 2,4%
AOL, Inc 1,3

Cina

MdR Cina Dati Maggio 2014 (fonte cnzz.com)
Baidu 60,5
Qihoo 360 25,2%
New Sogou 12,4%
Google 1%
Bing 1%
Altri

Giappone

MdR Giappone Dati 2014
Yahoo! Japan 55%
Google 35%
Altri 11%

Germania

MdR Germania Dati Febbraio 2014 (de.statista.com) Dati Marzo 2014 (fonte: AT Internet)
Google e relative proprietà 91,2% 93,7%
Bing e proprietà Microsoft 3,5% 2,1%
Yahoo! e relative proprietà 1,4% 0,9%
T-Online 1% 1,2%
Ask.com 0,7%
Web.de 0,6%
AOL Suche 0,5%
gmx.net 0,5%

 

Francia

MdR Francia Dati Marzo 2014 (AT Internet)
Google e relative proprietà 92%
Bing e proprietà Microsoft 2,9%
Yahoo! e relative proprietà 2,0%
Mysearchdial 0,6%
Orange 0,4%
Altri 2,1

Regno Unito

MdR Regno Unito UK Dati Maggio 2014 (theeword.co.uk) Dati Marzo 2014 (AT Internet)
Google e proprietà 89,12% 93,3%
Bing 5,84% 3,6%
Yahoo! 3,51% 2,0%
Others 1,53%


Brasile

MdR Brasile
Dati Marzo 2014
Google Brasile + Google.com 93,95%
Bing 1,52%
Ask 1,36%
Yahoo! Brasil 0,51%

Russia

MdR Russia Dati Maggio 2014 (liveinternet.ru)
Yandex 54%
Google 34,8%
Search.mail.ru 7,9%
Rambler 0,8%

Italia

MdR Italia Dati 2014 (fonte: gs.statcounter.com)
Google 94%
Bing 2,3%
Yahoo! 1,5%
Arianna 0,4%
Ask 0,3

India

MdR India Dati 2014 (fonte: gs.statcounter.com)
Google 95%
Yahoo! 2%
Bing 1,3%
Ask 0,4%

Canada

MdR Canada Dati 2014 (fonte: Hitwise)
Google.ca + Google.com 76,15%
Bing 12,36%
Ask 3,62%
Yahoo! Canada Search 2,33%

Australia

MdR Australia Dati 2014
Google 93,42%
Altri 6,58%

Spagna

MdR Spagna Dati Febbraio 2014
Google e relative proprietà 96,1%
Bing 1,4%
Yahoo! 1,2%
Ask 0,3%
Orange 0,4%
Altri 2,1

Messico

MdR Messico Dati 2014
Google 90,5%
MercadoLibre: 2,1%
Bing/Microsoft 1,8%
Yahoo! 1,7%
Altri 3,9%

Corea del Sud

MdR Corea del Sud Dati 2014 (fonte: Econsultancy.com)
Naver 80%
Daum 15%
Google 3,5%
Nate 1,1%

Indonesia

MdR Indonesia Dati 2014 (fonte: fonte: statcounter.com)
Google 94%
Yahoo! 2,5/3%
Bing 1%
Ask 1%

Turchia

MdR Turchia Dati 2014 (fonte: Rankingtr.com)
Google 92,12%
Yandex 5,13%
msn 1,97%
Ask 1,97%
Yahoo! 0,51%

Paesi Bassi

MdR Paesi Bassi/Olanda Dati 2014 (fonte: Nownederland)
Google 94%
Yahoo! 3%
Vinden.nlmsn 3%
Bing 1%

Arabia Saudita

MdR Arabia Saudita Dati 2013
Google 95%
Yahoo! 2,6%
Bing 1,9%

Polonia

MdR Polonia Dati 2013 (fonte: Gemius)
Google 93%
Bing 2,2%
Yahoo! 1,7%
onet.pl 0,9%
Altri 2,2%

Singapore

MdR Singapore Dati 2014 (fonte: Hitwise)
Google.com.sg + Google.com 87,2%
Yahoo! 8,98%
Bing/Microsoft 1,57%

Libri su WordPress in Italiano

A partire dalla versione 3.0 (nel momento in cui scrivo è disponibile la 3.9) WordPress ha introdotto alcune nuove caratteristiche che lo rendono sempre più un CMS di utilizzo generale adatto a blog e siti web.
Alcune statistiche fanno capire bene quale crescita abbia avuto e stia avendo il fenomeno WordPress:

  • nel 2008 solo l’ 1% dei siti web era realizzato con WordPress (fonte Packt Publishing)
  • nel 2011 si era passati al 14% (in pratica 1 su 7)
  • ad inizio 2013 le stime indicavano una percentuale compresa tra il 19% ed il 22%

La diffusione di WordPress è dovuta a diversi fattori tra cui:

  • la sostanziale facilità di utilizzo della piattaforma e la semplicità dell’interfaccia di amministrazione, che rendeno operative anche persone con limitate abilità informatiche
  • l’ampia disponibilità di temi gratuiti e di temi a pagamento di grande impatto a costi contenuti (basta cercare nei vari marketplace tipo ThemeForest, Elegant Themes, Yoothemes etc)
  • l’ampia disponibilità di plugin per fare praticamente ogni cosa (seo, ecommerce, gestione eventi, area riservata, etc)
  • la possibilità, con un costo contenuto, di mettere in piedi un sito professionale dotato di ogni funzionalità (soprattutto per attività di medio-piccole dimensioni)

Alla diffusione della piattaforma, negli ultimi anni si è accompagnata una crescente pubblicazione di ebook e libri in italiano su wordpress

Ebook e libri su WordPress per anno di pubblicazione

2014

  • Sviluppare con WordPress – Apogeo – Autore Thord Hedengren (disponibile anche ebook)

2013

  • WordPress  – Edito da Apogeo – Autore Andrea Mattino (anche ebook)

2012

  • WordPress Easy!!!  –  Fag – Autore Francesco Caccavella
  •  Guadagnare su internet con WordPress. Promuovere attività e prodotti sul Web creando profitti – Hoepli – Autore Bonaventura Di Bello (anche ebook)

2011

  • Webmaster con WordPress –  Hoepli – Autore Bonaventura Di Bello – (anche ebook)
  • WordPress 3 guida all’uso – Fag – Autore Francesco Caccavella – (anche ebook)
  • Creare Blog e Siti Web con WordPress – Hoepli – Autore Tiziano Fogliata (anche ebook)
  • Sviluppare applicazioni con WordPress –  Apogeo – Autore Hedengren Thord Daniel – (anche ebook)

2010

  • Crea il tuo blog con WordPress – anno 2010 – edito da Hoepli – Autore Tiziano Fogliata

 Webmaster con WordPress


Tra i titoli disponibili,  quello che probabilmente può risultare più utile a chi vuole utilizzare WordPress per realizzare siti web. Nei primi capitoli l’autore tratta l’anatomia di un sito in WordPress, la gestione dei contenuti, le fasi di realizzazione di un sito web (dalla compatibilità  con i browser al backup), dei temi sotto ogni punto di vista (scelta tra gratuiti e commerciali, sviluppo, adattamento da Photoshop a WP, utilizzo di Framework e Child Theme). I successivi capitoli trattano le peculiarità  nella realizzazione delle varie tipologie di sito (per aziende, professionisti, siti vetrina, portali di notizie e informazioni ed anche siti di ecommerce). Completano il libro i capitoli su tematiche seo, potenziamento della piattaforma con plugin e widget, importanza dei contenuti, configurazione di base e manutenzione.

Guadagnare su Internet con WordPress


Scritto dallo stesso autore del precedente questo libro affronta WordPress dal punto di vista di chi lo vuole utilizzare come strumento di business. Dai capitoli introduttivi, che trattano tematiche basilari come scelta dominio, hosting, configurazione e installazione, il libro entra nel vivo di alcuni esempi di progetti realizzabili con WP:

  • business blog il tutto soffermandosi sugli aspetti di promozione e visibilità  (seo, Google Adwords, web analytics)
  • landing page
  • ecommerce con l’ausilio di un plugin a pagamento
  • siti ad accesso ristretto e limitato (la fruizione dei contenuti è riservata ai soli utenti registrati)
  • siti di servizi su prenotazione

 

WordPress dalla A alla W

wordpress-dalla-a-alla-w-212-151

Prima edizione del 2012, il libro tratta WordPress dalle basi fino a tematiche quali la creazione dei contenuti, la scelta dei temi, la scrittura per il web, la monetizzazione di un blog ed aspetti più tecnici quali Google Webmaster Tools, Google Analytics.

Creare Blog e Siti Web con WordPress

Crea il tuo sito e il tuo blog con wordpress - libro su wordpress di Tiziano Fogliata
Aggiornato alla versione 3.2 è in pratica la seconda versione di “Crea il tuo blog con wordpress”: la percezione delle novità  è evidente  a partire dal titolo a cui è stato aggiunto “siti web” per evidenziare la nuova vocazione di WordPress a partire dalla versione 3.0.
I contenuti del libro trattano: installazione e configurazione di WordPress, definizione della struttura del sito, creazione e gestione pagine, pianificazione della struttura dei contenuti, gestione di link e commenti, introduzione alla personalizzazione un tema, plugin, gestione utenti e multiblog, aggiornamenti e backup.

 

WordPress 3 guida all’uso

Parte da zero (compresa la famosa installazione in 5 minuti di wordpress) per trattare anche argomenti come custom content type, custom fields, custom taxonomies e post format: quindi gli strumenti di personalizzazione avanzata introdotti nelle ultime versioni di WordPress che lo rendono più potente e adatto a realizzare siti web ed applicazioni. Il testo fornisce anche nozioni di base per creare plug-in e temi personali con PHP, con riferimenti ad aspetti come la sicurezza e l’incremento delle performance.

Sviluppare applicazioni con wordpress

Sviluppare applicazioni con wordpress
Sviluppare applicazioni con WordPress edito da Apogeo è chiaramente più avanzato ed è indirizzato a sviluppatori e a tutti coloro che intendono capire come funziona la piattaforma “sotto il cofano” per poterla sfruttare al massimo. Si tratta della traduzione della seconda edizione di un testo inglese edito da Wiley: “Smashing wordpress: beyond the blog“, il titolo è molto chiaro: WordPress è oramai un vero e proprio framework per realizzare applicazioni web, quindi una piattaforma che va ben oltre gli utilizzi come blog. Fa riferimento alla versione 3 di WP.

 

WordPress Easy!!

wordpress-easy-fag-212-151

E’ un libro adatto a chi vuole iniziare ad usare la piattaforma con un gradevole format a colori e di facile consultazione.

 

WordPress

wordpress-pocket-andrea-mattino

Libro in formato pocket compatto di apogeo che cura gli aspetti di messa a punto del blog, installazione e configurazione db, interfaccia ed impostazioni, pubblicazione di contenuti multimediali, pagine, posta, gestione commenti e contenuti, scelta del tema e personalizzazione del blog, amministrazione permessi ed utenti, estensione funzionalità e plug-in, wordpress e dispositivi multimediali, consigli per la manutenzione (backup, feed RSS, etc).

 

Imparate dagli esperti: l’importanza di frequentare corsi, seminari, convegni

Riporto una parte di brano tratta dal libro “Abitudini da milioni di dollari” di Brian Tracy che trovo illuminante.

La seconda abitudine di cui avete bisogno ai fini dell’apprendimento permanente è quella di frequentare tutti i seminari e i corsi che potete.

Non commettere l’errore di aspettare che corsi e seminari vi si presentino di fronte o che sia la vostra azienda a organizzarli e finanziarli. Siete completamente responsabili della vostra vita; crescita personale e professionale comprese.

 

Nessuno più di voi ha a cuore il vostro futuro e la vostra carriera.

 

Nessuno più di voi ha a cuore la capacità  di aumentare il vostro reddito e di raggiungere il 10% dei migliori nel vostro campo.

 

Ne siete responsabili voi.

 

Nel corso degli anni ho parlato con più di due milioni di uomini e donne in 25 paesi. Possiedo raccoglitori pieni di lettere, fax ed email inviatemi dai miei studenti e dai partecipanti ai miei seminari. Molti di loro mi scrivono e mi informano che si metteranno in viaggio per partecipare a un seminario o workshop tenuto da un esperto del loro settore.

 

Sono pronti ad investire enormi quantità  di denaro per acquisire le abilità  di specializzazione supplementari di cui hanno bisogno per avanzare più rapidamente nella loro sfera di competenza.

 

Sempre più spesso, i miei studenti mi dicono che a volte si sono risparmiati anni di duro lavoro per avere seguito un singolo corso. Alcuni di loro hanno raggiunto i massimi livelli nel proprio settore di attività  e sono diventati milionari grazie all’apprendimento di nuove serie di abilità  che erano pertinenti e immediatamente applicabili al loro ambito di attività .

 

L’apprendimento in età  adulta presenta una peculiarità . E’ molto diverso dal frequentare un corso al college o all’università .

 

Il tipo di persone che frequentano i seminari per adulti ha uno spessore maggiore rispetto alle persone che incontrate nel vostro quotidiano. Sono più positive, hanno motivazioni più salde, hanno maggiori e migliori obiettivi e sono più determinate a raggiungere il successo.

 

Trascorrere alcune ore in loro compagnia sortisce su di voi un effetto sottile ma potente a livello subconscio.

 

Diventate una persona migliore e più determinata grazie al solo fatto di frequentare altre persone di successo in una situazione di apprendimento come quella della formazione per adulti.

 

Fate vostra l’abitudine di cercare e frequentare almeno 4 corsi o seminari all’anno nel vostro ramo di attività.

 

Se la vostra organizzazione tiene delle convention annuali o nazionali non lasciatevele scappare.

 

Tenetevi sempre ben informati e siate presenti alle discussioni e alle lezioni più importanti di ognuno di questi workshop o incontri annuali.

 

A volte capita che una buona idea suggerita da un esperto riesca a trasformare la vostra intera carriera.

Brian Tracy
Brian Tracy

Link innaturali e penalizzazioni

I backlink sono ancora molto importanti ai fini del posizionamento organico e probabilmente conteranno molto ancora per diversi anni.

Cosa è cambiato allora ?

Dall’avvento di Google Penguin nell’aprile del 2012 è diventato ancora più importante capire la differenza tra link naturali ed innaturali dal punto di vista di Google.
Un sito web il cui profilo presenta molti link innaturali può essere penalizzato da Google con tutto ciò che ne consegue: aspettare mesi per sperare di riprendersi. Inoltre uscire da una penalizzazione, non significa recuperare le posizioni perse, ma semplicemente ritornare in una situazione da cui è possibile ripartire utilizzando strategie diverse. Essere colpiti da Penguin, penalizzazione algoritmica che attualmente viene aggiornata ogni 6/7 mesi, può quindi richiedere di aspettare questo periodo di tempo per poter ripartire. Ovviamente è un duro colpo per il portafoglio se pensiamo per esempio ad un e-commerce.

Ma quali sono le caratteristiche e le tipologie di link innaturali ?

Da tenere a mente la filosofia di Google secondo cui un link per essere naturale deve essere messo spontaneamente o diversamente deve avere l’attributo nofollow. Ogni altro link messo con intento manipolatorio nei confronti dell’algoritmo di Google è potenzialmente problematico. Nelle linee guida per i webmaster leggiamo esplicitamente: “Qualsiasi link mirato a manipolare il PageRank o il posizionamento di un sito nei risultati di ricerca di Google può essere considerato parte di uno schema di link e costituisce una violazione delle Istruzioni per i webmaster di Google”

Di seguito ho cercato di riepilogare tutte le principali situazioni di link innaturali

1) Anchor text sovraottimizzati. Un profilo che conta molti link con anchor commerciali per le keyword di maggiore pregio dall’uscita di Penguin rischia molto (anche prima esistevano penalizzazioni per queste situazioni, ma con Penguin c’è stato il salto di qualità).

2) Scambio link:   A linka B  e B linka A. Google è in grado di individuare questi link molto facilmente, dopotutto per il più celebre tra i motori il web non è altro che un gigantesco grafo da visitare. Chi non ha mai visto footer di B&B o di alberghi pieni di banner e link a portali turistici che effettuano l’inserimento della struttura previo scambio?
Nella migliore delle ipotesi quei link non valgono più nulla, nella peggiore sono già un problema e quindi da ripulire. Dipende anche dalla percentuale rispetto al totale, poichè Google stesso nelle linee guida  specifica l’aggettivo  “eccessivo“:
Scambio eccessivo di link (“Collegati a me e io mi collego a te”) o creazione di pagine partner esclusivamente per lo scambio di link.

Si perchè avere in un profilo una piccola percentuale di link frutto di scambio è talvolta fisiologico.

Come si vede Google specifica che può essere problematico ricevere link da pagine contenenti nel nome, title della pagina o headline le keyword:  “partners“, “links“, “scambio link“, “link amici“, “siti amici“. Queste keyword sono chiaro indice di una situazione di “scambio” e quindi di link non spontanei.

Google è ovviamente  in grado di individuare situazioni di scambio indirette più elaborate tipo: A linka B – B Linka C – C  linka A e simili.

3) Link acquistati: non solo con denaro, ma anche con scambio prodotti e servizi (come specificato anche in questo caso nelle linee guida).  E’ inevitabile pensare ai prodotti spediti ai blogger in cambio di recensioni con link (anche questa è una forma di pagamento per Google). In alcuni settori questa prassi è diffusissima (pensiamo al settore dei food blogger).

Come fa google a capire quando un link è stato comprato o è frutto di uno scambio ? Probabilmente non sempre può riuscirci, ma sta diventando sempre più bravo a farlo. Alcune indizi possono portare ad individuare siti che vendono link in maniera sistematica: anchor text addomesticati,  la scomparsa di link dopo un certo periodo di tempo, la posizione dei link, etc.

4) Guest posting: questa strategia è recentemente finita sotto la lente di ingrandimento di Google. Matt Cutts, l’ingegnere responsabile del team antispam, ha dichiarato che se usata in maniera sistematica come strategia di link building è certamente problematica. Si ne è abusato molto, con siti che hanno elevate percentuali di backlink di questo tipo.

5) Link generati automaticamente: per esempio da profili e commenti in forum e blog. Da anni esistono software che in automatico tentano di aggiungere commenti su blog e forum o creano finti profili utente con il solo scopo di inserire link. Questo prassi è da anni considerata spammosa e lo stesso attributo nofollow è nato da un accordo dei big della search (Google, Yahoo! e Microsoft)  per gestire queste situazioni.

6) Widget link: sono quelle strategie per le quali un sito distribuisce un pezzo di codice (widget) da mettere su altri siti. Solitamente nel pezzo di codice è inserito un backlink al sito di origine, magari con anchor text ottimizzato. Google cita esplicitamente questa tecnica nelle norme di qualità segnalandola come violazione delle linee guida. Questa tecnica andava di moda alcuni anni fa, anche se ho recentemente incontrato un sito che ne faceva largo uso: dopo una iniziale miglioramento del ranking è stato inesorabilmente penalizzato.

7) Advertorials: stiamo parlando sostanzialmente di pubbliredazionali/articoli pubblicitari a pagamento con link. Anche in questo caso Google sta diventando sempre più bravo ad individuarli. E’ salito agli onori della cronaca di settore un caso di penalizzazione che ha coinvolto il sito inglese del colosso della consegna dei fiori a domicilio interflora.co.uk.

8) Footer link: sono i link posti nei piè di pagina dei siti web. Un link naturale è posto nel contesto giusto, tipicamente in un testo/articolo con del testo intorno.Ci sono ovviamente eccezioni. Un’azienda potrà sicuramente linkare nel footer i siti dei brand che le appartengono o di aziende sussidiare, senza per questo avere problemi. In altri casi, se non c’è un valido motivo, questi link sono da rimuovere perchè molto sospetti.

9) Sitewide link: sono i link che vengono messi in punti per cui il link viene replicato in molte o tutte le pagine del sito (esempio header, sidebar, footer).  Si vengono a creare veri e propri sciami di link, per cui un sito riceve link da migliaia di pagine di un altro. Un classico esempio sono i link nei blogroll dei blog. Non tutti i link di questo tipo sono necessariamente un problema, ma in caso di penalizzazione sono da valutare attentamente in particolare se gli anchor text sono commerciali e non brand. Sono in generale ritenuti artificiosi, in caso di dubbio è meglio rimuoverli.

10)  Percentuale link dofollow/nofollow:  qualche considerazione da un punto di vista statistico va effettuata. Avere il 100% di link dofollow è anomalo, fisiologicamente difficile specialmente per un sito che è online da diversi anni e riceve molti link. Un profilo di link naturale riceverà link di vario tipo: follow, nofollow, con redirezioni etc.

11) Rilevanza Geografica:  un’altra anomalia è rappresentata dal ricevere link da zone geograficamente non rilevanti per la nostra attività. Un’attività che si rivolge solo all’Italia, con sito in lingua italiana, non sarà naturale che riceva la maggior parte dei link da siti di altri paesi (in altri lingue). Ho visto problemi di questo tipo in lavori effettuati da parte di seo agency, che effettuavano attività di link building per siti in sola lingua italiana mettendo link da siti di article marketing unicamente in inglese.

12) Contestualità: Google cataloga da anni i siti web. Sa di quale argomento tratta un sito. Per cui è in grado di valutare la contestualità di un link: è normale che un sito di un’agenzia immobiliare riceva un link da un sito che parla di scarpe? Probabilmente no.

13) Velocità di acquisizione: sempre dal punto di vista statistico è importante capire la velocità di acquisizione dei link. Avere un profilo in cui i link sono acquisiti in maniera cronologicamente anomala (tutti in un breve lasso di tempo e poi più nulla) è probabilmente indice di una attività di acquisizione artificiale. Alcuni tool quali Majestic Seo consentono di verificare lo storico di acquisizione link di un determinato sito.

14) Link network: alcuni soggetti hanno creato nel tempo vere e proprie reti di siti e blog con lo scopo è di linkare e “spingere” siti propri e dei clienti. Solitamente parliamo di network curati con attenzione: dati di registrazione del dominio diversi o anonimi, codici di tracking diversi (analytics, adsense, tag manager), con attenzione ai link in ingresso ed uscita. Queste situazioni se scoperte possono causare problemi.

15) Article directory:  sono siti web dove gli utenti possono pubblicare, in distribuzione libera, articoli originali, suddivisi in categorie o sottocategorie tematiche.

16) Comunicati stampa ed Article Marketing: analoghi ai precedenti, questi tipi di link non hanno i connotati di link naturali. In molti casi sono poi stati reinterpretati all’italiana: molti articoli sono strutturati in maniera prevedibile con lunghezza più o meno standard e due link. Uno con anchor text mirato e l’altro link con al dominio a fine articolo. E’ chiaro che una situazione di questo tipo è un “pattern” facilmente riconoscibile da Google.

17) Siti Bookmark: nati per consentire di salvare online i siti di interesse catalogandoli con tag, sono stati spesso oggetto di abuso da parte dei seo.

18) Link da affiliazione: gli esperti di Google hanno dichiarato di essere piuttosto bravi nel riconoscere i link di affiliazione e a non tenerne conto ai fini del ranking. Questo vale sicuramente per i link che appartengono a circuiti di affiliazione noti o quando nelle url degli affiliati sono presenti parametri parlanti con un’indicazione dell’affiliato  (Es: url?pn=726). Nel caso di sistemi di affiliazione “home made” senza parametri nell’url, ma tracciati tramite la provenienza (referral) come può Google capire se si tratta di un link naturale o di un link di affiliazione (e quindi “commerciale”) ?

19) Web directory: sono uno dei primi servizi del web (basta pensare a come nacque Yahoo!). Google nel 2012 ha iniziato a prendere  provvedimenti contro alcune delle directory internazionali contenenti maggiore quantità di spam. Queste directory in una certa percentuale sono state deindicizzate (e quindi azzerato il valore dei link in uscita).Altre dichiarazioni indicavano il problema nel “tiny content” (poco contenuto e spesso duplicato che accompagna le segnalazioni). Nella realtà quotidiana queste directory, almeno quelle migliori, sono ancora utilizzate ed in settori poco competitivi sembrano ancora “spingere” un po’. Molte però mostrano già segni di sofferenza con PR azzerato o a N/A. Quello che resta da capire è come si comporterà Google in futuro? Si tratta palesemente di link non naturali e per alcuni siti rappresentano anche il 40/50% dei link in ingresso. Il valore di queste link verrà annullato o finiranno per avere un impatto negativo?  La maggior parte dei tool di link risk management segnala già questi link come innaturali e quindi da rimuovere.

20) qualsiasi link non contemplato nei precedenti e creato appositamente con l’intenzione di manipolare l’algoritmo di Google.

Screaming Frog, lo spider seo per l’analisi dei siti web

googlebot-250Gli Spider Seo sono software che effettuano la scansione di un sito web, in maniera analoga a quanto fanno Googlebot e i crawler dei motori di ricerca.  Questi software, link dopo link, scaricano un intero sito e creano un grafo che mappa tutte le risorse e le informazioni collegate (tipo di documento, dimensioni, http status code etc).

Sono strumenti preziosissimi che consentono di scoprire problemi relativi all’architettura di un sito web. Problemi che, se non gestiti, possono portare a penalizzazioni del sito, cattiva esperienza degli utenti e performance scadenti.

Dopo averne provati diversi,  gratuiti e a pagamento, sono giunto alla conclusione che Screaming Frog (SF) è attualmente nel complesso il migliore prodotto sul mercato.

Screaming Frog in Azione - individuazione 404

Multipiattaforma (gira su Windows, Mac, Linux), è molto veloce ed ha un’interfaccia più intuitiva rispetto alla maggior parte dei concorrenti. Basta infatti inserire l’url e il software inizia la scansione del sito andando a popolare di informazioni le varie schede (tab). Si possono verificare rallentamenti quando si ha a che fare con siti di grandi dimensioni (tipicamente con più di 60.000/70.000 url). In tal caso di possono modificare le impostazioni nel file di configurazione allocando più memoria. In alternativa si può effettuare la scansione del sito frazionandola in diverse parti.

Il tool è a pagamento con licenza annuale da rinnovare al costo di 99£.  Se non attivato, funziona in versione demo e consente la scansione fino ad un massimo di 500 url, con altre limitazioni che lo rendono utile solo per l’analisi di piccoli siti.

Può  effettuare il crawling di:

  • un intero sito
  • una singola pagina (utile se volete vedere per esempio i link in uscita nel caso di pagine molto grandi)
  • una directory (per esempio la scansione del blog impostato come sottocartella del: sito.it/blog).

e può individuare diverse categorie di problemi:

  • status code 404 (risorsa non trovata)
  • status code 301/302 (redirezioni permanenti, temporanee etc)
  • status code 50x  (problemi al server)
  • no response (risorse esterne linkate che non rispondono)
  • tutti i link in uscita da un sito (quale risorse esterne linka il sito ?)
  • tutte le risorse interne al sito (pagine web, immagini, css, javascript esterni, SWF, pdf etc)
  • url che contengono caratteri non ascii, potenzialmente problematiche per  vecchi browser
  • url troppo lunghe, poco leggibili e quindi non “serps friendly”
  • url con parametri dinamici, riscrivibili e potenzialmente indicative di possibili pagine duplicate
  • pagine duplicate (identiche al byte)
  • pagine con title o description duplicate: ogni pagina dovrebbe avere title e description univoci che ne riflettano il contenuto
  • pagine con title e description troppo lunghi o sotto-ottimizzati
  • assenza di h1 ed h2
  • doppi title, description e h1  presenti nell’html della pagina (capita più spesso di quanto si pensi!)
  • immagini linkate dal sito e relativi problemi (immagini di dimensioni eccessive)
  • pagine del sito con direttive quali canonical, noindex, nofollow: sono direttive delicate che influenzano la distribuzione del valore dei link all’interno del sito e l’indicizzazione delle pagine
  • creazione della sitemap e verifica di una esistente
  • assenza di alt tag (o eccessiva lunghezza) nelle immagini
  • individuare situazioni di cloaking modificando lo user agent presentato al web server.
  • etc

SF consente di scegliere quali risorse includere o escludere nella fase crawling (directory, immagini, swf, javascript, css),  rispetto del robots.txt, profondità di ricerca, gestione dei cookie, crawling di pagine protette, rispetto delle direttive (canonical, follow, noindex). Oltre alla scansione di un singolo url alla volta, SF può elaborare un elenco di url con la modalità di lavoro “list“.

Si possono anche effettuare ricerche personalizzate  utilizzando gli appositi campi custom. Per esempio individuare  tutte le pagine che contengono una specifica stringa di testo come codici di tracking (script di Google Analytics per esempio), pulsanti social di condivisione, etc. I principali report sono esportabili in formato csv per l’analisi da foglio di calcolo.

Quindi lato seo può aiutarci a risolvere tanti problemi.

Trovo particolarmente utile poter individuare:

  • tutte le pagine all’interno del sito che linkano una certa pagina  (mi risulta sia l’unico software di questa categoria a farlo)
  • tutte le pagine duplicate

Su questo ultimo aspetto c’è però da dire che SF trova le pagine perfettamente identiche (utilizza un algoritmo di hash). In molte situazioni della vita reale però si trovano situazioni in cui le pagine duplicate differiscono di pochi byte. Agli occhi di Google, sono sempre “contenuto duplicato”, ma non vengono identificate come tali. Sarebbero necessari algoritmi più sofisticati che effettuino lo striping del codice html e confrontino la similarità

Possiamo individuare status code 404, 301 e poterli costi gestire (se l’utilizzo all’interno del sito non è giustificato)

screaming-frog-404-301-500

Da una rapida scanssione possiamo capire rapidamente problemi con il multilingua.  La web agency ha utilizzato le variabili di sessione per la selezione della lingua corrente, mantenendo lo stesso url e  lo spider di Google vede solo la lingua di default.

Screaming Frog è molto utile anche quando si lavora alla risoluzione di penalizzazioni.

Sappiamo che alcune penalizzazioni quali Panda sono riconducibili a problemi con i contenuti e l’architettura di un sito. Possiamo allora individuare pagine con poco contenuto (semplicemente effettuando la scansione ed ordinando per numero di caratteri/parole ) per poi arricchirle o gestirle.

Size e Word Count in Screaming Frog

Possiamo trovare tutti i link in uscita dal sito in analisi, opzione utile quando si ha a che fare con problemi dovuti a link (in ingresso o in uscita dal sito).

Quando si fa attività di link building possiamo effettuare la scansione di un sito a cui vogliamo chiedere un link, per capire se può essere una buona risorsa o meno. Potremmo per esempio scoprire molti link in uscita con anchor text commerciali e capire di avere a che fare con un sito che effettua sistematicamente la compravendita link, quindi potenzialmente pericoloso.

Risulta utile per l’analisi di siti che riteniamo possano essere stati compromessi con l’iniezione di codice malevolo e l’inserimento di link a siti pericolosi (PPC: porn, pills, casinò). Situazione che si verifica frequentemente con installazioni di WordPress non aggiornate e violate, o installando  temi di dubbia provenienza.

In questo caso possiamo cambiare lo user agent impostandolo come “googlebot” per bypassare tentativi di cloaking ed effettuare la scansione per verificare tutti i link in uscita trovati.

Mi è capitato di lavorare su un sito sicuramente penalizzato a causa di link accidentali ricevuti da concorrenti e rivenditori. In questo caso i tool di ricerca backlink quali Majestic Seo e Ahrefs, pur individuando i siti, non riuscivano a trovare tutte le pagine che ospitavano i link accidentali. SF si è allora rivelato un alleato utilissimo per scansionare in maniera massiva tali siti e trovare tutti i link in uscita dannosi diretti al sito in analisi.

Una scansione veloce può far emergere problemi con il file robots.txt.Per quanto possa sembrare strano queste situazioni sono abbastanza frequenti: impostazioni di WordPress con impostazioni di  blocco per i motori di ricerca o web agency che pubblicano un nuovo sito tralasciando di sistemare il file robots.txt impostato a “Disallow /”.

Per concludere Screaming Frog è un po’ il coltellino svizzero della seo, almeno di quella più tecnica. E’ utilissimo per trovare e pulire tutto ciò che non funziona su un sito web.

 

Risorse su Adwords in italiano: community, corsi, eventi, libri, ebook

Community ufficiale di Adwords in italiano

Gestita direttamente da un team di dipendenti di Google. Si possono sottoporre domande sotto forma di discussione divise per argomenti quali: funzionalità avanzate, Google Analytics, fatturazione, approvazioni annunci e norme pubblicitarie, pianificazioni ed impostazioni campagne, etc. Rispondono altri iscritti, top contributor, dipendenti di Google stesso.
Sono previsti per gli iscritti meccanismi di incentivazione alla partecipazione e livelli fino alla carica di maggiore prestigio (Top Contributor). All’interno della community sono anche disponibili articoli di approfondimento ed altre risorse.
http://www.it.adwords-community.com

community-ufficiale-adwords

Community di Google Partners Italia su G+

Community che fornisce il supporto ai partner di Google per approfondimenti, supporto al conseguimento della certificazione, adesione al nuovo programma Google Partners e formazione in generale.
http://plus.google.com/communities/115946071969367388466
Vengono realizzati periodicamente Hangouts di approfondimento, visibili successivamente anche sul canale Youtube di Google Partners.

Programma Google Partner

Nuovo programma di Google per i partner (agenzie e consulenti).
I requisiti per diventare Google Partner (e poter esporre il badge) sono:

  • la creazione profilo aziendale Google Partner
  • centro clienti collegato, con certificazione ottenuta per superamento di almeno due esami
  • gestione di un budget di 10.000$ negli ultimi 90 giorni
  • verifica di aderenza alle best practice per le campagne che si gestiscono

Per conseguire la certificazione è necessario superare 2 esami di cui uno sui Principi di Base della Pubblicità e l’altro a scelta tra “Ricerca Avanzata” e “Pubblicità Display Avanzata”.

https://www.google.it/partners

logo-google-partner
Logo Google Partner

Guida per la preparazione agli esami (disponibile solo in html)

Sono disponibili PDF ma solo in lingua inglese (nel momento in cui scrivo)

Fundamentals PDF Download (Concetti fondamentali)

Search Advanced PDF Download (Ricerca di ricerca avanzata)

Display Advanced PDF Download (Rete display avanzata)

Centro Assistenza Adwords

Supporto Adwords in Italiano

Blog ufficiale di Adwords in italiano

Segnala le ultime novità, spesso tradotte dal team italiano a partire dagli articoli dell’omologo blog in inglese.
http://adwords-it.blogspot.it/

Impara con Google

Consigli e suggerimenti di Google sul marketing online per le attività commerciali

Eventi e corsi

Adworld Experience

Evento italiano dedicato a Google Adwords, organizzato da Gianpaolo Lorusso e Francesco Tinti, si svolge ogni anno nel mese di Aprile.
Partecipano alcuni tra i maggiori esperti italiani quali Fabio Sutto, Rossella Cenini, Filippo Trocca, etc.
Nella terza edizione che si terrà ad aprile 2014 sarà relatore anche Brad Geddes, autore del libro “Advanced Google AdWords” e primo AdWords Seminar Leader riconosciuto da Google stesso.
http://www.adworldexperience.it

Logo Adworld Experience

Be-wizard

Si svolge ogni anno a marzo, il focus dell’evento è sul web marketing in generale con percorsi di approfondimento per  turismo e business. Nell’edizione 2014 è stata introdotta una sessione specifica dedicata alle tematiche del remarketing e retargeting, con interventi su Real Time Bidding, novità di Adwords, elenchi per il remarketing in Google Analytics (con Justin Cutroni di Google), etc. Altri interventi su Adwords e Sea erano presenti anche nel programma degli anni precedenti.
http://www.be-wizard.com

logo-be-wizard-200

Corsi in aula – E-learning

Google segnala direttamente i corsi online o in aula tenuti da aziende certificate come “AdWords Seminar Leader” (attualmente in Italia: Cegos e HTML.it)
http://www.google.it/intl/it/adwords/seminars/faq.html#q02

Corso Adwords Avanzato di Madri

Il videocorso si prefigge lo scopo di insegnare ad ottimizzare al massimo le campagne per ottenere più risultati e conversioni spendendo meglio il proprio budget.
http://www.madri.com/acm/adwords.php

Video Adworld Experience

Sullo shop di Adworld Experience sono disponibili i video delle edizioni precedenti dell’evento (acquistabili anche singolarmente), altri video su Adwords, video dell’edizione 2014 di Adword Supersummit 2014.
http://shop.adworldexperience.it

Guide e forum

Sezione Adwords del Forum GT

Vi partecipano diverse esperti conosciuti del settore.
http://www.giorgiotave.it/forum/adwords/

Guida di html.it

Guida del 2008, scritta da Francesco Gori
http://www.html.it/guide/guida-google-adwords/

Blog

Blog di Rossella Cenini

Libri ed Ebook

Seguono tutti i libri che trattano almeno parzialmente di adwords in italiano. Sono tutti disponibili come ebook.

Google Marketing di Daniela Salamina (Apogeo – Novembre 2013)

Dal titolo parrebbe un libro generico sugli strumenti di marketing legati al mondo Google, in realtà il libro è quasi tutto incentrato su Adwords con la sola eccezione dei capitoli finali che trattano Google Analytics, Google Plus e Seo. Progettazione campagne vincenti, individuzione keyword, scrittura annunci, quality score, importanza delle landing page, traffico attraverso la rete display, remarketing, Conversion Rate Optimization, monitoraggio dei risultati e tracciamento conversioni sono i principali argomenti degli altri capitoli.

http://www.apogeonline.com/libri/9788850332724/scheda

copertina-google-marketing-daniele-salamina-200

I segreti di Google Adwords di Andrea Testa e Guido di Fraia (Hoepli – Settembre 2013)

Andrea Testa è Top Contributor della Community di AdWords. Al capitolo sugli approfondimenti nella parte finale del libro hanno contribuito altri 3 Top Contributor della community: Mauro Gadotti per Adsense, Filippo Trocca per Analytics, Rossella Cenini per Google Merchant Center.
Il libro è ricco di informazioni anche molto pratiche. I titoli dei capitoli e sottocapitoli sono un po’ “filosofici” con richiami frequenti a titoli di film, etc (aspetto non molto pratico per la consultazione mirata). Sono trattati moltissimi argomenti quali: query, parole chiave, annunci, campagne display, campagne potenziate, estensioni annunci, siti e landing page, metriche e KPI, estensioni social, etc.

http://www.hoepli.it/libro/i-segreti-di-google-adwords-/9788820358693.html

copertina-segreti-adwords-testa-200

Google Adwords la Guida Definitiva – Perry Marshall e Bryan Todd

Traduzione del best seller “Ultimate Guide to Google Adwords: How to Access 100 Million People in 10 Minutes”, uno dei migliori libri in circolazione. Perry Marshall è considerato uno dei più grandi esperti a livello mondiale di Adwords. Il libro si sviluppa in 31 capitoli di ricchi di informazioni, consigli pratici, strategie, consigli di marketing e molto altro. Sicuramente da leggere.

http://www.hoepli.it/libro/google-adwords-la-guida-definitiva/9788820352349.html

copertina-google-adword-perry-marshall-200

Trovare clienti con Google – Ale Agostini Bruce Clay – Hoepli

Prima edizione del 2011, seconda del febbraio 2014. Ho personalmente letto solo la versione del 2011. Articolato in 7 capitoli, solo 1 specifico è dedicato al PPC. Gli altri capitoli trattano argomenti quali marketing digitale, Google, seo, misurazione risultati e conversioni, casi di successo.
http://www.hoepli.it/libro/trovare-clienti-con-google/9788820359386.html

copertina-trovare-clienti-con-google-200

Search Engine Marketing – Hoepli (2010)

A mio avviso il primo buon libro in italiano soprattutto per chi inizia. Spiega chiaramente i concetti alla base di Adwords. Pubblicato nel 2010 inizia ad risentire dell’età (non sono presenti le novità degli ultimi anni quali il remarketing etc).

http://www.hoepli.it/libro/search-engine-marketing/9788820344580.html

search-engine-marketing-emiliano-carlucci-200

Come si fa a promuovere con Google – Marco Fontebasso – Tecniche Nuove

Prima edizione del 2006, seconda del 2010. Uno dei primi libri in italiano in cui si parla di Adwords dedicandovi il quinto capitolo. Negli altri viene spiegato come funziona Google, come utilizzalo per capire il mercato, come creare siti che vendono, come ottimizzare il sito per il posizionamento.
http://www.hoepli.it/libro/come-si-fa-a-promuovere-con-google/9788848125079.html

come-si-fa-promuovere-google-200

Video corsi in DVD e online su tecnologia, web, IT, grafica, multimedia in lingua inglese

I Video corsi in DVD e online rappresentano un trend in crescita nel settore della autoformazione.

Due player di rilievo nel settore del training multimediale su tecnologia, grafica, web sono sicuramente Pearson Education ( network informiIT) e Lynda.com.

Il gruppo Pearson education è il più grande a livello mondiale nel settore dell’editoria per la formazione e l’istruzione. Include marchi storici e affermati come QUE, Addison Wesley, Prentice Hall, SAMS etc.

Pearson ha creato, a partire dal 2007, la linea LiveLessons (che propone DVD di qualità relativi a linguaggi di programmazione, web e office automation).

Lo slogan di questa linea di prodotti è molto eloquente: “Self-Paced, Personal Video Training from the World’s Leading Technology Experts“. Sono corsi personali, fruibili alla velocità preferita dal discente e gli insegnanti sono esperti del mondo della tecnologia.

Tra i video corsi attualmente nel catalogo livelessons:

  • PHP & MySQL
  • Python
  • css
  • C#
  • Objective-C
  • Perl
  • Joomla!
  • Silverlight
  • ASP.NET 2.0
  • WSS and MOSS 3.0
  • Java
  • Enterprise Ajax
  • Ruby on Rails
  • SharePoint
  • SQL Server
  • Microsoft Excel
  • eBay
  • Project Management
  • QuickBooks
  • Windows Workflow Foundation
  • Microsoft Windows 7
  • Microsoft Windows Vista
  • Microsoft Office Access 2007

Segue un breve video che spiega la linea di prodotto:

I prodotti LiveLessons sono disponibili su amazon.co.uk a prezzi vantaggiosi grazie al cambio euro/sterlina (il prezzo varia a seconda del corso dalle 30 alle 100 sterline).
I prodotti LiveLessons su amazon.co.uk

Lynda.com nasce negli USA nel 1995 da Lynda Weinman and Bruce Heavin ed è molto conosciuta dagli utenti Apple (molti corsi inizialmente erano relativi a prodotti legati a questa piattaforma).

Propone corsi in DVD e corsi online: è infatti disponibile un interessante opzione di abbonamento mensile o annuale in versione normale e premium .
L’abbonamento consente l’accesso a tutti i contenuti online per un certo periodo di tempo (la versione premium rende disponibili anche i file sorgenti degli esempi proposti nei tutorial).

Attualmente i corsi a catalogo sono ben 740 ed includono video corsi su argomenti molto vari tra cui: css, html, xhtml, ajax, php, mysql, ruby on rails, Drupal, Joomla! e tutti i principali prodotti Adobe (photoshop , flash, acrobat, dreamweaver, Illustrator, inDesign) ma anche corsi più di nicchia su openoffice, seo ed accessibilità.

Gli insegnanti sono altamente qualificati.
Per esempio nel caso dei corsi su css tra i docenti segnaliamo i guru di fama mondiale Eric Meyer e Molly E. Holzschlag.

Lynda.com mette a disposizione la possibilità di valutare il servizio online per 24 ore (prima di abbonarsi). Per usufruirne di questa opportunità basta creare un account a partire dal link: Free 24 hour pass to lynda.com.

L’autoapprendimento con strumenti multimediali di questo tipo ha numerosi vantaggi rispetto ai corsi tradizionali:

  • completa autonomia temporale e geografica dello studente nel seguire le lezioni
  • velocità di apprendimento modulabile in base a tempo e capacità personali
  • in genere maggiore economicità rispetto ai corsi in aula
  • possibilità di seguire più volte le lezioni

Aggiungerei anche l’opportunità di fruire dei corsi in lingua inglese e quindi migliorare la comprensione di questa lingua fondamentale per cui lavora nel campo dell’informatica, del web e della tecnologia in generale.

Ci sono certamente anche svantaggi come la difficile (se non impossibile) interazione con i docenti.

Un libro per comprendere le problematiche ed imparare a scrivere crawler: “Webbot e spider. I ragni della Rete.”

Nei giorni scorsi mi è ricapitato tra le mani un libro che avevo acquistato un po’ di tempo fa: “Webbot e spider. I ragni della rete.” edito da Apogeo. Si tratta di un testo del 2007, traduzione del libro americano “Webbots, Spiders, and Screen Scrapers” della casa editrice No Starch.

Quando uscì la versione italiana rimasi stupito poichè si trattava un argomento in apparenza abbastanza di nicchia, trattato da pochissimi libri in lingua inglese tra cui Spidering Hacks della O’reilly.

Il presupposto da cui parte l’autore (Michael Schrenk) è che i browser per quanto sempre più potenti e ricchi di plugin non sono sempre la soluzione ottimale per gestire le informazioni online: a volte sono necessari strumenti più “affilati”.

Entrano in gioco crawler, spider, webbot, agenti software, screen scrapers, software che, sia pure con sfumature leggermente diverse, sono in grado di:

  • reperire informazioni online utilizzando diversi protocolli
  • automatizzare operazioni complesse

Il libro propone, come linguaggio per la scrittura di spider e webbot, l’accoppiata: PHP e cURL. La scelta di PHP in questo contesto può apparire sicuramente strana, dato che PHP nasce come linguaggio di scripting da includere nelle pagine web. Tale scelta è però motivata dalla semplicità di utilizzo del linguaggio e dalla vasta libreria. Inoltre, come sostiene l’autore, i limiti nell’utilizzo di PHP in questo contesto vengono in larga parte superati utilizzando la libreria PHP/cURL, particolarmente efficiente per questi scopi.

Il testo tratta un po’ tutti i vantaggi degli spider e webbot sia dal punto di vista degli sviluppatori, sia dal punto di vista dei manager.
Per gli sviluppatori rappresentano un’opportunità per acquisire nuove competenze e nel contempo sono anche una sfida per via dell’imprevedibilità (basti pensare al parsing dei dati).

Nei primi capitoli vengono proposte idee anche molto creative sui possibili impieghi e successivamente viene affrontata la parte tecnologica: PHP, cURL e la libreria messa a punto dall’autore e scaricabile dal suo sito web. Sito che prevede pagine realizzate appositamente come test per gli script del libro (i lettori possano così testare senza problemi gli esempi).

Le librerie messe a punto dall’autore contemplano funzioni per il download e per parsing dei dati (reperimento stringhe, gestione link etc).

Vengono poi trattati argomenti come l’invio automatico di form, la gestione di grandi quantità di dati. Vengono passate poi in rassegna applicazioni comuni di utilizzo per webbot quali:

  1. monitorare i prezzi
  2. catturare immagini
  3. verificare link
  4. la navigazione anonima
  5. valutare il rank ed il posizionamento delle pagine sui motori di ricerca
  6. aggregatori di notizie ed informazioni
  7. FTP per prelevare dati con l’utilizzo di questo protocollo
  8. prelevare dai newsgroup via NNTP
  9. leggere e spedire mail con POP3 e SMTP

Conclude il libro una serie di capitoli su tematiche considerate più avanzate come:

  1. procurement webbot (webbot che acquistano per procura)
  2. webbot che utilizzino la crittografia (SSL)
  3. considerazioni sull’autenticazione
  4. gestione dei cookie

Le considerazioni finali spiegano come scrivere webbot che:

  • non diano nell’occhio
  • siano affidabili
  • possano gestire parsing di dati non ben formattati
  • considerazione legali sullo spidering
  • come realizzare siti web amichevoli per gli spider (considerazioni SEO e visione lato webmaster)

La scheda del libro sul sito Apogeo dove sono presenti anche i codici sorgenti del libro (che sono anche sul sito dell’autore) e il link per leggere parte del libro su google books.

La pagina della versione americana: Webbots, Spiders, and Screen Scrapers

Il sito dell’autore: Micheal Schrenk

Pubblicato il nuovo libro di Chris Anderson: Gratis

Pubblicata la versione italiana dell’ultimo libro di Chris Anderson, giornalista e saggista statunitense, direttore di Wired USA dal 2001.

Uscito negli Stati Uniti a luglio 2009 e disponibile online gratuitamente: Free – The future of a radical price. Dagli ultimi giorni risulta visibile solo per IP statunitensi, probabilmente per accordi di pubblicazione con partner esteri.

Free - Chris Anderson

La versione italiana è infatti ora disponibile in italiano, edita da Rizzoli, con il titolo di: Gratis

Gratis - nuovo di libro di Chris Anderson

Il libro è molto interessante e ricco di spunti.

In appendice sono presenti 3 paginette con 50 modelli di business consolidati basati sul “gratis” divisi nelle 3 categorie:

  • Gratis 1: sovvenzionamenti incrociati diretti
  • Gratis 2: mercati a 3 vie o a 2 versanti (modelli in cui un tipo di cliente sovvenziona l’altro)
  • Gratis 3: i conosciutissimi modelli Freemium (alcuni clienti sovvenzionano gli altri)

Per ogni modello presenta è segnalata un’azienda che lo utilizza.

La reale percentuale di utilizzo dei motori di ricerca in Italia: un approccio empirico

Negli ultimi mesi ho avuto modo di vedere diverse statistiche riguardanti le percentuali di utilizzo dei motori di ricerca in Italia. Statistiche elaborate da importanti società come ComScore, Nielsen etc.

Le ultime statistiche da me visionate, comparse su un libro uscito a luglio 2009, addirittura accreditavano il motore di ricerca Ask con una percentuale di utilizzo superiore al 10% in Italia.

Devo dire che la cosa mi ha lasciato molto perplesso, perchè questi dati contravvengono alle evidenze che emergono dalla statistiche web dei siti per i quali effettuo il monitoraggio quotidiano. Per tali statistiche l’evidenza è: Google, Google, Google …
Quasi sempre sopra al 90% delle visite provenienti dai motori di ricerca, spesso oltre al 95% o più (non considerando poi i motori di ricerca che hanno stretto partnership con Google).

Mi chiedevo per esempio quale fosse la rilevanza di Yahoo! nel portare visite ai siti web in Italia. Le ultime statistiche relative agli Stati Uniti accreditavano Yahoo! di percentuali ancora interessanti: dal 15% al 25% del mercato.

Mi stavo chiedendo come fare valutazioni empiriche sui reali rapporti di forza in Italia tra Google e Yahoo! ?

L’occasione mi è capitata oggi.
Stavo visionando siti web in un settore che mi interessa e sono incappato in un sito ben posizionato con molte parole chiave e con le “statistiche aperte”. Intendendo con questo dire che ho potuto visionare le ricerche effettuate dagli utenti nell’ultimo periodo di tempo.

Ho preso in considerazione una frase composta da due parole chiave per la quale il sito in questione è posizionato al primo posto su Google e Yahoo!

Dalle statistiche è emerso che nell’ultimo mese le ricerche per tale frase sono state:
1684 – Google
30 – Yahoo!

per un rapporto di 56 a 1

Pur con tutti i limiti di un approccio di questo tipo credo che questo numero rispecchi maggiormente i rapporti di forza realmente esistenti.

La frase di ricerca considerata non è relativa al turismo e nel caso di google, le serps sono abbastanza “pulite” nel senso che, durante la ricerca, non sono stati proposti risultati da Google Universal Search (quindi niente Local search, niente video da Youtube etc). Tenuto conto anche di fenomeni come Search Wiki, che rendono di fatto difficile parlare in modo definitivo di posizionamento,fatte le dovute premesse credo che si tratti di un test abbastanza attendibile.