My Links

Leggimi nel nuovo blog: troverai contenuti aggiornati.
Andrea Vit - Consulente SEO
www.andreavit.com

venerdì 30 marzo 2007

Microsoft e la via peggiore per battere Google.

Microsoft e il buon Bill Gates

Mi ricollego ad un post del buon Jacopo Gonzales che segnalava una novità nel sito MSN di Microsoft.

Nell'area superiore della pagina è presente un campo di testo che permette di inserire delle query da far eseguire al motore di ricerca Live search.


La cosa bizzarra che salta all'occhio di chiunque è che questo campo è già precompilato suggerendo una query di attualità o pseudo-pubblicitaria.

Ieri nella mattinata il sito proponeva la ricerca "Roberto Donadoni".


Si tratta di una query che rispecchia un'argomento di attualità: la partita Italia-Scozia. Lo scopo in questo caso è quello di spingere l'utente a fare delle ricerche correlate ad una questione precisa.
Se per il soggetto partita dell'Italia non ci trovo niente di malizioso, vengo subito smentito quando MSN esce allo scoperto poche ore dopo con il nuovo testo suggerito:"ponti di primavera".


Qui allora lo scopo diventa chiaro: non era spingere l'utente a query di attualità ma lanciare dei messaggi pubblicitari pseudo-subliminali.
L'utente leggendo il testo "ponti di primavera" si incuriosisce all'argomento, e fa una query di ricerca per ottenere delle informazioni e magari valutare l'idea di una piccola vacanza.
Un'operazione di marketing: indurre l'utente che utilizza il sito ad avere un bisogno, nella fattispecie il viaggetto per il ponte di primavera.

Un'altra conseguenza da segnalare è l'effetto fastidioso che ha l'apparire-scomparire del testo durante la varie operazioni che si possono eseguire nel text-box.

L'esperienza utente viene peggiorata anche da un altro fattore: vi è sempre un senso di diffidenza e frustrazione per i messaggi push ed in questo caso per il testo inserito automaticamente; la forzatura della query quindi non è vista di buon occhio.

Un altro fattore da non sottovalutare è il potenziale incremento degli introiti pubblicitari o più in generale una spintarella al programma AdCenter. Data l'appetibilità delle query di ricerca suggerite, le aste per aggiudicarsi visibilità nei risultati a pagamento saranno più serrate ed il valore delle bid sarà maggiore nei periodi di 'popolarità' di quelle keyword.

(Per completezza va detto che attualmente nella SERP di Live che fa riferimento ai ponti di primavera non sono presenti link sponsorizzati.)

Non credo che questa sia la via migliore di rubare utenti alla concorrenza (Google in primis) e di imporsi in una posizione di predominio nel mondo dei motori di ricerca che ora lo vede ancora relegato ad un ruolo abbastanza marginale.

giovedì 29 marzo 2007

La sindrome del 2.0 affligge anche la televisione?

Ieri guardando il buon TG1 durante la pausa pranzo, ho visto un curioso servizio sulla sperimentazione e la nascita delle televisioni di condominio.


scena di una recita condominiale su teletorreSi tratta semplicemente di televisioni via cavo che coprono il raggio di un condominio, o al massimo di un isolato, dove persone che hanno una particolare passione decidono di farsi riprendere e creare dei veri e propri programmi televisivi.

Chi è appassionato di cucina farà delle 'spignattate' in diretta sognando di essere come Wilma De Angelis, chi ama la recitazione potrà recitare in uno spettacolo teatrale tutto suo (foto), a chi piace la poesia potrà reciterne un paio davanti alla telecamera magari aggiungendoci dei commenti personali.


Gabriele Grandi, ideatore di TeleTorre19, afferma che la vera ragione di questo progetto non è la curiosità tecnica ma il senso di stanchezza di vivere il ruolo di spettatore passivo e il desiderio quindi di passare a confezionarsi in casa la televisione che si vuole.

Oramai la sindrome del 2.0, ovvero l'irrefrenabile impulso di creare dei contenuti e metterli a disposizione di una comunità, affligge anche il pubblico della TV oltre che l'utenza di internet ed i poveri bloggers malati.

Link correlati:

mercoledì 28 marzo 2007

Dan Crow e l'indicizzazione di siti flash-oriented

Ho parlato poco tempo fa di un aspetto utilizzato per migliorare il posizionamento nei motori di ricerca di siti flash-oriented: il cloaking.

Nel post parlavo del fatto che questo tipo di attività rappresenta una sorte di frode in quanto 'pilota' il crawler e gli fa indicizzare dei contenuti fittizi.


Questa pratica, sebbene non sia ancora motivo di ban, lo potrebbe diventare presto dato che vi sono tecniche simili già monitorate da parte del big G.


In un intervista al 'The Guardian' il product manager dei servizi di crawling di Google espone quale siano le possibilità di indicizzazione dei contenuti flash.


Il filmato dev'essere possibilmente leggero e se all'interno vi sono dei testi che si desidera indicizzare, essi non dovranno essere delle immagini (o video) dentro gli stage ma del testo statico.


Questo poichè il crawler estrae esclusivamente il testo contenuto e lo indicizza. A dire il vero le informazioni all'interno del filmato non sono interamente ispezionati e il miglioramento di questo aspetto rappresenta una sfida per lo staff del motore di ricerca.


Nel post di commento di Danny Sullivan - searchengineland c'è un paragone che credo sia emblematico:

"I have a long-running way I try to explain this to people who build in Flash and who get frustrated that search engines can't handle their content. I say it's like taking a TV commercial into a radio station, then getting mad that the radio station won't play the pictures in the commercial. It can't. It's radio. Radio plays only sound. If you want images, that's TV!

Search engines don't understand images. They understand text. Show them images, and it's like trying to play those images on the radio."


Per evitare questa incomprensione tra sito flash e crawler la cosa fondamentale è una progettazione ragionevole della struttura: un lavoro di confronto tra il buon gusto del grafico e la concezione tecnica del SEO e degli sviluppatori.


Basta con il mito che un sito in flash è più bello di uno in HTML: secondo me il massimo è un sito HTML con un bel foglio di stile ed un filmato flash perfettamente integrato graficamente con il resto della struttura. Più leggero, usabile, accessibile, funzionale,indicizzabile, leggibile, f...e chi più ne ha più ne metta!!!! :-)


Il filmato potrebbe rappresentare l'header della pagina e magari contenere un'animazione riguardante il brand aziendale, o la frase leggendaria che più rappresenta l'attività. Il flash sarà quindi di impatto visivo per l'utente ma l'indicizzazione può essere spinta al massimo.


Tutto questo per affermare che con una buona progettazione e la collaborazione tra SEO, sviluppatori e gli architetti del Web (citati da Marco di TSW) tutto è possibile.


Un'azienda che cosa se ne fa di un bellssimo sito con grandi animazioni con 3 visite?


In questo senso ci si aspetta un supporto migliore in fase di realizzazione, vero Macromedia?

martedì 27 marzo 2007

Prove di layout delle SERP di Google

Google sperimenta nuovi layout delle SERP nel tentativo di attirare maggiormente l'attenzione dell'utenza sugli annunci pay-per-click sia per la tipologia premium che per quelli a destra delle SERP.

Queste modifiche della layout delle SERP hanno lo scopo di ottimizzare la monetizzazione proveniente dal traffico che attraversa il motore di ricerca aumentando il CTR degli annunci.

Sono dei test per valutare e confrontare gli effetti delle varie ipotesi di layout, per una futura rivistazione delle SERP.

Sono state dapprima testati degli esperimenti sugli sfondi degli annunci premium esposti in precedenza con sfondo azzurro e giallo a forte impatto visivo.


Si è tentato successivamente di limitare l'evidenziazione degli annunci pay-per-click dato che gran parte degli utenti che navigano in rete non conoscono la distinzione tra risultati sponsorizzati e organici ed è forse proprio per questo che ci cliccano sopra ;-) ....



L’effetto di una leggera evidenziazione può attirare l’attenzione senza infondere la possibile diffidenza di un contenuto ‘troppo evidente’.

E’ una modifica elegante che probabilmente raggiungerà lo scopo desiderato: aumentare il CTR degli annunci premium e mantenere la ad-blindness.

A questo punto dopo aver lavorato sugli annunci premium si tenta di ottimizzare gli annunci alla destra delle SERP.

Da uno studio effettuato da clickkit risulta che la percentuale di utenti che pone lo sguardo sugli annunci pay-per-click alla destra delle SERP è del 31%, con un tasso medio di CTR non soddisfacente.

Per questo motivo si è tentato di attirare maggiormente l'utenza spostando leggermente il 'baricentro' della pagina verso destra ponendo un box appena sopra le inserzioni contenente i link ai principali servizi di ricerca di Google: immagini, news, gruppi, ecc.

Questo box non è altro che la prosecuzione della linea al di sotto della text area nel quale inserire la query e sembra raggiungere lo scopo.



Sebbene lo scopo di un motore di ricerca sia quello di fornire le informazioni più pertinenti possibili ultimamente i veri protagonisti delle SERP e delle attenzioni di Google sembrano gli annunci pay-per-click e la sfida è princiapalemnte una: aumentare il click-throught-rate mantenendo il grado di fiducia che l'utenza ha verso il motore di ricerca e che è il vero motivo del grandissimo successo del big G.

Sicuramente non è una questione di design…A mountain View hanno altre cose a cui pensare!

Altri utili informazioni sull'argomento:

Adwords blindness di Jacopo Gonzales;
Adwords sfondo giallo per gli annunci pay per click di Jacopo Gonzales;
Google AdWords testing yellow background on ads above the search results di Jennifer Slegg;

giovedì 22 marzo 2007

Il vero valore aggiunto dei blog

In questi giorni sto leggendo molte discussioni sul basso numero di lettori dei blog italiani e sul reale valore che il fenomeno ha nella comunità di Internet: si tratta di una moda o il blogging è un fenomeno in grado di rivoluzionare il mondo del Web?

Personalmente credo che il vero valore aggiunto del blog è che non si tratta di uno strumento informativo di tipo push (le informazioni sono spinte verso l'utenza) come i telegiornali o i giornali, dove i contenuti sono imposti e dove l'utenza svolge un ruolo pressochè passivo.

Gli utenti dei blog hanno un ruolo attivo: leggono, valutano e si fidelizzano alle risorse di interesse.

I fattori che incidono sulla scelta sono molteplici:
- qualità dei contenuti;
- argomenti trattati;
- presenza di commenti e spunti di discussione;
- stima nei confronti dello scrittore.

Questo cambio di prospettiva nella fruizione delle informazioni credo sia importantissimo e sia una vera e propria svolta democratica dell'informazione.

Chiunque è libero di scegliere i propri blog e i contenuti da leggere senza dipendere dai giornalisti dei portaloni e delle testate.

Si crea una vera e propria rete sociale fatta di commenti, dibattiti e approfondimenti sugli argomenti che veramente interessano.

I blog di nicchia sono fondamentali in questo senso, poichè rappresentano il fulcro della blogosfera ed il luogo dove nascono i pensieri e le esperienze più interessanti.

Se vi fossero solo blogghetti di politica e attualità con grandi numeri di audience che novità ci sarebbe rispetto ai contenuti dei media tradizionali?Gli utenti che vantaggi avrebbero?

Interessanti spunti sull'argomento sono reperibili in un post di Massimo Mantellini(da cui è partita la discussione), in questo post di Mauro Lupi, in quello di Stefano Epifani dove si parla della cosiddetta "Coda Lunga".

mercoledì 21 marzo 2007

Google lancia gli annunci pay-per-action.

Google ha annunciato l'uscita della versione beta di un nuovo tipo di servizio: gli annunci pay-per-action.

Questo tipo di annunci permette agli inserzionisti di pagare una quota solo nel momento in cui gli utenti svolgono un'operazione di interesse (come ad esempio registrazione, acquisto, richiesta informazioni, ecc. )

L'inserzionista può inserire gli annunci nella rete dei contenuti di Google, decidendo l'azione di interesse e la cifra che si è disposti a pagare. Vi sarà poi un algoritmo di ranking che, in base ad indici di qualità e gli importi decisi, creerà il posizionamento per le parole chiave.

Un publisher se vuole inserire questo nuovo prodotto nel proprio sito, oltre ad avere all'interno delle pagine del sito il codice di tracking, deve includere l'opzione 'beta pay-per-action' nel proprio account ed inserire il codice dinamico ad-hoc nella pagina per rendere visibile l'annuncio.

Attualmente il programma beta è disponibile solo per la clientela americana.


registrazione pay-per-action
Il pay-per-action potrebbe avere un impatto notevole nel mercato degli ads di Google in quanto limiterebbe notevolmente il click-fraud, che è la vera e propria piaga che affligge il business model pay-per-click di Google.

Tuttavia Jacopo Gonzales in un suo approfondimento afferma che l'approccio pay-per-action rappresenta un'utopia che non verrà mai attuata, in un'altra discussione si descrive questa nuova uscita come un passo indietro rispetto agli attuali prodotto pubblicitari forniti dal Gigante di Mountain View ed infine un post di Federico Riva spiega in modo approfondito il motivo per cui il pay-per-action non può essere applicabile.

pagina di registrazione AdWords:
http://services.google.com/payperaction/

Post nel blog AdWords:
http://adwords.blogspot.com/2007/03/pay-per-action-beta-test.html

pagina di registrazione AdSense:
http://www.google.com/ads/adsense/referrals/index.html

Post nel blog AdSense:
http://adsense.blogspot.com/2007/03/now-accepting-applications-for-new.html

domenica 18 marzo 2007

Italia.it: la conferma dalle SERP di Google

Una piccola curiosità già notificata in parecchi blog: Italia.it sta riscuotendo un grandissimo successo nel posizionamento delle parole chiave correlate al portale.

Italia.it top result per merda

Infatti per il termine "merda" il primo risultato della query è proprio il nostro bel portalone!

Urge assolutamente un bel annuncio dell'ottimo risultato raggiunto da parte del nostro bel ministro Rutelli (ovviamente in lingua inglese!).

sabato 17 marzo 2007

Fattori per una buona ottimizzazione SEO.

Analizzando le risorse reperite in rete ed in particolare lo studio di TSW sulla visibilità nei motori di ricerca dei principali quotidiani on-line ho voluto creare una piccola check-list dei fattori da valutare nell'analisi della visibilità di un sito generico.

1- Title: è uno dei tag più importanti per svolgere una buona ottimizzazione. Generalmente le parole inserite in questo tag vengono ritenute dai motori di ricerca come "parole chiave" altamente attendibili per descrivere il contenuto della pagina. Il titolo dev'essere abbastanza breve e pertinente al contenuto della pagina stessa(la lunghezza dipende se si vuole evidenziare una keyword o una frase correlata all'argomento). Maggiore risalto dovrà essere dato alle prime parole del title.
2- Meta tag descriptons: il testo contenuto nella meta tag description è utile in quanto è visualizzato come informazione relativa alla pagina nelle SERP dei motori di ricerca(non tutti). Il testo deve valorizzare le informazioni contenute nella pagina cercando di darne una sorta di sintesi. La lunghezza della description non dev'essere eccessiva ed è buona norma ribadirvi il concetto espresso nel title, senza però copiarlo esplicitamente. E' consigliabile riprendere il concetto fondamentale contenuto nel testo della pagina e terminare la descrizione con un punto".".
3- Meta tag keywords: è un fattore che negli anni ha perso di efficacia e sembra non influire in maniera considerevole nel posizionamento.
4- URL: l'indirizzo della pagina dev'essere parlante ma senza esagerare. E' bene creare una gerarchia di cartelle contenenti una sorta di rete concettuale nella quale poi inserire la pagina. L'albero delle directory deve contenere le keyword di interesse espresse anche nella description e nel title in modo tale da rafforzare il valore di rilevanza che si vuole dare alla pagina. Da evitare, quindi URL parametriche, o kilometriche (la lunghezza non dev'essere eccessiva).
5- Formattazione codice HTML: i contenuti della pagina devono avere una sorta di struttura gerarchica fornita dai tag <'H'>. In questo modo è possibile dare un peso alle varie informazioni che vengono visualizzate. Nel tag <'h1'> è bene inserire il contenuto del titolo della pagina, e via via a seguire gli <'h2'> per i sottotitoli ecc. La struttura sarà adeguata in base al numero di soggetti e contenuti informativi che la pagina ha.
6- Immagini: per arricchire i contenuti informativi le immagini giocano un ruolo importante. Va detto che per l'inclusione di immagini è buon norma dare un nome del file 'descrittivo', con una breve didascalia nel tag 'alt' per rafforzarne il significato e la rilevanza.
7- Collegamenti esterni: i collegamenti esterni al sito (ovvero gli outbound-link) fanno aumentare la Link Popularity e incrementa la probabilità che quel sito venga più facilmente individuato dai motori o più frequentemente visitato dagli spider. È buona norma link pertinanti all'argomento della pagina e che le pagine di destinazione siano di un livello di pertinenza adeguato.
8- Robots.txt: il file, posizionato nella root directory del web server, contiene delle istruzioni che possono impedire a tutti o alcuni spider il prelievo di alcune o tutte le pagine del sito. E' bene isolare le aree del sito che possono influire in maniera negativa sul posizionamento della pagina. Si può evitare quindi che lo spider attraversi dei file non necessari come i javascript o directory riservate.
Il formato del file dev'essere analogo all'esempio qui riprodotto e dev'essere specificato il nome dello spider da 'comandare' nel campo 'User-agent':

User-agent: googlebot
Disallow: /testi.html
Disallow: /mp3/
9- Sitemap.xml: questo file, introdotto inizialmente dal servizio di ricerca di Google (ora adottato dai principali motori di ricerca quali Yahoo! e Live Search, disegna una sorta di mappa del sito elencando le url delle risorse disponibili.
10- Branding: se il sito da ottimizzare prevede una valorizzazione del brand aziendale occorre introdurre all'interno degli elementi visti al punto 1,2 e 3 un'occorrenza del termine a cui fa riferimento al brand. Il testo va introdotto nella posizione corretta in base alla pagina correlata.
11- Elementi grafici: se il sito contiene al suo interno delle animazioni si consiglia un adattamento della struttura delle pagine per farsì che i filmati flash o le immagini non contengano del testo ad alto impatto per l'ottimizzazione. I testi contenuti, sebbene siano indicizzati nei file swf, non apportano lo stesso contributo in termini di rilevanza rispetto ad un testo ben inserito nella struttura gerarchica della pagina(punto 5).
12- Nome pagina: il nome della pagina html deve avere il nome del title(i punti si possono sostituire con + o _ ).
13- Architettura del sito: l'accessibilità delle informazioni del sito, oltre ad aumentare l'audience degli utenti che dispongono di qualsiasi tipo di strumento di navigazione, favorisce positivamente l'analisi della pagina da parte degli spider.
14- Validazione del codice.

Ovviamente questo piccolo post non ha lo scopo di dare i comandamenti dei SEO, ma è solo un tentativo di organizzare le mie idee ed avere una sorta di procedura ottimale da seguire per l'analisi e l'ottimizzazione.
I fattori da analizzare sono molti di più e magari l'analisi fatta può essere superficiale o non condivisa da tutti.
Sono ben accetti quindi i suggerimenti o i commenti...

:-)

domenica 11 marzo 2007

5 cose 5

Mi concedo anch'io un attimo di riflessione raccontando le 5 famose cose su di me, dopo l'invito di Miriam Bertoli raccolto solo dopo 3 settimane di pieno marasma (tesi + festeggiamenti + sistemazione casa dopo settimane di incuria alle pulizie :-) )

1- faccio le cose con passione, qualsiasi cosa dalla vita universitaria, la vita sentimentale e quella lavorativa(mettiamoci anche il mio piccolo blog) ;

2- ho sempre lo schifosissimo rimpianto di non aver potuto proseguire la mia carriera calcistica...non ero male ma a causa dello studio, del mio trasferimento e di un braccio saltato in una partita di campionato ho mollato...(sigh!!!);

3- non ho un obiettivo preciso dalla mia vita la cosa principale è che tutto ciò che faccio rispetti il punto 1;

4- (molto sentimentale) con il tempo ho scoperto che la mia prima macchinina (una y10 sgangherata) si è rivelata il miglior acquisto che ho fatto nella mia vita...900€ spesi bene :-) Sono sicuro che quando la venderò una lacrimuccia scapperà perchè ne abbiamo fatte veramente tante insieme...e poi chissà che un domani la ricorderò con affetto in un discorso con mio figlio!

5- la quinta cosa??ebbene sì devo ammettere la mia totale dipendenza da Nokia!!!!Senza il mio cellulare mi sento come senza un braccio: è triste da dire ma sono un 'mobile-victim'...

mercoledì 7 marzo 2007

Adwords - test per cambio layout

Nel post di Jacopo Gonzales si parla di prove tecniche per il cambio di layout degli annunci pay-per-click in posizione premium ed in particolare dell'utilizzo di uno sfondo giallo che darebbe maggior risalto all'area dello schermo riservata a questo tipo di annunci.


Questo screenshot fatto da Jennifer Slegg mostra quanto questa soluzione sia d'impatto visivo:

Adwords giallo



Questa soluzione avrà sicuramente il risultato di attirare l'attenzione dell'utenza e fruttare un maggiore CTR(almeno per i primi tempi...).

Dal mio punto di vista però questa soluzione ha più lati negativi che positivi: la conseguenza principale è il cambio di prospettiva che le SERP assumono, i risultati premium infatti assumono il ruolo 'da protagonisti' pur non essendo le informazioni più rilevanti secondo il Page Rank.

Un utente, infatti, si aspetta che il motore di ricerca metta in primo piano le informazioni più rilevanti non i risultati a pagamento e questo potrebbe causare una sorta di perdita di fiducia tra utente e motore di ricerca.

Altro fattore da non escludere è che l'evidenziare in maniera eccessiva i risultati sponsorizzati potrebbe limitare la cosiddetta ‘ad blindness‘ rendendo gli annunci maggiormente riconoscibili.

E' stato dimostrato che molti utenti non conoscono la differenza tra link sponsorizzati ed organici ed è possibile che questa inconsapevolezza giochi a favore dei risultati a pagamento.

Metterli troppo in risalto potrebbe farli uscire un po' troppo allo scoperto....:-)

Trovo che questa layout possa essere un'operazione di trasparenza che non gioverà molto a Google in termini economici...(ma questo è solo una mia piccola considerazione)

martedì 6 marzo 2007

Tecniche di SEO: I robot meta tag

I robot meta tag erano uno standard aperto mediante il quale è possibile impedire l'indicizzazione di un pagina.

Vi è una forma di tag per indicare esplicitamente l'inclusione negli indici dei motori di ricerca:

meta name="robots" content="index"

inoltre è possibile suggerre di seguire i link all'interno della pagina:

meta name="robots" content="index,follow"

anche se va precisato che già di default tutte le pagine, in assenza di informazioni che ne indicano l'esclusione, vengono indicizzate. La pratica è da ritenersi un inutile spreco di tempo.

Analogamente al tag appena descritto vi è la possibilità di evitare l'inclusione negli indici, mediante l'inserimento di questo codice HTML:

meta name="robots" content="noindex"

Questo tipo di pratica, però, non può essere utilizzata per impedire l'accesso agli spider. Essi infatti setacciano periodicamente le pagine nella speranza i meta tag "noindex" siano stati rimossi ed avere il consenso all'indicizzazione della risorsa.

Oltre al "no index" vi sono anche altri tag che si possono inserire per gestire l'indicizzazione della proprie pagine:
  • NOFOLLOW - permette di evitare che lo spider segua i link all'interno della pagina (sempre che le pagine di destinazione non siano puntate da altri link non 'mascherati')
  • NOARCHIVE - serve per consentire o impedire ai motori di eseguire una copia della pagina in questione all'interno della propria memoria cache. I motori effettuano un'immagine della pagina con lo scopo di rendere visualizzabile il documento anche nel caso in cui vi siano problemi temporanei sui vari Server Web. La versione Cache presenta lo stesso layout dell'ultima versione indicizzata dallo spider pertanto potrebbe non contenere gli ultimi aggiornamenti effettuati.
  • NOSNIPPET - Dice ai vari motori di ricerca di non visualizzare la descrizione e la cache nei risultati di ricerca per quella pagina.
  • NOODP - blocca le descrizioni del ODP (Open Directory Project) utilizzate per dare le descrizioni all'interno delle SERP.

Nello schema riassuntivo sottostante sono descritte le compatibilità che hanno i meta tag con i principali motori di ricerca.


ATTRIBUTO Ask Google Microsoft
(info non aggiornate)
Yahoo
NOINDEX
NOFOLLOW
NOARCHIVE utilizzare
NOCACHE
NOCACHE No No No
NOSNIPPET No No No
NOODP No
NOYDIR No No No
Nome del robot TEOMA GOOGLEBOT MSNBOT SLURP




Altra tecnica utilizzata per evitare l'indicizzazione è la funzione Delete URL proposta da Yahoo!.



Per poter evitare l'attraversamento degli spider, invece, non è sufficiente inserire i meta tag ma occorre inserire il file robot.txt appropriato.


In questo schema si possono mettere a confronto le tre tecniche di esclusione:

Tecnica Robots.
txt
Meta
Robots
Yahoo
Delete
URL Option
Elimina Crawling No No
Evita l'inclusione negli indici



Evita i listing dei link
No No
(Sì Google)
Perchè usarlo?
Facile esclusione di molte pagine per volta(dominio)
Se non si può accedere al dominio root
Se si desidera l'esclusione immediata di una pagina

lunedì 5 marzo 2007

Il cloaking

Il cloaking (occultamento) è una tecnica con la quale le richieste riferite ad una stessa URL vengono servite in maniera diversa a seconda dello user-agent che intende visualizzare la pagina.

I motivi per utilizzare questa tecnologia sono molteplici:

  • i visitatori non vedono la pagina presentata ai motori e quindi il codice è lontano da sguardi indiscreti;
  • la pagina data in pasto ai motori di ricerca può essere ottimizzata al massimo per ottenere il miglior posizionamento possibile per le parole chiave d'interesse.
  • migliorare il posizionamento per contenuti meno orientati al posizionamento nei motori di ricerca (Flash, dinamici, ...)
Le tecniche principali utilizzate dagli script per mascherare la pagina reale agli spider sono due:
La prima tecnica ha dei problemi di mantenimento e aggiornamento della lista di indirizzi IP.

La seconda tecnica, invece, ha il difetto che è facilmente aggirabile e il codice nascosto per i motori di ricerca potrebbe essere accessibile senza problemi.

Il cloaking se da un lato risulta essere utile per ottimizzare il posizionamento delle pagine, dall'altro pone una questione importante:

"E' corretto lo spider indicizzi una pagina diversa da quella che l'utente vede?
Il valore di rilevanza della pagina è diverso da quello reale?
Non è una frode?"

domenica 4 marzo 2007

sulla monetizzazione del traffico....

Si parla spesso - ormai - di “professional blogging”, ossia della possibilità di fare del proprio blog uno strumento in grado di produrre reddito.

Leggevo un post a riguardo di Stefano Epifani che faceva riferimento al problema paradossale che contraddistingue l'inserimento delle pubblicità AdSense per trasformare in reddito il traffico del proprio sito.

Questo tipo di problema è evidenziato soprattutto nel caso in cui il sito dove si inseriscono gli annunci contestuali sia di tipo commerciale.

Mi è capitato proprio quest'oggi un caso, come dice Epifani, paradossale: una pagina Web con offerte di viaggi di un portale dedicato con gli AdSense a lato.

Monetizzare il proprio traffico facendo migrare gli utenti verso un altro sito concorrente non mi sembra l'idea migliore, specialmente se l'utente che sta navigando in quel momento nel sito rappresenta un guadagno superiore per l'agenzia di viaggi stessa.

Altro motivo paradossale è che i proventi ottenuti con questo tipo di strumento pubblicitario non sono per niente consistenti al momento e non sono da considerarsi ancora una fonte vera e propria di "reddito".

...forse "monetizzare" un caffè barattondola con la perdita di qualche cliente non è proprio il massimo della stretegia...

Piccoli risultati....

Annuncio con piacere che Venerdì 2 marzo ho conseguito la laurea triennale in informatica con 103/110, punteggio rispettabile tutto sommato. :-)

La tesi e la presentazione sono state giudicate in modo positivo e la soddisfazione più grande è stata avere un certo Massimo Marchiori ad ascoltarmi....non l'ultimo arrivato nel campo del Web.
Ora sicuramente questa laurea non sarà un punto d'arrivo ma uno stimolo per poter migliorarmi sempre di più e crescere sempre e comunque!

Intanto anche il mio piccolo, anzi piccolissimo, blog fa i primi passettini.

Il mio posizionamento per le parole chiave "andrea vit" mi dà al primo posto sui 3 principali motori di ricerca.







Molti di voi diranno "Chi se ne frega"...ma credo che sia il sogno di chiunque digitare il proprio nome e vedere il suo sito al primo posto, no? :-)

Gli effetti di Yahoo Panama

Il 26 febbraio è stato pubblicato un articolo da Com Score Networks sugli effetti dell'introduzione del nuovo algoritmo di ranking e la revisione del sistema pubblicitario di Yahoo! che prende il nome di progetto Panama.

Lo studio analizza il comportamento di 1 milione di utenti Internet statunitensi nelle due settimane immediatamente successive all'introduzione del nuovo sistema ( la settimana del 11 febbraio e del 18 febbraio).

I dati del CTR danno risultati soddisfacenti in quanto il tasso di click sulle impressioni degli annunci vede crescere del 5% nella prima settimana e del 9% nella seconda settimana. (i dati sono rapportati al valore medio del CTR nel periodo "pre-modifiche").


Anche la metricaYahoo! Sponsored Click Composition, che dà la misura del numero di click su link sponsorizzati rispetto a quelli totali slu sito, ha dato buoni risultati.
Dal lancio del nuovo modello nella prima settimana il valore è passato a 10,6% dei click totali (+0.5%) e nella seconda a 11,1% (+1.0%).

Questo studio, sebbene sia prematuro in quanto è stato effettuato a sole 2 settimane dal lancio del prodotto, offre sicuramente degli spunti interessanti per Yahoo! dopo un 2006 turbolento.