lunedì 7 maggio 2012

OTTIMIZZAZIONE DEL PROPRIO SITO: TECNICHE SEO


Centro Affiliazione

da Wikipedia
Con il termine ottimizzazione (Search Engine Optimization, SEO, in inglese) si intendono tutte quelle attività finalizzate ad aumentare il volume di traffico che un sito web riceve dai motori di ricerca. Tali attività comprendono l'ottimizzazione sia del codice sorgente della pagina, sia dei contenuti. L'ottimizzazione è parte di un'attività più complessa, quale il marketing dei motori di ricerca (Search Engine Marketing, SEM). L'attività di ottimizzazione per i motori di ricerca comprende varie operazioni tecniche che vengono effettuate sul codice HTML (incluso il markup) e sui contenuti delle pagine del sito web, nonché sulla struttura ipertestuale complessiva (tecnologie di interazione comprese). La figura professionale specializzata in ottimizzazione è il SEO (search engine optimizer, ottimizzatore per i motori di ricerca - che ha il medesimo acronimo dell'attività che svolge). In siti di dimensioni elevate, o particolarmente complessi, il SEO resta in stretto contatto con il team di lavoro, necessitando a seconda degli elementi trattati di specifiche professionalità che difficilmente possono ricadere in una singola persona. L'ottimizzazione di un sito è funzionale al suo posizionamento nelle pagine di risposta dei motori, che a sua volta è funzionale alla visibilità dei prodotti/servizi venduti.

BUONE PRATICHE:
Per quanto riguarda la struttura HTML, è buona norma:
  • Inserire i contenuti importanti all'inizio del codice HTML;
  • Usare I tag HTML il più possibile attinenti alla struttura dei contenuti presentati (semantico) e verificare sempre che il codice delle pagine sia formalmente valido[1]. Può essere utile confrontarsi con le specifiche WCAG[2] per rendere i contenuti meglio "accessibili" anche per i crawler;
  • Differenziare opportunamente i titoli delle varie pagine di un sito, renderli chiari e coerenti con il contenuto della pagina: dovrebbero contenere le parole chiave di maggior peso;
  • Evitare di inviare informazioni incontrollate o inutili (potenzialmente dannose) tramite tag <meta>: i browser le ignorano, i crawler no;
  • Evitare l'utilizzo di JavaScript per gestire la navigazione, perché il crawler non interpreta gli script e non seguirà questi collegamenti. Usare invece collegamenti standard inserendo tag <a> con l'attributo <href>. I browser delle ultime generazioni non avranno problemi a gestire link contenenti sia un indirizzo in href che una chiamata a JavaScript in un gestore di evento onClick: se quest'ultima è ritenuta indispensabile, è possibile inserirla ed essa verrà eseguita invece del collegamento vero e proprio. È importante ricordarsi di inserire comunque anche il collegamento tramite l'attributo href, a beneficio di browser non standard, browser accessibili, e crawler.
Riguardo alla gestione del server e degli URL, invece, è opportuno:
  • Possibilmente, scegliere anche l'URL della pagina in modo che contenga le parole chiave più probabili, ovvero che sia descrittivo e possibilmente somigliante al titolo della pagina stessa;
  • Evitare se possibile l'invio di parametri per un'eventuale applicazione lato server tramite l'inserimento di un'interrogazione (query) nell'URL della pagina, ossia la presenza di coppie parametro=valore dopo un punto di domanda, dopo l'indirizzo della pagina (http://www.sito.it/percorso/pagina?parametri=valori). Alcuni motori di ricerca scaricheranno e indicizzeranno solo la pagina base, senza tener conto della query;
    • inoltre, se l'interrogazione contiene informazioni specifiche sulla sessione (per esempio Session ID, che cambiano per ogni visitatore) nemmeno Google ottiene un URL univoco per la pagina, e può trarne le più disparate conclusioni negative. Per questo tipo di informazioni è opportuno usare i cookie[3];
  • Evitare l'utilizzo di redirect non HTTP (attraverso tag <meta http-equiv="refresh">), perché non è detto che il motore di ricerca li segua. È anche diffusa l'idea che la loro presenza possa penalizzare il ranking di una pagina[4]. Attuare invece ogni redirezione con una risposta HTTP di reindirizzamento (codici 3xx); inoltre, ogni redirezione effettuata tramite tag <meta http-equiv="refresh"> è contraria ai paragrafi 7.4 e 7.5 delle WCAG 1.0[2];
  • Evitare se possibile di servire contenuti differenziati ai crawler (Cloaking) tentando di riconoscerne la stringa di User agent o l'IP del bot che scansiona le nostre pagine. È una pratica potenzialmente dannosa che espone (in casi estremi) al rischio concreto di cancellazione dagli indici dei motori e nella maggior parte degli altri casi ad una mancata valorizione delle pagine interne di un sito; qualora questo non fosse possibile per ragioni tecniche ( per esempio fornire dei contenuti statici di un sito realizzato interamente in Flash), ma fosse necessario implementare una staticizzazione dei contenuti, è preferibile gestirla client-side, mediante l'uso di cookie di sessione.
PER SAPERNE DI PIU', CLICCA QUI.

ISCRIVITI GRATIS AL NOSTRO CORSO.

Corso Guadagnare con le Affiliazioni

Nessun commento:

Posta un commento