• Regolamento Macrocategoria DEV
    Prima di aprire un topic nella Macrocategoria DEV, è bene leggerne il suo regolamento. Sei un'azienda o un hosting/provider? Qui sono anche contenute informazioni per collaborare con Sciax2 ed ottenere l'accredito nella nostra community!

Perchè è importante l'Ottimizzazione del proprio sito

Dade.

Utente Strepitoso
Autore del topic
12 Settembre 2007
5.733
0
Miglior risposta
0
Con il termine SEO (Search Engine Optimization in inglese) è un tipo di prodotto che possiamo trovare a pagamento per diverse Piattaforme o CMS il seo ha la funzione di aumentare il traffico degli Spider per far si che il proprio Sito Web sia meglio indicizzato nei motori di ricerca,posso farvi un esempio concreto ( Pinco scrive su Google un argomento che rientra nel vostro forum ) troverà nelle SERP ( Risultati di ricerca ) il vostro sito e quindi avrete una visita in più.
L'ottimizzazione per Google
Google da non molto tempo ha inserito una nuova Lettura per il vostro sito web cioè il Pagerank che sarà la valutazione precisa del indicizzazione nel motore ricerca di Google per esempio se abbiamo Argomenti totalmente diversi da altri Google sarà sempre pronto a puntare su di voi !
Buone pratiche per l'ottimizzazione delle pagine ( Wikipedia )
Per quanto riguarda la struttura HTML, è buona norma:

  • Inserire i contenuti importanti all'inizio del codice HTML;
  • Usare I tag HTML il più possibile attinenti alla struttura dei contenuti presentati (semantico) e verificare sempre che il codice delle pagine sia formalmente valido. Può essere utile confrontarsi con le specifiche WCAG per rendere i contenuti meglio "accessibili" anche per i crawler;
  • Differenziare opportunamente i titoli delle varie pagine di un sito, renderli chiari e coerenti con il contenuto della pagina: dovrebbero contenere le parole chiave di maggior peso;
  • Evitare di inviare informazioni incontrollate o inutili (potenzialmente dannose) tramite tag <meta>: i browser le ignorano, i crawler no;
  • Evitare l'utilizzo di JavaScript per gestire la navigazione, perché il crawler non interpreta gli script e non seguirà questi collegamenti. Usare invece collegamenti standard inserendo tag <a> con l'attributo <href>. I browser delle ultime generazioni non avranno problemi a gestire link contenenti sia un indirizzo in href che una chiamata a JavaScript in un gestore di evento onClick: se quest'ultima è ritenuta indispensabile, è possibile inserirla ed essa verrà eseguita prima del collegamento vero e proprio[senza fonte]. È importante ricordarsi di inserire comunque anche il collegamento tramite l'attributo href, a beneficio di browser non standard, browser accessibili, e crawler.
  • Riguardo alla gestione del server e degli URL, invece, è opportuno:
  • Possibilmente, scegliere anche l'URL della pagina in modo che contenga le parole chiave più probabili, ovvero che sia descrittivo e possibilmente somigliante al titolo della pagina stessa;
  • Evitare se possibile l'invio di parametri per un'eventuale applicazione lato server tramite l'inserimento di un'interrogazione (query) nell'URL della pagina, ossia la presenza di coppie parametro=valore dopo un punto di domanda, dopo l'indirizzo della pagina (
    Perfavore, Entra oppure Registrati per vedere i Link!
    ). Alcuni motori di ricerca scaricheranno e indicizzeranno solo la pagina base, senza tener conto della query;
  • o inoltre, se l'interrogazione contiene informazioni specifiche sulla sessione (per esempio Session ID, che cambiano per ogni visitatore) nemmeno Google ottiene un URL univoco per la pagina, e può trarne le più disparate conclusioni negative. Per questo tipo di informazioni è opportuno usare i cookie];
  • Evitare l'utilizzo di redirect non HTTP (attraverso tag <meta http-equiv="refresh">), perché non è detto che il motore di ricerca li segua. È anche diffusa l'idea che la loro presenza possa penalizzare il ranking di una pagina. Attuare invece ogni redirezione con una risposta HTTP di reindirizzamento (codici 3xx);
  • o inoltre, ogni redirezione effettuata tramite tag <meta http-equiv="refresh"> è contraria ai checkpoint 7.4 e 7.5 delle WCAG 1.0;
  • Evitare assolutamente di servire contenuti differenziati ai crawler (Cloaking) tentando di riconoscerne la stringa di User agent o l'IP del bot che scansiona le nostre pagine. È una pratica dannosa che espone al rischio concreto di cancellazione dagli indici dei motori;
  • Implementare i file robots.txt e sitemap.xml per indicare ai crawler dei motori di ricerca quali contenuti indicizzare e quali escludere dal processo di indicizzazione.
Articolo creato da me :emoji_smiley: Buone pratiche per l'ottimizzazione delle pagine è stato preso da Wikipedia !
 
Riferimento: Perchè è importante l'Ottimizzazione del proprio sito

Bella spiegazione, complimenti!:banana: