Cloaking è il male? - Profitto cacciatore

Cloaking è il male? - Profitto cacciatore Prima di leggere l'articolo di Rand Fishkin su SEOmoz, ho pensato che cloaking in qualsiasi forma fosse un metodo di promozione eccezionalmente nero che puoi ottenere da Google onniveggente e onnisciente. Ma mi sbagliavo (che, in generale, non è affatto sorprendente). Non avevo proprio il senso di collegare la caratteristica principale del cloaking - l'emissione di contenuti diversi per cercare bot e utenti ordinari - a siti bianchi che uso ogni giorno.

* Questo post sarà interamente dedicato a vari tipi di cloaking e a quelli che Google tollera e che non tollera. Non ci saranno "temi" qui, solo informazioni interessanti per espandere il seo-outlook.

Ecco una lista non debole di siti Web deboli che usano con successo il cloaking per i propri scopi:

  • Google (sì, è il massimo). Cerca i servizi Google di Google come google translate , adwords , adsense , ecc. E vedi quali URL dà motore di ricerca Ora vai al link e vedi come viene trasformato l'indirizzo della pagina. Inoltre, il contenuto della pagina di destinazione è a volte diverso da quello memorizzato con la cache, indipendentemente dal fatto che tu abbia effettuato l'accesso Google o no.
  • NYTimes. Com . Pagine pubblicitarie incorporate, un invito per accedere / registrarsi sul sito dopo 5 clic, archiviare i dati - una persona lo vede diversamente dai robot di ricerca.
  • Forbes. Com In questo sito, è impossibile anche guardare la pagina principale senza prima aver visto la pubblicità su un mezzo schermo. Le pagine in cache sono spesso diverse da ciò che le persone vedono sul sito.
  • Vino. com . Anche se non si prendono in considerazione i reindirizzamenti, ogni utente prima di guardare i prezzi (come, per inciso, la pagina), deve scegliere lo stato. È difficilmente richiesto dai bot di ricerca.
  • WebmasterWorld. com . Questo sito è stato uno dei primi a introdurre la pratica (ormai generalmente accettata) di pochi clic gratuiti sul sito, dopo di che c'è una proposta per aderire al sito. Ma questo non è applicabile ai robot di Google.
  • Yelp. com . Uso attivo del targeting geografico basato sui cookie.
  • Amazon. com . Grazie ai cookie e ai dati delle visite precedenti, Amazon può variare, ad esempio, il problema dei prodotti consigliati.
  • iPerceptions. com . In effetti, il sito non utilizza il cloaking, ma il pop-up sul sito è visibile solo da quei computer in cui i browser supportano i cookie (e non solo su questo sito, ma anche su un centinaio di altri). per non parlare del fatto che il sito appartiene a uno dei dipendenti di Google.
  • ComputerWorld. com . Se tu fossi un bot, non vedresti mai gli annunci su tutto lo schermo, i popup e persino alcuni javascript che funzionano solo quando una persona reale visita il sito.
  • Scribd. com . La macchina vede sul sito solo html-text. L'uomo vede ciò che vede.
  • Nike. com . Google mostra che il sito è composto da oltre un milione e mezzo di pagine. Ma per qualche ragione tutte queste pagine iniziano con lo stesso film in flash.
  • Wall Street Journal . Il bot di Google non vede affatto il link pagamento per accedere a , dopo il primo paragrafo, su alcuni articoli sul sito.

Questa lista può continuare all'infinito, ma l'essenza è chiara senza: il cloaking non è sempre malvagio , specialmente se sei:

  • di grandi dimensioni e in tutto il mondo marchio famoso; o
  • maschera le pagine in modo che non solo i robot di ricerca ma anche i visitatori dal vivo del sito ne traggano vantaggio.

Ecco una classificazione dei tipi di occultamento da Rand Fishkin:

1. Crystal white :

  • Metodi consentiti: riconoscimento dei cookie, javascript.
  • Obiettivo: ottimizzare le pagine di destinazione, fornire contenuti agli utenti registrati.

Sullo stesso SEOmoz c'è un abbonamento a pagamento, il cui contenuto è visibile solo ai suoi membri. Tecnicamente, i bot di ricerca e alcuni visitatori vedono cose diverse, ma sono tutti basati sui cookie e eseguiti in stretta conformità con i requisiti dei motori di ricerca.

2. Quasi bianco :

  • Trucchi consentiti: tutti sopra + Agente utente.
  • Scopo: targeting geografico, determinazione del tipo di browser, minimizzazione del traffico verso i robot.

Geo-Targeting si dilata in Craigslist. org. I rappresentanti di Google hanno dichiarato apertamente che fino a quando Craigslist mostra ai robot le stesse pagine dei visitatori, questo comportamento del sito non viola le regole. Solo qui i bot vedono le pagine sbagliate che i visitatori - logicamente non dovrebbero vederli, perché il bot ha bisogno di alimentare tutti i contenuti del sito, e non solo gli annunci sotto New York o San Francisco. Tuttavia, una tale violazione delle regole non porta a conseguenze gravi, perché, in linea di massima, sia gli utenti sia i motori di ricerca ottengono ciò di cui hanno bisogno.

3. Leggermente grigio :

  • Trucchi consentiti: qualunque cosa sia sopra, + Agente utente / visualizza le informazioni sull'indirizzo IP.
  • Obiettivo: reindirizzare il peso del collegamento a pagine simili, visualizzare il contenuto nascosto.

Sui siti in cui sono posizionati articoli di grandi dimensioni, di solito ci sono link come "leggi l'articolo" o "stampa l'articolo", ecc. Nello stesso spirito. Quando diversi link da diverse fonti (blog, siti social) appaiono su queste versioni dello stesso articolo, i motori di ricerca iniziano a indicizzarli e penalizzano i contenuti duplicati. Per evitare ciò, i reindirizzamenti 301 secondari vengono inseriti nei collegamenti secondari e quindi l'intero peso di riferimento viene inviato all'articolo stesso. Ma ancora una volta, nonostante la violazione delle regole, questo metodo avvantaggia sia i visitatori (passano all'articolo originale) sia i motori di ricerca (Yahoo e MSN hanno ancora problemi con la definizione di contenuto duplicato). Cioè, i siti autorevoli per questo certamente non minacciano nulla.

4. Grigio scuro :

  • Trucchi ammessi: tutti.
  • Scopo: mostrare contenuti meno ottimizzati, reindirizzare il peso di riferimento alle pagine di sinistra.

Alcuni affiliati, invece di reindirizzare il peso di riferimento dai link di affiliazione alle pagine in cui dovrebbero condurre, reindirizzarlo a pagine che devono essere alimentate con collegamenti e avanzate nel problema. Tali gesti sono molto vicini ai metodi neri, quindi i motori di ricerca sono puniti per questo.

5. Nero :

  • Trucchi ammessi: tutti.
  • Scopo: mostrare il contenuto che non corrisponde affatto alla query di ricerca.

Qui, Rand fornisce un esempio di come ha inserito la query inurl: sitemap nella ricerca. xml e al nono posto nel numero trovato il link www. acta-endo. ro / new / viagra / sitemap. xml. html, che lo ha portato ... ma tu sai dove conducono tali link Per questo, i motori di ricerca vietano i siti non appena vengono trovati.

Conclusione: Tutto ciò che è bianco o leggermente grigio è accettato dai motori di ricerca con il botto, nonostante le dichiarazioni pubbliche di alcuni capi parlanti, poiché non viola gli interessi delle parti. Per tutto il resto banyat.

Voci correlate:

  • Mentre chiami una nave, sarà mobile
  • Strumenti utili per studiare il pubblico di destinazione del sito
  • Metodo di ferro per aumentare il traffico di ricerca
  • 10 modi per aumentare rapidamente il traffico del blog

Ti piacciono gli articoli? Iscriviti alla newsletter!

Ricerca

articoli Correlati