Google
 
BuscaPé, líder em comparação de preços na América Latina

sábado, 21 de abril de 2007

Problemas com o Algoritmo do Google | SEO

Google SEO Algoritmo Problemas

Você notou qualquer coisa diferente com Google?

Nós webmasters temos certamente, e se recentes conversas em foros de SEO for um indicador, nós estamos muito frustrados! Durante os últimos dois anos, Google introduziu uma série de mudanças nós filtros de seu algoritmo e que conduziram a resultados imprevisíveis na máquina de procura, enquanto derrubando as posições de muitos (non-spamming) sites limpos na web.

As mudanças do algoritmo do Google iniciadas em Novembro de 2003 com a atualização “Flórida”, agora foi lembrada como um evento legendário entre a comunidade de webmasters. Isto foi seguido pela Austin, Conhaque, Uísque, e atualizações de Jagger. As atualizações do Google aconteciam mensalmente; eles são levados a cabo agora trimestralmente. Mas com tantos servidores, aparecem vários resultados diferentes que rolam qualquer hora pelos servidores durante um quadrimestre.

BigDaddy, a mais recente atualização do Google, é em parte culpado. Acredita-se estar usando uma arquitetura de64-bit, BigDaddy é uma atualização da infra-estrutura do Google tanto quanto uma atualização de seu algoritmo de procura. Páginas perdem as primeiras posições e derrubam à 100ª página, ou pior ainda, o índice Suplementar!

Os problemas do algoritmo do BigDaddy entram em quatro categorias: assuntos canônicos, assuntos de conteúdo duplicados, a Caixa de areia (SandBox), e assuntos de página suplementares.

1. Assuntos canônicos. Estes acontecem quando uma máquina de procura trata www.seudominio.com, seudominio.com, e seudominio.com/index.html como sites na web diferentes. Quando Google faz isto, sinalizam as cópias diferentes como conteúdo duplicado, e os penalizam. Se seudominio.com não é penalizado e todos os outros sites apontam para seu site usando www.seudominio.com, então a versão partida no índice não terá nenhuma posição. Estes são assuntos básicos que outras máquinas de procura principais, como o Yahoo e MSN, não têm nenhum problema. A reputação do Google como a maior máquina de procura do é impedida por sua inabilidade para solucionar assuntos básicos de indexação.

2. A Caixa de areia. Acredita-se que Google programou uma penalidade de tempo para links novos e sites antes de marcar o índice completamente, baseado na presunção que não podem ser criados sites da Web de 100,000-página durante a noite. Certos sites na web, ou links para eles, são "sandboxed" para um período de tempo antes de ser determinado um Full Rank no índice. Especulação é isso só um jogo de palavras chaves competitivas é sandboxed. Uma lenda no mundo de máquina de procura, a existência da Caixa de areia foi debatida, e ainda será confirmado pelo Google.

3. Assuntos de Conteúdo duplicados. Desde que páginas na web dirigem posições de máquina de procura, Chapéu Preto (black Hat) SEOs começaram a duplicar o conteúdo de sites na web inteiros debaixo do próprio domínio, enquanto produzindo uma tonelada de páginas na web imediatamente. Devido a este abuso, Google atacou conteúdos duplicados agressivamente com uma atualização no algoritmo, enquanto colocando para fora muitos site Web legítimos como dano colateral no processo. Por exemplo, quando alguém copiar seu site, Google olhará para ambas as capitulações do site, e em alguns casos pode determinar o legítimo por ser a duplicata. O único modo para prevenir isto é achar as copias dos sites e então submetem relatórios de spam ao Google. Assuntos com conteúdo de duplicata também surgem porque há muitos usos legítimos para eles. Feeds de notícias são o exemplo mais óbvio: uma história de notícias é coberta por muitos sites da Web porque é o conteúdo que os leitores querem ver. Qualquer filtro pegará alguns usos legítimos inevitavelmente.

4. Assuntos de Página suplementares. "Inferno suplementar" para webmasters, o assunto tem espreitado em sites como Webmasterworld por durante um ano, mas em fim de fevereiro (coincidindo com o rollout de BigDaddy contínuo) que finalmente conduziu a todo o inferno que arromba a comunidade de webmaster. Você pode estar atento que Google tem dois índices: o índice principal que é o que você vê quando você procurar; e o índice Suplementar, um cemitério onde são postas páginas velhas, errôneas e obsoletas para descansar (entre outros). Ninguém está discutindo a necessidade por um índice Suplementar, provê uma causa merecedora realmente. Mas quando você é enterrado vivo, é outra história! Que é exatamente o que é acontece: páginas ativas, recentes, e limpas têm se aparecido no índice Suplementar. A verdadeira natureza do assunto está obscura, nem tem uma causa comum conduzindo a isto sido determinado.

As atualizações mensais do Google, uma vez bastante previsível, eram antecipadas através de webmasters com alegria e ânsia. Google seguiu um algoritmo bem publicado que deu para cada página na web um Grau de Página (uma posição numérica baseado no número e grau das páginas na web que apontam a isto). Quando você procurou um termo, Google ordenou todas as páginas na web que foram julgadas pertinentes a sua procura pelo Grau de Página. Vários fatores foram usados para determinar a relevância de páginas, inclusive densidade de palavra chave, títulos de página, meta tags, e tags de cabeçalho.

Este algoritmo original favoreceu links entrantes que usaram palavras chaves selecionadas como texto de âncora. Quanto mais sites que apontavam ao seu usando texto de âncora rico em palavras chaves, melhor seu grau de procura para essas palavras chaves. Como o Google se tornou a força de procura dominante da década, os donos de sites lutaram por posições altas em seu SERPs. A liberação do programa de Adsense do Google fez isto muito lucrativo para esses donos de sites que ganharam: se um site enfileirasse altamente para uma palavra chave popular, eles poderiam correr anúncios do Google debaixo de Adsense, e dividir a renda com o Google! Isto conduzido a uma epidemia de SEO nunca vista antes pelo mundo dos webmasters.

A natureza dos links entre sites na web. Webmasters acharam que se referindo links nos site da não só pudessem reduzir as próprias posições de máquina de procura, mas impulsiona esses como bem dos competidores. O algoritmo do Google trabalha até certo ponto por meio de links aumentando o Page Rank do site, enquanto links de partida de suas páginas na web para outros sites na web reduzem seu PR. Tentativas para impulsionar as posições de página para site da Web conduzida a pessoas que criam link farms, enquanto participando em sociedades de links recíprocos, e comprando e vendendo links. Em vez de usar links para prover conteúdo de qualidade para as visitas, webmasters incluíram links agora para apoiar PRs e para ganho monetário.

Isto conduziu a um abuso de links por atacado de sites na web. Chapéus pretos SEOs poderiam combinar o conteúdo de um site inteiro com o anúncio do Google, e alguns links entrantes, produzirem posições de página altas e gerar renda do Adsense do Google --tudo sem prover qualquer conteúdo de site! Atento das manipulações que estavam acontecendo, Google alterou os algoritmos agressivamente para prevenir isto. Assim começado o jogo de gato-e-rato que se tornou o algoritmo do Google: em ordem para lista negra os sites duplicados assim eles pudessem proporcionar para os usuários a procura mais pertinente, às vezes o algoritmo atacou o local original em vez do copiado.

Isto conduziu a um período de atualizações instáveis que causaram muitos altos e baixos, ou como muitos estão chamando “O efeito Io-io”, sites na web autênticos derrubados. A maioria dos usuários finais podem não perceber isto por ser um problema. Até onde eles estão preocupados, o trabalho do Google é prover as inscrições mais pertinentes para a procura que ainda faz. Por isto, o problema não fez um impacto principal imediato no Google. Porém, se o Google continuar produzindo resultados não intencionais, lentamente mas seguramente, problemas aparecerão. Como escalam estes problemas, a comunidade de webmaster perderá fé no Google, enquanto se tornando vulnerável para a competição crescente.

Webmasters são os peritos de palavra-de-boca; e corre os sites na web que usam o programa de Adsense do Google. Flutuações no ranking fazem parte do negócio da internet, e a maioria dos webmasters percebe isto, nós simplesmente estamos chamando o Google para fixar os bugs que incorretamente arrebatam as posições corretas de nossos site da Web.

Claro que, nós entendemos que a razão que os bugs apareceram por começar porque nem todos os webmasters são inocentes. Alguns violaram as diretrizes dispostas pelo Google, e continuam fazendo assim. Nós apoiamos as necessidades do Google para lutar contra o spam e Chapéu Preto de SEO, e aceitamos que não é nenhuma tarefa fácil provavelmente.

Nós não esperamos que Google revelasse o algoritmo, ou as mudanças que foram feitas a isto. Mas determinado o impacto que as posições do Google estão usando, nós webmasters gostaríamos de ver mais comunicação ao redor dos assuntos conhecidos, e poder ajudar como identificar o algoritmo futuro, em lugar de especular.

Os mais recentes destas especulações sugerem que Google esteja olhando atualmente para atributos como a idade de um nome de domínio, o número de sites na web de mesmo IP, e freqüência de conteúdo fresco para formar os resultados de procura. Como webmasters, nós apreciaríamos a habilidade por informar bugs potenciais ao Google, e receber umas respostas a nossa avaliação.

Afinal de contas, só não está nos melhores interesses do Google ter um algoritmo bug-free. No final das contas, isto proverá a melhor resultado nas procuras para todo o mundo.

Nenhum comentário: