Google on ajanut parin viime vuoden aikana kaksi suurta muutosta algoritmeihinsa, jotka vaikuttavat siihen, miten sivustot rankkautuvat toisiinsa nähden hakutuloksissa tietyillä hakusanoilla. Algoritmipäivitykset kantavat nimiä Google Panda ja Google Penguin.
Google Panda -päivitys 2011
Googlen Panda-päivitys julkaistiin ensimmäisen kerran helmikuussa 2011, mutta se otettiin maailmanlaajuisesti käyttöön huhtikuussa 2011. Päivityksen tarkoitus oli alentaa heikkolaatuisten sivustojen näkyvyyttä hakutuloksissa. Google sai pian julkaisun jälkeen paljon kritiikkiä siitä, että Panda näytti suosivan muilta sivuilta sisältöä "lainaavia" ja tekijänoikeuksia rikkovia sivustoja, minkä perusteella se muuttikin algoritmejaan useaan otteeseen.
CNET:in tekemässä tutkimuksessa uutissivustot ja sosiaalisen median sivustot pärjäsivät päivityksen jälkeen parhaiten kun taas paljon mainoksia sisältävät sivustot olivat suurimmat kärsijät.
Google julkaisi toukokuussa 2011 blogipostauksen, jonka tarkoituksena oli auttaa julkaisijoita "astumaan Googlen ajattelutapaan". Hakukoneyhtiö ei luonnollisesti paljastanut algoritmejaan, mutta julkaisi 23-kohtaisen listan kysymyksiä, jotka auttavat hahmottamaan sivuston laatua. Alla muutama kohta listalta:
- Luottaisitko tässä artikkelissa esitettyihin tietoihin?
- Onko artikkelin kirjoittaja alan asiantuntija tai innokas harrastaja, joka tuntee aiheen hyvin?
- Antaisitko luottokorttitietosi tälle sivustolle?
- Sisältääkö artikkeli kirjoitus- tai asiavirheitä?
- Onko artikkeli hyvin kirjoitettu, käsitteleekö se aihetta kattavasti, sisältääkö se tietoa tai analyysejä, jotka eivät ole ilmeisiä?
- Jne. jne.
Google Penguin -päivitys 2012
Google Penguin on Googlen algoritmipäivitys, josta ilmoitettiin ensimmäisen kerran huhtikuussa 2012. Päivityksen tavoitteena oli pudottaa hakutuloksista sivuja, jotka rikkovat Googlen verkkovastaavan ohjeita käyttämällä ns. blackhat-tekniikoita, kuten liiallista avainsanojen käyttöä (engl. keyword stuffing), sisällön piilottamista (engl. cloaking), luonnottomia linkkiprofiileita (engl. link schemes) tai tarkoituksenomaista tuplasisältöä (eng. duplicate content).
Lyhykäisyydessään Google Penguin -päivitys haluaa:
- Sivustoilta laadukasta ja uniikkia sisältöä, joissa käytetään luonnollisia lauseita.
- Että Googlen spiderit eli sisällön indeksoijat näkevät tismalleen saman sisällön kuin luonnolliset käyttäjät.
- Että sivustot eivät yritä manipuloida PageRank-järjestelmää hankkimalla linkkejä spämmäämällä, linkkivaihdolla ("linkitä tänne, niin linkitämme takaisin") tai ostamalla/myymällä niitä.