Kā patiesībā darbojas Google meklēšanas algoritms? Šajā rakstā apkopoti 17 svarīgākie SEO fakti, kas palīdz saprast, kas ietekmē jūsu mājaslapas pozīcijas Google rezultātos — no lietotāju uzvedības līdz saišu nozīmei un domēna vērtējumam.
- Neviens nezina Google algoritmu
- Neviens nezina, kā visi algoritma faktori tiek pielietoti un ar kādu svaru
- Lietotāju uzvedība, apkopoti uzvedības dati un mašīnmācīšanās ir vieni no efektīvākajiem veidiem, kā noteikt satura noderīgumu
- Vecais princips par saitēm kā “balsojumiem” joprojām ir svarīgs, jo tas veicina satura sasaisti un veido plašāku, stiprāku tīmekli, kuru meklētājprogrammas var pārmeklēt — tas ir stimuls šo principu saglabāt
- Saites joprojām tiek vērtētas ar Google PageRank sistēmu
- DR/DA/TF/CF un citi līdzīgi saīsinājumi netiek izmantoti reitingu aprēķinā — tie ir tikai SEO rīku rādītāji, kurus var viegli manipulēt
- Saites lapas prognozētā trafika un domēna potenciāls ir labāki rādītāji, lai novērtētu iespējamo saišu ietekmi
- Core Web Vitals (pamata tīmekļa rādītāji), visticamāk, nav tieši reitinga faktori, bet lēnas lapas vai slikta ielāde var izraisīt negatīvu lietotāja uzvedību, kas ietekmē uzvedības datus (skat. 3. punktu)
- Jauniem domēniem bieži novērojams ātrāks reitinga pieaugums, ja Google vēl nav uzvedības datu — tāpēc jaunas vietnes dažkārt īslaicīgi parādās augstu konkurējošos rezultātos, bet pēc tam tās tiek “koriģētas” un pazeminātas, līdz tās uzkrāj reitingu (piem., saites, trafiku caur “long tail” meklējumiem utt.)
- Eksistē “vecie domēni” (“old boys”), kas pārkāpj loģiku SERP rezultātos — tie parasti ir seni domēni (dažreiz EMD – precīzas atbilstības domēni), kas turpina ierindoties augstu, pat ja neatbilst ierastajiem SEO principiem
- EMD (exact match domains) joprojām ir spēcīgi, īpaši apvienojumā ar saitiem no autoritatīviem avotiem (HARO u.tml.), kur zīmola enkursatur atslēgvārdus
- Google Helpful Content Update (HCU) šķiet kā daudzslāņains algoritms, kur zīmola autoritāte var kompensēt zaudējumus, bet viss, kas nokrīt zem “kvalitātes sliekšņa”, var tikt nomākts — tas var radīt situāciju, kad vietne iestrēgst un nevar piesaistīt jaunu trafiku, lai uzvedības dati tiktu analizēti
- Google spēj apstrādāt JavaScript, bet tas ir neefektīvi — Google nevar mijiedarboties ar to, kas tiek ielādēts pēc lapas renderēšanas. Vietnēm, kas izmanto JS, lai dinamiski ielādētu saturu, var būt problēmas ar pārmeklējamību un indeksēšanu
- Google tagad indeksē ievērojami mazāk satura — tiek izmantota “pirmās pārbaudes indeksēšana” (first pass indexing), kad tiek novērtēts, vai vispār ir vērts indeksēt saturu
- Google nav nepieciešams HTML parsējums, lai iegūtu saturu — tas izmanto DOM parsēšanu
- Pārāk gari virsraksti/apraksti nav problēma, ja lapa uzrāda labu CTR (klikšķu biežumu). Google var tos pārrakstīt, un apcērtšana var neietekmēt rezultātu
- Samazinot indeksējamo lapu apjomu, fokusējoties uz mazāk “tukša satura” un vairāk vērtīga satura, ir mazāka iespēja radīt negatīvus uzvedības signālus, kas varētu likt Google domāt, ka vietne nav noderīga