januar 27, 2022

den organiske digitale Blog

dette er et blogindlæg på to (store) sider – live-og iscenesættelsessider:

Del 1: Sådan kontrolleres, om Google har indekseret din Live-side

Del 2: Sådan kontrolleres, om Google har indekseret din iscenesættelse/testside

Hvordan kan jeg se, Om Google har indekseret mit Live site?

der er to enkle måder at finde ud af:

brug siden: forespørgselsoperatør

Søg efter dit domæne på Google som følger: site:organicdigital.co
hvis din hjemmeside er indekseret, vil du se en liste over sider:

site forespørgsel operatør

hvis ingen resultater returneres, så kan du have problemer:

site forespørgsel operatør uden resultater

Bemærk: På større sider, mens du vil se en tilnærmelse af, hvor mange sider der er indekseret, vil du kun kunne se omkring 300 af dem i SERP ‘ erne.

Tjek Dækningsafsnittet i Google Search Console

hver hjemmeside skal have GSC-konto, det er efter min mening det største værktøj, en sideejer eller SEO kan bruge og giver et væld af oplysninger om din sides organiske synlighed og ydeevne. Hvis du ikke har en, skal du gå til den officielle GSC-side, hvis du gør det, gå til Dækningsafsnittet, hvor du kan se en oversigt over:

  • fejl, der opstår under gennemsøgning af sider
  • sider, der er blokeret
  • gyldige indekserede sider
  • sider, der er ekskluderet
GSC dækning rapport

hvis din hjemmeside har problemer, vil disse blive rapporteret under “fejl ” eller” ekskluderet ” – og du kan finde ud af årsagerne til, at de ikke er inkluderet i søgningen, såsom:

  • alternativ side med korrekt kanonisk tag
  • gennemsøgt – i øjeblikket ikke indekseret
  • duplikat uden brugervalgt kanonisk
  • ekskluderet af ‘noindeks’ tag
  • gennemgå anomali
  • ikke fundet (404)

hvis din sides sider ikke vises i afsnittet” gyldig”, kan du have problemer.

brug URL-Inspektionsfunktionen i GSC

hvis nogle sider er indekseret, og andre ikke er det, kan du også bruge URL – Inspektionsværktøjet til at se, Om Google er i stand til at gennemgå og indeksere en bestemt side, eller hvis der er andre problemer, der forhindrer, at den vises i søgningen-dette er i topmenuen og giver dig mulighed for at kontrollere en URL ad gangen:

GSC URL Inspect Tool

hvis din side er indekseret, vil den give detaljer som følger:

GSC indekseret sidedata

hvis ikke, får du denne status, der viser, hvornår Google har forsøgt at gennemgå siden og noget indblik i, hvorfor det ikke er indekseret:

GSC ikke indekseret sidedata

Hvorfor vil Google ikke gennemgå eller indeksere Mine Sider?

der er generelt to grunde til, at en side hverken kan gennemsøges eller indekseres. Disse er især almindelige, når et nyt sted er lanceret eller migreret, og indstillingerne fra udviklingsmiljøet er overført.

robotterne.7464 >

det er her stedet, en mappe eller en side er blokeret fra at blive gennemsøgt af robotterne.tekstfil.

hvert sted skal have en robotter.denne fil bruges til at give direktiver til søgemaskiner om, hvilke dele af din hjemmeside bør og bør ikke gennemsøges.

hvis du har en, finder du den i din rodmappe under navnet robotter.TST

https://organicdigital.co/robots.txt

direktiverne, der forhindrer, at et sted, en mappe eller en side gennemsøges, ville være som følger:

Disallow: /Disallow: /directory/Disallow: /specific_page.html

du kan også bruge Screaming Frog til at forsøge at gennemgå din hjemmeside. Hvis det ikke er muligt, kan du se følgende gennemsøgningsdata:

Screaming Frog Robots Issue

der er mange gyldige grunde til at blokere søgemaskiner ved hjælp af dette direktiv, men hvis du ser noget i retning af ovenstående, skal du ændre disse for at tillade gennemsøgning af dit site.

Sådan ændres en Robotter.hvis du har adgang til FTP eller har en udvikler ved hånden, kan du manuelt ændre robotterne.for at fjerne eventuelle direktiver, der blokerer din hjemmeside fra gennemgang.

generelt vil følgende kommando gøre dette:

User-agent: *Allow: /

Sådan ændres en Robotter.

hvis du har Yoast-pluginet installeret, kan du redigere din fil direkte via afsnittet Værktøjer – > fileditor-Følg dette link for at få instruktioner om, hvordan du gør dette.

 Yoast robotter.teksteditor

Sådan ændres en robot.tekstfil i Magento

gå til indhold -> Design -> konfiguration, klik ind i din relevante Butiksvisning og rediger “Search Engine Robots”

Magento Robots indstillinger

Robots metatag er indstillet til Noindeks og/eller Nofølg

ud over robotterne.du kan også tjekke robotternes metatag i din hjemmesides kildekode og sikre, at det ikke forhindrer søgemaskiner i at kravle.

hvis du tjekker din kildekode, hvis du ikke kan se et robots metatag, eller det er indstillet til “indeks” eller “indeks, følg” – så er dette ikke problemet. Men hvis du ser at der står “nej”, betyder det, at din side kan gennemsøges, men vil ikke blive indekseret:

tag i kildekoden

igen kan du bruge Screaming Frog til at kontrollere status for dine robotter tags på din hjemmeside. Hvis dit tag er indstillet til noindeks,nrfølg, at det ikke kommer ud over startsiden:

issue

hvis det bare er indstillet til noindeks, kan hele siden stadig gennemsøges, men ikke indekseret:

Screaming Frog Robots Noindeks/Nofllu problem

Sådan ændres Robots Meta Tag-filen manuelt

igen, få adgang til din sides side/skabelon direkte og erstat / tilføj følgende tag:

<meta name="robots" content="index, follow">

der er to måder at gøre dette på – hvis problemet er bredt, gå til Indstillinger – > læsning og sørg for, at “afskrække søgemaskiner fra indeksering af dette sted” ikke er markeret:

Jeg kan være forkert, men jeg tror, at den eneste måde, en bestemt side eller et indlæg kan indstilles til indeks eller noindeks, hvis du bruger Yoast, så gå til side/indlæg og kontroller følgende indstilling ved foden af siden:

Yoast Noindeks indstilling

Sådan ændres Robots metatag i Magento

som før, gå til indhold – > Design – > konfiguration, klik ind i din relevante Butiksvisning og ændr rullemenuen” Standardrobotter”:

robotter Meta in Magento

Min Side / sider kan gennemsøges og indekseres af Google – Hvad næste?

når du er tilfreds med, at dine robotter.du kan igen bruge værktøjet Undersøg URL til at kontrollere din side og anmode om, at Google gennemsøger og indekserer din side:

GSC anmodning indeksering

jeg har også en Bing konto!

gør du? Jeg troede, jeg var den eneste. Ok, du kan gøre stort set alle de samme ting, der er skrevet i denne artikel, som du kan i GSC – så undersøg URL ‘ en og Anmod om indeksering:

Bing anmodning indeksering

jeg har gjort alt dette, og min hjemmeside / sider er stadig ikke indekseret!

i så fald har du brug for en dybere dykke ind i konfigurationen og funktionaliteten af din hjemmeside for at identificere, hvilke andre problemer der kan være. Jeg kan hjælpe dig med, hvis du udfylder nedenstående kontaktformular.

Del 2:

en person, der netop har indset deres teststed, er indekseret

Sådan gør du: Kontroller, om dit Iscenesættelsessted er indekseret af Google

kun tre ting er sikre i livet: død, skatter og dit teststed bliver indekseret af Google.

meget sjældent støder du på en ny site-lancering uden på et tidspunkt at indse, at iscenesættelsesserveren er blevet åben for bots til at komme gennemsøgning og indeksering.

det er ikke nødvendigvis verdens ende, hvis en søgemotor skulle indeksere et teststed, da det er ret nemt at løse – men hvis du kører et testmiljø på lang sigt for at udvikle ny funktionalitet sammen med en livesite, skal du sikre dig, at den er beskyttet korrekt så tidligt som muligt for at undgå duplikatindholdsproblemer og for at sikre, at mennesker i det virkelige liv ikke besøger og interagerer (dvs.forsøger at købe noget).

jeg er tidligere udvikler og har sandsynligvis lavet disse fejl selv mere end en gang, men dengang havde jeg ikke en SEO, der var en smerte i min røv hele tiden og pegede disse ting ud (dengang gamle skole brochure-kom-designere, der ikke forstod begrænsningen af tabeller og inline CSS, hvor smerten i min røv).

følgende teknikker er alle afprøvede metoder, som jeg har brugt til at identificere disse problemer i naturen, men for at beskytte identiteten af mine klienter og deres udviklere, har jeg taget den uselviske beslutning om at oprette et par teststeder ved hjælp af mit eget hjemmesideindhold for at illustrere, hvad du skal gøre, de er:

test.organicdigital.co
alitis.co.uk
selvom når du læser dette, vil jeg have fulgt mit eget råd og taget disse ned, jeg har brug for al den synlighed, jeg kan få, det sidste, jeg har brug for, er indekserede teststeder, der holder mig tilbage.

1) Google Search Console (GSC) Domæneejendom

en af de fantastiske ting ved den nye GSC er, at du kan oprette domæneegenskaber, som giver dig nøgleindsigt på tværs af alle underdomæner, der er knyttet til din hjemmeside – på både HTTP og HTTPS. For at konfigurere dette skal du blot vælge domæneindstillingen, når du tilføjer en ejendom (du skal også udføre den potentielt ikke så ligetil opgave at tilføje en tekst-post til dit domænes DNS):

GSC-Domæneejendom

der er en lang række grunde til, at en domæneejendom er nyttig, i dette tilfælde skyldes det, at hvis du har dit teststed konfigureret på et underdomæne, og det genererer indtryk og klik i søgningen, kan du se dette fra afsnittet “ydeevne” ved at filtrere eller bestille dine sider:

GSC Performance Data

derudover skal du også kontrollere afsnittet “dækning – – inogle tilfælde indekserer Google dit indhold:

GSC indekserede Data

mens de i andre tilfælde vil se, at du har kopieret indhold på plads, og venligst afstå fra indeksering, i hvilket tilfælde du ville finde det inden for afsnittet “Duplicate, Google valgte forskellige canonicalend bruger”:

GSC Different Canonical

selvom dette er tilfældet, skal du stadig bestræbe dig på at sikre, at det ikke gennemsøges fremad.

2) Kontroller Google SERP ‘ er ved hjælp af Link Clump

hvis du ikke har adgang til GSC-domæneegenskaber eller nogen adgangtil GSC (hvis ikke, hvorfor ikke?) så kan du tjekke SERP ‘ erne for at se, om nogen test Urlshar gjort deres vej ind i indekset.

dette er også en praktisk teknik,når pitching for ny virksomhed, hvilken bedre måde at vinde over en potentiel kunde end at gøre deres interne eller eksterne udvikling team ligne de terninger med søgning synlighed deathby lade dette ske i første omgang, og at du er her for at redde theday.

trinene er som følger:

i) installer Linkclump Google Chrome-udvidelsen, som giver dig mulighed for at kopiere og indsætte flere Urlsfra en side til et sted mere nyttigt som f.eks.

ii) ændre dine Link klump indstillinger som følger:

Link Clump Settings

den vigtigste at bemærke er handlingen “kopieret til udklipsholder”– den sidste ting du vil ske her er at åbne op til hundrede URL ‘ er påen gang.

iii) gå til dit foretrukne (eller lokale) Google TLD, klik på “indstillinger”, som du skal se nederst til højre på siden, og vælg “søgeindstillinger”, hvor du kan indstille dine “resultater pr.side” til 100.

iv) gå tilbage til Googles startside og brug forespørgslen “site:” operatør og tilføj dit domæne. Hvis youuse SV eller lignende, fjerne dette – så kommandoen ville være som følger:
site:organicdigital.co

du vil blive præsenteret med en stikprøve på op til 300 Urlsøjeblikket indekseret af Google på tværs af alle underdomæner. Mens du manuelt kunne gennemgå hvert resultat for at få øje på rogue-sider:

teststed i SERPs

jeg finder det langt hurtigere og lettere at højreklikke og trække hele vejen til bunden af siden. Du vil vide, om Linkklump fungerer, da du vil se følgende forekomme for at bemærke, at links vælges og kopieres:

 Link klump i aktion

gentag dette på tværs af SERP ‘er 2 og 3, hvis det er tilgængeligt, og når allURLs er indsat i SERP’ er, skal du bruge Sorter efter A-Å for nemt at identificere dit indekserede indhold på tværs af alle relevante underdomæner.

3) Søg efter tekst, der er unik for din side

ovenstående metoder fungerer, hvis dit teststed er hostet på asubdomain på det samme domæne som din live hjemmeside. Men hvis dit teststed er placeret et andet sted, f. eks. test.webdevcompany.com, så fungerer de ikke. I så fald er denne eller følgende metoderkunne.

Find noget indhold, du mener er unikt for din hjemmeside – i mit tilfælde har jeg gået med strapline af: “forbedre din hjemmesides organiske synlighed og trafik” – søg derefter efter dette inden for anførselstegn. Hvis et teststed, der indeholder dette indhold, er indekseret, denne søgning skal afsløre det:

teststeder i SERP ' er igen

som du kan se, vises startsiderne på hovedstedet, testunderdomænet og det separate testdomæne alle. Du kan også utilsigtet få øje på en konkurrent, der har flået dit indhold af. Nogle ville tage det som et kompliment, andre ville udstede DMCA ‘ er – det er op til dig, men det sidste, du ønsker, er, at nogen overgår dig med din egen kopi.

4) Gennemgå siden ved hjælp af Screaming Frog

jeg formoder, at du er i SEO og derfor bruger Screaming Frog. Hvis et af disse svar er nej, så godt gjort for at gøre det så langt ind i denne artikel (lad mig gætte, at du er en udvikler, der har tabt en bollock og søger at dække din røv, før nogen andre finder ud af det?).

hvis du ikke har det, kan du hente det her.

inden for de grundlæggende indstillinger skal du markere “gennemgå alle underdomæner”. Du kan også markere “Følg intern ‘ Nob følg'”, da nogle testmiljøer muligvis har dette på plads.

når gennemgangen er afsluttet, skal du gennemgå listen for at se, om der er Interne links på plads til teststeder. Jeg stødte på dette for nylig, hvor et nyt Drupal-sted var gået live, men med alle interne links i blogindlægene, der pegede på et beta-underdomæne:

skrigende Froskekryb

du kan derefter klikke på hver test-URL og klikke på InLinks forneden for at finde det krænkende interne link fra live til teststedet. I dette tilfælde ændrede jeg linket Kontakt ospå sitemap for at pege på test-URL ‘ en:

Screaming Frog Interne Links

når spottet, ændre og re-kravle indtil disse er ikke mereinterne links tager besøgende andre steder. Hvis du bruger , skal du bruge et Søg/Erstat-plugin til at finde alle testURLs og erstatte dem med den levende.

5) Kontroller Google Analytics-værtsnavne

hvis dit teststed har den samme Google Analytics-konto ‘ trackingkode installeret som dit live site, vil du være i stand til at få øje på dette med en, hvis du går til et afsnit som “adfærd” – > “Site Content” – > “AllPages” og vælg “Hostname” som en sekundær dimension:

Google Analytics værtsnavne

Derudover kan du også filtrere dataene yderligere vedudelukker fra rapporten alle besøg på hoveddomænet, som vil forlade alleandre tilfælde på listen. I tillæg til test sites, du kan også afdække GA Spam udløses på en 3rdparty site:

Google Analytics ekskluderer værtsnavn

der er fordele og ulemper ved at have den samme ga tracking IDrunning på både dine live-og testmiljøer, men personligt ser jeg ingen grund til at have separate konti og i stedet ville oprette flere visninger inden for din ene konto. For live site,oprette et filter til kun at omfatte trafik til live værtsnavn, og vice versafor test site.

Sådan fjernes og forhindres dit teststed i at blive indekseret

så du har opdaget dit teststed i indekset ved hjælp af en af teknikkerne ovenfor, eller du vil sikre dig, at det ikke sker iførste sted. Følgende vil alle hjælpe med dette:

1) Fjern URL ‘ er via GSC

hvis dit site er indekseret, uanset om det genererer trafik ellernot, er det bedst at få det fjernet. For at gøredette kan du bruge afsnittet “Fjern URL ‘er” fra den “gamle” GSC.

Bemærk, Dette fungerer ikke på domæneejendomsniveau, da det ikke er taget højde for i gamle GSC. For at gøre dette skal du oprette oprette en ejendom til det enkelte testdomæne.

når du er oprettet, “gå til den gamle Version” og gå til “Google-indeks” – > “Fjern URL ‘er”. Herfra skal du vælge “TemporarilyHide” og indtaste som enkelt fremad skråstreg som den URL, du ønsker at blokere, som vil indsende hele din hjemmeside til fjernelse:

GSC Fjern URL 'er

dette fjerner din side fra SERP’ erne i 90 dage, for at sikre, at den ikke vender tilbage, skal du tage yderligere skridt. Et af følgende vil være tilstrækkeligt (og bør udføres uanset om du er i stand til at fjerne via GSC)

2) sæt robots tag til noindeks på teststedet

bed dine udviklere om at sikre,at når du kører på testdomænet, genererer hver side på tværs af siden et robots noindeks-tag:

<meta name="robots" content="noindex" />

du kan indstille dette via “Indstillinger” – > “læsning” og vælge “afskrække søgemaskiner fra at indeksere dette site”:

Læsningsindstillinger

uanset hvilken kode eller indstillinger du bruger til at forhindre, at teststedetfra at blive indekseret, skal du sikre dig, at dette ikke migreres til live-siden, når nyt indhold eller funktionalitet er lavet live. Testsiteindstillinger, der går live, er en af de mest almindelige og mest sikre brandveje til at ødelægge dit live-steds synlighed.

3) adgangskodebeskyt dit teststed

fra dit internetkontrolpanel eller via serveren, adgangskodebeskyt det bibliotek, hvor dit teststed er placeret. Der er mange måder at gøre dette på – bestbet er at bede dit hostingfirma eller udviklere om at konfigurere dette, eller der er masser af gode ressourcer derude, der viser dig, hvordan du gør dette, såsom:

https://one-docs.com/tools/basic-auth

når du er blokeret, skal du se en advarselsboks, når du prøver at få adgang til dit teststed:

https://alitis.co.uk/

adgangskodebeskyttet Site

dette vil forhindre søgemaskiner i at kravle og indeksere thesite.

4) Slet site og retur side status 410

hvis du ikke længere har brug for din test site, kan du simpelthenslette det. Når søgemaskiner forsøger atbesøge sider på længere leve, vil de se siderne slettes. Som standard vil en brudt side returnere status404 (“ikke fundet”) – mens dette vil få hjemmesiden de-indekseret i tide, vil det tage et stykke tid, da der vil være opfølgende besøg for at se, om den ødelagte side er vendt tilbage.

Indstil i stedet status til 410 (“permanent væk”), som returnerer følgende meddelelse:

Status 410

for at gøre dette på tværs af et helt domæne skal du slette siden ogforlade .htaccess-fil på plads med følgende kommando:

Redirect 410 /

dette vil sikre, at siden bliver de-indekseret ved første gang, der spørger (eller i det mindste hurtigere end en 404)

5) Bloker via robotter.

du kan blokere siden fra at blive gennemsøgt ved at implementere følgende kommandoer i teststedets robotter.tekstfil:

User-agent: *Disallow: /

dette forhindrer bots i at kravle på siden. Bemærke: hvis dit teststed i øjeblikket er indekseret, og du er gået ned ad ruten for at tilføje noindeks-tags til siden, skal du ikke tilføje robotterne.tekst kommando ind, indtil alle sider er blevet de-indekseret. Hvis du tilføjer dette, før alle sider er de-indekseret, forhindrer dette dem i at blive gennemsøgt, og robots-mærket registreres, så siderne forbliver indekseret.

og det er det – jeg håber, at ovenstående vil være nok for dig at finde, deindekse og forhindre din test i at blive gennemsøgt nogensinde igen.

men husk

jeg kan ikke understrege dette nok – hvis du beslutter at implementrobots metatags eller robotter.når du placerer dit teststed live, skal du sørge for, at du ikke overfører disse konfigurationer til live-siden, da du risikerer at miste din organiske synlighed helt.

og vi har alle været der, ikke?

Skriv et svar

Din e-mailadresse vil ikke blive publiceret.