januar 27, 2022

Den Organiske Digitale Bloggen

dette er et blogginnlegg på to (store) sider – live-og iscenesettingssteder:

Del 1: Slik Sjekker Du Om Google Har Indeksert Ditt Live-Nettsted

Del 2: Hvordan Sjekker Du Om Google Har Indeksert Ditt Live-Nettsted

Hvordan Kan Jeg Vite Om Google Har Indeksert Mitt Live-nettsted?

det er to enkle måter å finne ut:

Bruk nettstedet: query operator

Søk etter domenet Ditt På Google som følger:nettsted: organicdigital.co
hvis nettstedet ditt er indeksert, vil du se en liste over sider:

Site Query Operator

Hvis ingen resultater returneres, kan det hende du har problemer:

Site Query Operatør Uten Resultater

Merk: på større nettsteder, mens du vil se en tilnærming til hvor mange sider som er indeksert, vil du bare kunne se rundt 300 Av Dem i Serpene.

Sjekk Dekningsdelen Av Google Search Console

Hvert nettsted skal ha GSC-konto, det er etter min mening det største verktøyet en nettstedseier eller SEO kan bruke og gir et vell av informasjon om nettstedets organiske synlighet og ytelse. Hvis du ikke har en, gå til den offisielle gsc-siden, hvis du gjør det, gå til Dekningsdelen der du kan se en oversikt over:

  • Feil under gjennomgang av sider
  • Sider som er blokkert
  • Gyldige indekserte sider
  • Sider som er ekskludert
Gsc Dekning Rapport

hvis nettstedet ditt har problemer, vil disse bli rapportert under «feil» eller «ekskludert» – og du kan finne ut årsakene til at de ikke blir inkludert i søk som:

  • Alternativ side med riktig kanonisk tag
  • Crawled – foreløpig ikke indeksert
  • Dupliser Uten bruker-valgt kanonisk
  • Ekskludert av ‘noindex’ tag
  • Crawl anomali
  • ikke funnet (404)

hvis nettstedets sider ikke vises i delen «gyldig», kan det hende du har problemer.

Bruk URL Inspect-Funksjonen I GSC

hvis noen sider er indeksert og andre ikke er det, kan du også bruke URL Inspect-verktøyet for Å se Om Google kan gjennomsøke og indeksere en bestemt side, eller hvis Det er andre problemer som hindrer at den vises i søk – dette er i toppmenyen og lar deg sjekke EN URL om GANGEN:

GSC URL Inspect Tool

Hvis siden din er indeksert, vil den gi detaljer som følger:

Gsc Indekserte Sidedata

hvis ikke, får Du denne statusen som viser Når Google har forsøkt å gjennomsøke siden og litt innsikt i hvorfor Den ikke er indeksert:

GSC Ikke Indekserte Sidedata

Hvorfor Gjennomsøker Eller Indekserer Ikke Google Sidene mine?

det er generelt to grunner til at en side ikke kan gjennomsøkes eller indekseres. Dette er spesielt vanlig når et nytt nettsted har blitt lansert eller migrert, og innstillingene fra utviklingsmiljøet har blitt overført.

robotene.Txt Forby Direktiv

dette er hvor området, en katalog eller en side er blokkert fra å bli gjennomsøkt av robotene.txt-fil.

Hvert nettsted bør ha en roboter.txt-fil, dette brukes til å gi direktiver til søkemotorer om hvilke deler av nettstedet ditt bør og ikke bør gjennomsøkes.

hvis du har en, finner du den i rotkatalogen din under navnet robots.txt

https://organicdigital.co/robots.txt

direktivene som ville hindre et område, katalog eller side blir gjennomsøkt ville være som følger:

Disallow: /Disallow: /directory/Disallow: /specific_page.html

Du kan også bruke Screaming Frog til å prøve å gjennomsøke nettstedet ditt. Hvis det ikke kan gjøre det, ser du følgende kravlesøk data:

Screaming Frog Robots Issue

det er mange gyldige grunner til å blokkere søkemotorer ved hjelp av dette direktivet, men hvis du ser noe i tråd med det ovennevnte, må du endre disse for å tillate gjennomsøking av nettstedet ditt.

Hvordan Endre En Roboter.Txt-Fil Manuelt

hvis du har tilgang TIL FTP eller har en utvikler på hånden, kan du manuelt endre robotene.txt-fil for å fjerne eventuelle direktiver som blokkerer området fra kravlesøk.

Vanligvis vil følgende kommando gjøre dette:

User-agent: *Allow: /

Hvordan Endre En Robottxt-Fil I WordPress

Hvis Du har Yoast-plugin installert, kan du redigere filen direkte via Verktøy – > File Editor-delen-følg denne lenken for instruksjoner om hvordan du gjør dette.

 yoast roboter.txt Editor

Hvordan Endre En Roboter.txt-Fil I Magento

Gå Til Innhold- > Design – > Konfigurasjon, klikk på relevant Butikkvisning og rediger «Søkemotorroboter»

Magento Robots Settings

Robots Metataggen Er Satt Til Noindex Og / eller Nofollow

i tillegg til robotene.txt-fil, kan du også sjekke robots metakode i nettstedets kildekode og sikre at det ikke hindrer søkemotorer fra å krype.

hvis du sjekker kildekoden din, hvis du ikke ser en metakode for roboter, eller den er satt til «indeks» eller «indeks,følg» – så er ikke dette problemet. Men hvis du ser at det står «noindex», betyr dette at siden din kan gjennomsøkes, men vil ikke bli indeksert:

Noindex Tag I Kildekoden

igjen kan Du bruke Screaming Frog til å sjekke statusen til robots-kodene dine på nettstedet ditt. Hvis taggen er satt til noindex, nofollow det vil ikke komme utover hjemmesiden:

Screaming Frog Robots Noindex / Nofllow Issue

Hvis det bare er satt til noindex, kan hele nettstedet fortsatt bli gjennomsøkt, men ikke indeksert:

Screaming Frog Robots Noindex/Noflow Issue

Slik Endrer Du Robots Meta Tag-Filen Manuelt

igjen, få tilgang til nettstedets side/mal direkte og erstatt / legg til følgende tag:

<meta name="robots" content="index, follow">

Slik Endrer Du Robots Metakode I WordPress

Det er to måter å gjøre dette på-hvis problemet er nettsted bredt, går du til Innstillinger – > Leser Og sikrer at «Motvirke søkemotorer fra indeksering av dette nettstedet» ikke er krysset Av:

Wordpress Noindex Site Setting

jeg kan ta feil, men jeg tror den eneste måten en bestemt side eller innlegg kan settes til indeks eller noindex hvis Du bruker Yoast, så gå til side / post og sjekk følgende innstilling ved foten av siden:

Yoast NoIndex Setting

Slik Endrer Du Robots Metakode I Magento

som før, gå Til Innhold – > Design- > Konfigurasjon, klikk på relevant Butikkvisning og endre rullegardinmenyen «Standardroboter»:

 Roboter Meta I Magento

Mitt Nettsted / Sider Kan Gjennomsøkes Og Indekseres Av Google – Hva Nå?

Når du er fornøyd med at robotene dine.du kan igjen bruke Inspect URL-verktøyet til å sjekke siden din og be Om At Google gjennomsøker og indekserer siden din:

Gsc Forespørsel Indeksering

Jeg Har Også En Bing Webmaster Konto!

Gjør du? Jeg trodde jeg var den eneste. Ok, du kan gjøre stort sett alle de samme tingene som er skrevet i Denne artikkelen I Bing Webmaster Tools som DU kan I GSC – så inspiser NETTADRESSEN og Be Om Indeksering:

Bing Request Indexing

Jeg Har Gjort Alt Dette , Og Nettstedet / Sidene Mine Er Fortsatt Ikke Indeksert!

i så fall trenger du en dypere dybde i konfigurasjonen og funksjonaliteten til nettstedet ditt for å identifisere hvilke andre problemer det kan være. Jeg kan hjelpe deg med hvis du fyller ut kontaktskjemaet nedenfor.

Del 2:

Noen Som Nettopp Har Innsett At Teststedet Deres Er Indeksert

Slik Gjør Du: Sjekk Om Staging-Nettstedet Ditt Er Indeksert Av Google

Bare tre ting er sikre i livet: død, skatter og teststedet ditt blir indeksert Av Google.

Svært sjelden kommer du over en ny lansering uten på et tidspunkt å innse at staging-serveren har blitt åpen for bots for å komme gjennom og indeksere.

det er ikke nødvendigvis verdens ende hvis en søkemotor skulle indeksere et teststed, da det er ganske enkelt å løse – men hvis du kjører et testmiljø på lang sikt for å utvikle ny funksjonalitet sammen med en livesite, må du sørge for at den er beskyttet riktig så tidlig som mulig for å unngå dupliserte innholdsproblemer, og for å sikre at virkelige mennesker ikke besøker andinteract (dvs.prøv å kjøpe noe).

jeg er tidligere en utvikler,og sannsynligvis gjort disse feilene meg selv mer enn en gang, men tilbake da jeg ikke HAR EN SEO å være en smerte i ræva hele tiden peker disse tingene ut (tilbake da, gamle skolen brosjyre-come-webdesignere som ikke forstår begrensning av tabeller og inline CSS der smerten i ræva).

følgende teknikker er alle prøvde og testede metoderat jeg har brukt til å identifisere disse problemene i naturen, men for å beskytte identiteten til mine klienter og deres utviklere, har jeg tatt den uselviske beslutningen om å sette oppet par teststeder som bruker mitt eget nettstedinnhold for å illustrere hvadu trenger å gjøre, de er:

test.organicdigital.co
alitis.co.uk
Men når du leser dette, vil jeg ha fulgt mitt eget råd og tatt disse ned, jeg trenger all synlighet jeg kan få, det siste jeg trenger er indekserte teststeder som holder meg tilbake.

1) Google Search Console (GSC) Domain Property

En av de store tingene med den nye GSC er at du kan sette opp domeneegenskaper som gir deg viktig innsikt på tvers av alle underdomener knyttet til nettstedet ditt – PÅ BÅDE HTTP og HTTPS. For å sette opp dette, velger du bare domenealternativet når du legger til en egenskap (du må også utføre den potensielt ikke så enkle oppgaven med å legge TIL EN TXT-post i domenets DNS):

 Gsc Domain Property

Det er en hel rekke grunner til at en domeneegenskap er nyttig.:

 GSC Ytelsesdata

i tillegg bør Du også sjekke delen «dekning» – i noen tilfeller vil Google indeksere innholdet ditt:

 Gsc Indekserte Data

Mens I andre tilfeller vil de oppdage at du hardupliser innhold på plass,og vennligst avstå fra indeksering, i så fall vil du finne det i avsnittet «Dupliser, Google valgte forskjellige kanoniskeenn bruker»:

GSC Annerledes Kanonisk

selv om dette er tilfelle, bør du likevel forsøke å sikre at det ikke kryper fremover.

2) Sjekk Google SERPs Bruker Link Clump

hvis Du ikke har tilgang TIL gsc domene egenskaper, eller noen accessto GSC (hvis ikke, hvorfor ikke?) deretter kan du sjekke SERPs å se om noen test URLshave gjort sin vei inn i indeksen.

Dette er også en praktisk teknikk når pitching for ny virksomhet, hvilken bedre måte å vinne over en potensiell klient enn å gjøre sitt interne orexternal utviklingsteam ser ut som de dicing med søk synlighet deathby slik at dette skal skje i første omgang, og at du er her for å redde theday.

trinnene er som følger:

i) installer LinkClump Google Chrome-Utvidelsen, som lar deg kopiere og lime inn flere Nettadresserfra en side til et sted mer nyttig Som Excel.

ii) Endre Innstillingene For Link Clump som følger:

Link Clump Settings

det viktigste å merke Seg Er Handlingen » kopiert til utklippstavlen– – det siste du vil skal skje her er å åpne opp til hundre Nettadresser atonce.

iii) Gå til din Favoritt (eller lokale) Google TLD, klikk på «innstillinger» som du bør se nederst til høyre på siden, og velg «søkeinnstillinger» der du kan sette «resultater per side» til 100.

iv) Gå Tilbake Til googles hjemmeside og bruk» site: «queryoperator og legg til domenet ditt. Hvis du bruker www eller lignende, fjern dette-så kommandoen vil være som følger:
site:organicdigital.co

du vil bli presentert med et utvalg på opptil 300 Nettadresserindeksert av Google På tvers Av alle underdomener. Mens du kan manuelt gjennomgå hvert resultatå oppdage rogue nettsteder:

Teststed i SERPs

jeg finner det langt raskere og enklere å høyreklikke og dra allthe veien til bunnen av siden. Youwill vite Om Link Clump fungerer som du vil se følgende skje todenote koblinger blir valgt og kopiert:

 Link Clump I Aksjon
Url-Adresser I Excel

Gjenta dette på Tvers Av SERPs 2 og 3 hvis tilgjengelig, og når allURLs er limt inn I Excel, kan du bruke sorter Etter A-Z for å enkelt identifisere indeksert innhold på tvers av alle relevante underdomener.

3) Søk Etter Tekst Som Er Unik For Nettstedet Ditt

metodene ovenfor fungerer hvis teststedet ditt ligger på asubdomain på samme domene som ditt levende nettsted. Men hvis teststedet ditt befinner seg et annet sted,f. eks. test.webdevcompany.com da vil de ikke fungere. I så fall, denne eller følgende metodermight.

Finn noe innhold du mener er unikt for nettstedet ditt – i mitt tilfelle har jeg gått med strapline av: «Forbedre Nettstedets Organiske Synlighet og Trafikk – – så søk etter dette i anførselstegn. Hvis et teststed som inneholder dette innholdet er indeksert, bør dette søket avsløre det:

Teststeder I SERPs Igjen

som du kan se, vises hjemmesidene på hovedstedet, test subdomene og separat testdomene alle. Du kan også utilsiktet oppdage en konkurrent som har dratt av innholdet. Noen vil ta det som et kompliment, andre vil utstede DMCAs – det er opp til deg, men det siste du ønsker er noen outranking du med din egen kopi.

4) Gjennomgå Nettstedet Ved Hjelp Av Screaming Frog

jeg antar at DU er I SEO og derfor bruker Screaming Frog. Hvis noen av disse svarene er nei, så godt gjort for å gjøre det så langt inn i denne artikkelen (la meg gjette at du er en utvikler som har droppet en bollock og ønsker å dekke rumpa før noen andre finner ut?).

hvis du ikke har det, last det ned her.

merk av for «Gjennomsøk Alle Underdomener»i Grunninnstillingene. Du kan også krysse «Følg Intern» nofollow «» som noen testmiljøer kan ha dette på plass.

når gjennomsøkingen er fullført, kan du lese listen for å se om det er noen interne koblinger på plass for å teste nettsteder. Jeg kom over dette nylig hvor et Nytt Drupal-nettsted hadde gått live, men med alle interne lenker i blogginnleggene som peker på et beta-underdomene:

Screaming Frog Crawl

Du kan deretter klikke på hver test URL og klikk På InLinks atthe bottom for å finne den fornærmende intern link fra live til test området. I dette tilfellet, jeg endret Kontakt oss linkon sitemap å peke på test URL:

Screaming Frog Interne Lenker

når oppdaget, endre og re-crawl til disse er ikke merinterne linker tar besøkende andre steder. Hvis Du bruker WordPress, bruk et søk / erstatt plugin for å finne alle testURLs og erstatte dem med live one.

5) Sjekk Google Analytics-Vertsnavn

hvis teststedet ditt har samme google Analytics-kontosporingskode installert som ditt live-nettsted, vil du kunne se dette hvis du går til en seksjon som «Oppførsel» – > «Sideinnhold» – > «AllPages» og velg «Vertsnavn» som en sekundær dimensjon:

Google Analytics-Vertsnavn

I Tillegg til dette kan du også filtrere dataene videre ved å ekskludere fra rapporten alle besøk til hoveddomenet, som vil etterlate alle andre forekomster i listen. Inaddition til testsider, du kan også avdekke GA Spam blir utløst på en 3rdparty nettstedet:

Google Analytics Ekskluderer Vertsnavn

det er fordeler Og ulemper med å ha samme GA-sporing IDrunning på både live – og testmiljøer, men personlig ser jeg noreason å ha separate kontoer og i stedet ville skape flere visninger innen en konto. For live-området,sette opp et filter for å bare inkludere trafikk til live vertsnavn, og vice versafor teststedet.

Slik Fjerner Og Forhindrer Du At Teststedet Ditt Blir Indeksert

Så du har oppdaget teststedet ditt i indeksen ved hjelp av en av teknikkene ovenfor, eller du vil sørge for at Det ikke skjer på første plass. Følgende vil alle hjelpemed dette:

1) Fjern Nettadresser via GSC

Hvis nettstedet ditt er indeksert, om det genererer trafikk ellerikke, det er best å få det fjernet. For å gjøredette kan du bruke delen «Fjern Nettadresser » fra den» gamle » GSC.

Merk at dette ikke vil fungere på domeneegenskapsnivå ettersom det ikke er tatt hensyn til i gamle GSC. I ordenfor å gjøre dette må du sette opp sett opp en egenskap for det individuelle testdomenet.

Når du har satt opp, «Gå Til Den Gamle Versjonen» og gå til «Google Index»-> «Fjern Nettadresser». Herfra, velg «TemporarilyHide» og skriv inn som enkelt skråstrek som URL du ønsker å blokkere som willsubmit hele området for fjerning:

GSC Fjern Nettadresser

dette vil fjerne nettstedet Ditt Fra Serpene i 90 dager. Ett av følgende vil være tilstrekkelig (og bør utføres uavhengig av om du Er I stand til Å Fjerne VIA GSC)

2) Sett robots tag til noindex på test site

Be utviklerne om å sikre at når du kjører på testdomenet,genererer hver side på tvers av nettstedet en robots noindex tag:

<meta name="robots" content="noindex" />

Hvis nettstedet Ditt Er WordPress, kan Du angi dette via «Innstillinger» – > «Lese» og velge «Motvirke søkemotorer fra å indeksere dette nettstedet»:

Wordpress Leseinnstillinger

uansett kode Eller innstillinger du bruker for å forhindre at testnettstedet blir indeksert, må du sørge for at dette ikke migreres til live-nettstedet når newcontent eller funksjonalitet blir gjort live. Testområdeinnstillinger som går live er en av de vanligste og mest sikre brannene for å ødelegge ditt levende nettsteds synlighet.

3) Passordbeskytt Teststedet

fra web-kontrollpanelet eller via serveren, passordbeskytt katalogen der teststedet ditt ligger. Det er mange måter å gjøre dette på – bestbet er å spørre vertsfirmaet eller utviklerne om å konfigurere dette, eller det er mange gode ressurser der ute som vil vise deg hvordan du gjør dette, for eksempel:

https://one-docs.com/tools/basic-auth

når du er blokkert, bør du se en varselboks når du prøver å få tilgang til teststedet ditt:

https://alitis.co.uk/

Passordbeskyttet Nettsted

dette forhindrer søkemotorer i å gjennomsøke og indeksere nettstedet.

4) Slett nettsted og return page status 410

Hvis du ikke lenger har behov for teststedet ditt, kan du ganske enkelt slette det. Når søkemotorer prøve tovisit sider på lenger live, vil de se sidene slettes. Som standard vil en ødelagt side returnere status404 («Ikke Funnet») – mens dette vil få nettstedet de-indeksert i tide, vil det ta en stund da det vil bli oppfølgingsbesøk for å se om den ødelagte siden har returnert.

sett i Stedet statusen til 410 («Permanent Borte») som vil returnere følgende melding:

Status 410

for a gjore dette over et helt domene, slett nettstedet og la det .htaccess-fil på plass med følgende kommando:

Redirect 410 /

Dette vil sikre at nettstedet blir de-indeksert ved første gangs spørsmål (eller i det minste raskere enn en 404)

5) Blokker via roboter.txt

du kan blokkere nettstedet fra å bli gjennomsøkt ved å implementerefølgende kommandoer i testområdets roboter.txt-fil:

User-agent: *Disallow: /

Dette forhindrer at bots kryper på nettstedet. Merk: hvis teststedet ditt for øyeblikket er indeksert, og du har gått ned ruten for å legge til noindex-koder på nettstedet, må du ikke legge tilrobotene.txt kommando inn til alle sider har blitt de-indeksert. Hvis du legger dette inn før alle sidene har de-indeksert, vil dette hindre dem fra å bli gjennomsøkt og roboter tag oppdaget, slik at sidene vil forbli indeksert.

og det er det – jeg håper det ovenfor vil være nok for deg å finne, deindex og forhindre at testen din blir gjennomsøkt igjen.

Men Husk

jeg kan ikke understreke dette nok – hvis du bestemmer deg for å implementrobots metakoder eller roboter.txt som ikke tillater alle bots fra å krype og indexere teststedet ditt, må du sørge for at du ikke bærer disse konfigurasjonene over til live-nettstedet, da du risikerer å miste din organiske synlighet helt.

og vi har alle vært der, ikke sant?

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert.