január 27, 2022

az Organic Digital Blog

ez egy blogbejegyzés két (nagy) oldalon-élő és átmeneti webhelyek:

1. rész: Hogyan ellenőrizhető, hogy a Google indexelte-e az élő webhelyét

2. rész: Hogyan ellenőrizhető, hogy a Google indexelte-e az átmeneti/teszt webhelyet

hogyan állapíthatom meg, hogy a Google indexelte-e az élő webhelyemet?

két egyszerű módja van annak, hogy megtudja:

használja a webhelyet: lekérdezés operátor

keresse meg domainjét a Google-on az alábbiak szerint: site:organicdigital.co
ha a webhely indexelve van, látni fogja az oldalak listáját:

webhely lekérdezés operátor

ha nem ad vissza eredményt, akkor problémák merülhetnek fel:

webhely lekérdezés operátor eredmény nélkül

megjegyzés: a nagyobb oldalak, míg látni fogja közelítése hány oldalt indexelt, akkor csak akkor lesz képes, hogy valóban látni körül 300 őket a SERP-k.

ellenőrizze a Google Search Console lefedettségi szakaszát

minden webhelynek rendelkeznie kell GSC-fiókkal, véleményem szerint ez a legjobb eszköz, amelyet egy webhelytulajdonos vagy SEO használhat, és rengeteg információt nyújt webhelye szerves láthatóságáról és teljesítményéről. Ha még nem rendelkezik ilyennel, menjen a Főtitkárság hivatalos oldalára, ha igen, menjen a lefedettség szakaszba, ahol láthatja a:

  • hibák az oldalak feltérképezése közben
  • blokkolt oldalak
  • érvényes indexelt oldalak
  • kizárt oldalak
GSC lefedettség jelentés

ha webhelyén problémák vannak, ezeket a “hiba” vagy a “kizárt” alatt jelentik – és megtudhatja, hogy miért nem szerepelnek a keresésben, például:

  • alternatív oldal megfelelő kanonikus címkével
  • feltérképezett-jelenleg nem indexelt
  • duplikált felhasználó által kiválasztott kanonikus
  • kizárva a ‘noindex’ címkével
  • feltérképezési anomália
  • Nem található (404)

ha webhelye oldalai nem jelennek meg az” érvényes ” részben, akkor problémái lehetnek.

használja az URL Inspect funkciót a GSC-ben

ha egyes oldalak indexelve vannak, míg mások nem, akkor az URL Inspect eszközt is használhatja annak ellenőrzésére, hogy a Google képes-e feltérképezni és indexelni egy adott oldalt, vagy vannak – e más problémák, amelyek megakadályozzák, hogy megjelenjen a keresésben-ez a felső menüben található, és lehetővé teszi, hogy egyszerre egy URL-t ellenőrizzen:

GSC URL Inspect Tool

ha az oldal indexelve van, akkor a következő részleteket adja meg:

 GSC indexelt Oldaladatok

ha nem, akkor ezt az állapotot kapja, amely megmutatja, hogy a Google mikor próbálta feltérképezni az oldalt, és betekintést nyújt abba, hogy miért nincs indexelve:

GSC Nem indexelt Oldaladatok

miért nem térképezi fel vagy indexeli a Google az oldalaimat?

általában két oka van annak, hogy egy oldalt nem lehet feltérképezni vagy indexelni. Ezek különösen akkor gyakoriak, amikor egy új webhelyet elindítottak vagy áttelepítettek, és a fejlesztői környezet beállításait átvitték.

a robotok.txt Disallow Directive

ez az, ahol a webhely, a könyvtár vagy az oldal blokkolva van a robotok által.txt fájl.

minden helyszínen kell egy robot.TXT fájl, ez arra szolgál, hogy irányelveket adjon a keresőmotoroknak arról, hogy a webhely mely részeit kell feltérképezni.

ha van ilyen, akkor a gyökérkönyvtárban robots néven találja meg.txt

https://organicdigital.co/robots.txt

azok az irányelvek, amelyek megakadályoznák a webhely, könyvtár vagy oldal feltérképezését, a következők lennének:

Disallow: /Disallow: /directory/Disallow: /specific_page.html

a Screaming Frog segítségével megkísérelheti feltérképezni webhelyét. Ha ezt nem tudja megtenni, a következő feltérképezési adatok jelennek meg:

Screaming Frog Robots Issue

számos érvényes oka van a keresőmotorok blokkolásának ezen irányelv használatával, de ha a fentiek szerint lát valamit, akkor ezeket módosítania kell, hogy lehetővé tegye webhelyének feltérképezését.

hogyan kell módosítani a robotok.TXT fájl manuálisan

ha hozzáfér az FTP-hez, vagy kéznél van egy fejlesztő, manuálisan módosíthatja a robotokat.TXT fájl, hogy eltávolítson minden olyan irányelvet, amely blokkolja a webhely feltérképezését.

általában a következő parancs fogja ezt megtenni:

User-agent: *Allow: /

hogyan kell módosítani a robotok.txt fájl a WordPress-ben

ha telepítve van a Yoast plugin, akkor a fájlt közvetlenül az eszközök -> fájlszerkesztő szakasz segítségével szerkesztheti – kövesse ezt a linket az erre vonatkozó utasításokért.

 Yoast robotok.txt szerkesztő

hogyan kell módosítani a robotok.TXT fájl Magento-ban

menj a tartalomhoz – > tervezés – > konfiguráció, kattints a megfelelő áruház nézetbe és szerkesztsd a “keresőmotor robotokat”

Magento Robots Settings

A Robots metacímke Noindex és/vagy nofollow

a robotok mellett.txt fájl, akkor is ellenőrizheti a robotok meta tag belül a webhely forráskódját, és győződjön meg róla, hogy nem akadályozza meg a keresőmotorok feltérképezése.

ha ellenőrzi a forráskódját, ha nem lát robots metacímkét, vagy az “index” vagy “index, follow” értékre van állítva – akkor nem ez a probléma. Ha azonban látja, hogy a “noindex” felirat szerepel, ez azt jelenti, hogy az oldal feltérképezhető, de nem lesz indexelve:

Noindex Tag a forráskódban

ismét használhatja a Screaming Frog-ot, hogy ellenőrizze a robotok címkéinek állapotát a webhelyén. Ha a címke noindex értékre van állítva, akkor a nofollow nem lép túl a kezdőlapon:

Screaming Frog Robots Noindex / Nofllow Issue

ha csak noindexre van állítva, akkor az egész webhely feltérképezhető, de nem indexelhető:

 Screaming Frog Robots Noindex / Nofllow Issue

A Robots metacímke fájl manuális módosítása

ismét nyissa meg közvetlenül a webhely oldalát/sablonját, és cserélje ki/adja hozzá a következő címkét:

<meta name="robots" content="index, follow">

hogyan lehet módosítani a Robots metacímkét a WordPress-ben

ennek két módja van – ha a probléma az egész webhelyre kiterjed a Beállítások – > olvasás és annak biztosítása, hogy a “keresőmotorok elriasztása a webhely indexelésétől” nincs bejelölve:

 WordPress Noindex Webhelybeállítás

lehet, hogy tévedek, de azt hiszem, az egyetlen módja annak, hogy egy adott oldalt vagy bejegyzést indexre vagy noindexre lehet állítani, ha Yoastot használ, ezért lépjen az oldalra/bejegyzésre, és ellenőrizze a következő beállítást az oldal lábánál:

Yoast NoIndex Beállítás

hogyan kell módosítani robotok Meta Tag Magento

mint korábban, menj Content – > Design – > Configuration, kattintson a megfelelő Store nézetben, és módosítsa a” Default robotok ” legördülő opciót:

 robotok Meta a Magento-ban

a webhelyemet / oldalaimat a Google feltérképezheti és indexelheti – mi a következő lépés?

miután meggyőződött arról, hogy a robotok.a TXT fájl és a robots metacímke helyes, ismét használhatja az URL ellenőrzése eszközt az oldal ellenőrzéséhez, és kérheti, hogy a Google feltérképezze és indexelje az oldalt:

GSC kérése indexelés

van egy Bing Webmester fiókom is!

ugye? Azt hittem, én vagyok az egyetlen. Ok, nagyjából ugyanazokat a dolgokat teheti meg, amelyeket ebben a cikkben írt a Bing Webmestereszközökben, mint a FŐTITKÁRSÁGBAN – tehát ellenőrizze az URL-t, és kérjen indexelést:

Bing kérése indexelés

mindezt megtettem, és a webhelyem / oldalaim még mindig nincsenek indexelve!

ebben az esetben mélyebben el kell mélyednie a webhely konfigurációjában és funkcionalitásában, hogy azonosítsa, milyen egyéb problémák merülhetnek fel. Segíthetek, ha kitölti az alábbi kapcsolatfelvételi űrlapot.

2. rész:

valaki, aki most jött rá a Tesztoldalára, indexelve van

Hogyan: ellenőrizze, hogy a Google indexeli-e az állomáshelyét

csak három dolog biztos az életben: halál, adók és a tesztoldal indexelése a Google által.

nagyon ritkán találkozol egy új webhely elindításával anélkül, hogy egy bizonyos ponton észrevennéd, hogy a staging szerver nyitva maradt a botok számára, hogy feltérképezzék és indexeljék.

nem feltétlenül a világ vége, ha egy keresőmotor indexelni akar egy tesztoldalt, mivel ezt meglehetősen könnyű megoldani – de ha hosszú távon tesztkörnyezetet futtat, hogy új funkciókat fejlesszen ki egy livesite mellett, akkor a lehető leghamarabb biztosítania kell a megfelelő védelmet, hogy elkerülje a duplikált tartalmi problémákat, és biztosítsa, hogy a valós életben az emberek ne látogassanak el és ne lépjenek kapcsolatba (azaz próbáljanak meg vásárolni valamit).

korábban fejlesztő vagyok, és valószínűleg magam is többször elkövettem ezeket a hibákat, de akkoriban nem volt olyan SEO, amely állandóan fájdalmat okozott volna a seggemben, rámutatva ezekre a dolgokra (akkoriban a régi iskolai brosúra-come-web tervezők, akik nem értették a táblázatok és az inline CSS korlátozását, ahol a fájdalom a seggemben van).

a következő technikák mind kipróbált és tesztelt módszerekhogy már használt azonosítani ezeket a kérdéseket a vad, bár, hogy megvédje a identityof klienseim és a fejlesztők, vettem az önzetlen döntést, hogy hozzanak létre egy pár teszt oldalak segítségével a saját honlap tartalmát annak érdekében, hogy bemutassa, mit kell tennie, ezek a következők:

test.organicdigital.co
alitis.co.uk
bár mire elolvassa ezt, követni fogom a saját tanácsaimat, és leveszem ezeket, szükségem van minden láthatóságra, amit csak tudok, az utolsó dolog, amire szükségem van, az indexelt teszthelyek visszatartanak.

1) Google Search Console (GSC) Domain tulajdonság

az új GSC egyik nagyszerű tulajdonsága, hogy beállíthat olyan tartománytulajdonságokat, amelyek kulcsfontosságú betekintést nyújtanak a webhelyéhez társított összes aldomainbe – mind a HTTP-en, mind a HTTPS-en. Ennek beállításához egyszerűen válassza ki a domain opciót egy tulajdonság hozzáadásakor (el kell végeznie azt a potenciálisan nem olyan egyszerű feladatot is, hogy TXT rekordot adjon a domain DNS-hez):

 GSC Domain Property

számos oka van annak, hogy egy domain tulajdonság miért hasznos, ebben az esetben azért, mert ha a tesztoldalt egy aldomainen állította be, és megjelenítést és kattintásokat generál a keresésben, akkor ezt a” teljesítmény “részben észlelheti az oldalak szűrésével vagy megrendelésével:

GSC teljesítményadatok

ezenkívül ellenőrizze a “lefedettség” részt is-egyes esetekben a Google indexeli a tartalmát:

 a GSC indexelt adatai

míg más esetekben észreveszik, hogy vana tartalom duplikálása a helyén, és kérjük, tartózkodjon az indexeléstől, ebben az esetben a “másolat, a Google más kanonikusmint a felhasználó”:

GSC különböző kanonikus

még ha ez a helyzet is, akkor is törekednie kell arra, hogy biztosítsa, hogy ne haladjon előre.

2) Ellenőrizze a Google SERP-ket a link Clump használatával

ha nincs hozzáférése a GSC domain tulajdonságaihoz, vagy bármilyen HOZZÁFÉRÉSHEZA GSC-hez (ha nem, miért ne?) ezután ellenőrizheti a SERP-ket, hogy van-e teszt URL-je az indexbe.

ez is egy praktikus technika,amikor pitching az új üzleti, mi a jobb módja annak, hogy megnyerje a potenciális ügyfél, mint hogy a belső orexternal development team néz ki, mint ők kockára keresés láthatóság deathby lehetővé teszi, hogy ez megtörténjen az első helyen, és hogy te itt, hogy mentse theday.

a lépések a következők:

I) telepítse a LinkClump Google Chrome kiterjesztést, amely lehetővé teszi több URL másolását és beillesztését egy oldalról valami hasznosabb helyre, például az Excel-be.

ii) módosítsa a Linkcsomó beállításait az alábbiak szerint:

Link Clump Settings

a legfontosabb megjegyezni a “másolt vágólapra” műveletet– az utolsó dolog, amit itt meg akar tenni, az, hogy száz URL-t nyit meg atonce.

iii) lépjen a kedvenc (vagy helyi) Google TLD-jére, kattintson a “Beállítások” gombra, amelyet látnia kell az oldal jobb alsó sarkában, majd válassza a “keresési beállítások” lehetőséget, ahol beállíthatja az “oldalankénti eredmények” értékét 100-ra.

iv) térjen vissza a Google kezdőlapjára, és használja a “site:” queryoperator alkalmazást, és csatolja a domainjét. Ha www-t vagy hasonlót használ, távolítsa el ezt – így a parancs a következő lenne:
site:organicdigital.co

egy legfeljebb 300 URL-ből álló minta jelenik meg, amelyet a Google jelenleg indexel az összes aldomainen. Miközben manuálisan áttekintheti az egyes eredményeket, hogy észrevegye a szélhámos webhelyeket:

Test Site SERPs

találom, hogy sokkal gyorsabb és könnyebb jobb klikk és húzza allthe utat az oldal aljára. Tudni fogja, hogy a Linkcsomó működik-e, mivel a következő események jelennek meg, amikor a hivatkozások kiválasztása és másolása folyamatban van:

 Linkcsomó működés közben
URL-ek az Excelben

ismételje meg ezt a 2.és 3. SERP-ben, ha rendelkezésre áll, és miután az allURLs beillesztésre került az Excelbe, az A-Z sorrend használatával könnyen azonosíthatja indexelt tartalmát az összes releváns aldomainen.

3) a webhelyére jellemző Szöveg keresése

a fenti módszerek akkor működnek, ha a teszt webhelyét asubdomain tárolja ugyanazon a domainen, mint az élő webhelyét. Ha azonban az Ön vizsgálati helye máshol található, pl. test.webdevcompany.com, akkor nem fognak működni. Ebben az esetben ez vagy a következő módszereklehet.

keressen olyan tartalmat, amelyről úgy gondolja, hogy egyedülálló a webhelyén – az én esetemben a következő strapline-t használtam:” fokozza webhelye szerves láthatóságát és forgalmát”–, majd keresse meg ezt idézőjelben. Ha ezt a tartalmat tartalmazó teszthelyet indexelték, ennek a keresésnek fel kell tárnia:

teszt oldalak SERP újra

mint látható, a kezdőlapok a fő oldalon, teszt sub domain és külön teszt domain jelennek meg. Véletlenül észrevehet egy versenytársat is, aki letépte a tartalmát. Néhányan ezt bóknak vennék, mások DMCAs – t adnának ki-rajtad múlik, de az utolsó dolog, amire vágysz, az, hogy valaki felülmúlja Önt a saját példányával.

4) feltérképezni a helyszínen a Screaming Frog

feltételezem te vagy a SEO, ezért használja Screaming Frog. Ha ezek közül bármelyik válasz nem, akkor jól sikerült, hogy ilyen messzire került ebbe a cikkbe (Hadd találjam ki, hogy olyan fejlesztő vagy, aki eldobott egy bollock-ot, és arra törekszik, hogy fedezze a seggét, mielőtt bárki más megtudja?).

ha nincs meg, töltse le itt.

az Alapbeállításokon belül jelölje be az “összes aldomain feltérképezése”jelölőnégyzetet. A “belső” nofollow követése ” jelölőnégyzetet is bejelölheti, mivel egyes tesztkörnyezetekben ez a helyén lehet.

miután a feltérképezés befejeződött, olvassa el a listát, hogy lássa, vannak-e belső linkek a teszthelyekre. Nemrég találkoztam ezzel, ahol egy új Drupal webhely élt, de a blogbejegyzésekben található összes belső link egy béta aldomainre mutat:

Screaming Frog Crawl

Ezután kattintson az egyes teszt URL-re, majd kattintson az alsó linkekre, hogy megtalálja a jogsértő belső linket a live to test webhelyről. Ebben az esetben módosítottam a kapcsolat linket a webhelytérképen, hogy a teszt URL-re mutassak:

Screaming Frog belső linkek

miután észrevette, módosítsa és újra feltérképezze, amíg ezek nem lesznek többé belső linkek, amelyek máshová viszik a látogatókat. Ha WordPress-t használ, használja a search/replace plugint, hogy megtalálja az összes testURLs-t, és cserélje ki őket az élőre.

5) Ellenőrizze a Google Analytics Hostnames

ha teszthelyén ugyanaz a Google Analytics-fiók ‘stracking kód van telepítve, mint az élő webhelyén, akkor ezt észreveheti withinGA ha olyan szakaszra lép, mint a “viselkedés” – > “webhely tartalma” – > “AllPages”, majd másodlagos dimenzióként válassza a “Hostname” lehetőséget:

Google Analytics Hostnames

ezen túlmenően az adatokat tovább szűrhetikizárva a jelentésből a fő domain összes látogatását, amely mindent meghagymás példányok a listában. A webhelyek tesztelése mellett, felfedheti azt is, hogy a ga Spam egy 3rdparty webhelyen vált ki:

a Google Analytics kizárja a Hostname

vannak előnyei és hátrányai annak, hogy ugyanaz a ga követési IDrunning mind az élő, mind a tesztkörnyezetben, de személy szerint nem látok okot arra, hogy külön fiókokkal rendelkezzen, és ehelyett több nézetet hozna létre az egyik Fiókján belül. Az élő webhelyhez állítson be egy szűrőt, amely csak az élő gazdagépnévre irányuló forgalmat tartalmazza,a teszthelyre pedig fordítva.

hogyan lehet eltávolítani és megakadályozni a teszthely indexelését

tehát felfedezte a teszthelyet az indexben a fenti technikák egyikével, vagy meg akarja győződni arról, hogy ez nem történik meg az első helyen. A következők segítenek ebben:

1) Távolítsa el az URL-eket a GSC-n keresztül

ha webhelye indexelt, függetlenül attól, hogy forgalmat generál-e vagy sem, a legjobb, ha eltávolítja. Ehhez használhatja az ” URL-ek eltávolítása “részt a” régi ” FŐTITKÁRSÁGBÓL.

Megjegyzés: Ez nem fog működni a domain tulajdonság szintjén, mivel a régi Főtitkárság nem gondoskodik róluk. Annak érdekében, hogy ezt megtehesse, be kell állítania egy tulajdonság beállítása az egyes testdomain számára.

a beállítás után lépjen a “régi verzióra”, majd a “Google Index”-> “URL-ek eltávolítása”menüpontra. Innen válassza a “TemporarilyHide” lehetőséget, majd adja meg egyetlen előre mutató perjelként a blokkolni kívánt URL-t, amely a teljes webhelyet eltávolítja:

GSC URL-ek eltávolítása

ez eltávolítja webhelyét a SERP-kből 90 napra, annak érdekében, hogy ne térjen vissza, további lépéseket kell tennie. Az alábbiak egyike elegendő (és meg kell történnie, függetlenül attól, hogy képes-e eltávolítani a Főtitkárságon keresztül)

2) Állítsa a robots címkét noindex – re a teszthelyen

kérje meg a fejlesztőket, hogy biztosítsák, hogy a teszttartományon való futáskor a webhely minden oldala létrehoz egy robots noindex címkét:

<meta name="robots" content="noindex" />

ha webhelye WordPress, akkor ezt a “Beállítások” -> “olvasás” menüpont alatt állíthatja be, majd válassza a “keresőmotorok elriasztása a webhely indexelésétől”lehetőséget:

Wordpress olvasási beállítások

bármilyen kódot vagy beállítást is használ a teszthely indexelésének megakadályozására, biztosítania kell, hogy ez ne kerüljön át az élő webhelyre, amikor az új tartalom vagy funkció élővé válik. Teszt Webhelybeállítások az élesítés az egyik leggyakoribb és legbiztosabb módszer az élő webhely láthatóságának elrontására.

3) jelszóval védje Teszthelyét

a webes vezérlőpulton vagy a szerveren keresztül, passwordprotect a könyvtár, amelyben a teszthely található. Ennek számos módja van – a bestbet az, ha felkéri a tárhelyszolgáltatót vagy a fejlesztőket, hogy konfigurálják ezt, vagy, rengeteg jó erőforrás van odakint, amelyek megmutatják, hogyan kell ezt megtenni, mint például:

https://one-docs.com/tools/basic-auth

miután blokkolta, látnia kell egy figyelmeztető mezőt, amikor megpróbálja hozzáférni a teszthelyhez:

https://alitis.co.uk/

jelszóval védett webhely

ez megakadályozza, hogy a keresőmotorok feltérképezzék és indexeljék a webhelyet.

4) törölje a webhelyet és a visszatérési oldal állapotát 410

ha már nincs szüksége a teszthelyre, egyszerűen törölheti. Amikor a keresőmotorok megpróbáljáklátogasson el a hosszabb élettartamú oldalakra, látni fogja, hogy az oldalak törlődnek. Alapértelmezés szerint egy törött oldal visszaadja a status404 – et (“nem található”)-bár ez időben eltávolítja a webhelyet az indexeléstől, eltart egy ideig, mivel nyomon követési látogatások lesznek, hogy megnézzék, visszatért-e a törött oldal.

ehelyett állítsa az állapotot 410-re (“véglegesen eltűnt”), amely a következő üzenetet adja vissza:

 állapot 410

ehhez egy teljes tartományban törölje a webhelyet éshagyja el a .htaccess fájl a helyén a következő paranccsal:

Redirect 410 /

ez biztosítja, hogy a webhely először indexelt legyen (vagy legalábbis gyorsabb ,mint a 404)

5) blokk robotokon keresztül.txt

blokkolhatja a webhely feltérképezését a következő parancsok végrehajtásával a teszthely robotjaiban.txt fájl:

User-agent: *Disallow: /

ez megakadályozza, hogy a botok feltérképezzék a webhelyet. Megjegyzés: ha a teszthely jelenleg indexelve van, és a noindex címkék hozzáadásának útvonalán mentél a webhelyre, ne add hozzáa robotok.txt parancs mindaddig, amíg az összes oldalt nem indexelték. Ha ezt hozzáadja az összes oldal indexelésének megszüntetése előtt, ez megakadályozza a feltérképezést és a robotok címkéjének észlelését, így az oldalak indexelve maradnak.

és ez az – remélem, hogy a fentiek elégek lesznek ahhoz, hogy megtaláld, deindex és megakadályozd, hogy a teszted újra feltérképezzen.

de ne feledje

ezt nem tudom eléggé hangsúlyozni – ha úgy dönt, hogy megvalósítjarobotok metacímkék vagy robotok.txt, amely letiltja az összes botot a teszthely feltérképezésében, győződjön meg róla, hogy a teszthely élesítésekor nem viszi át ezeket a konfigurációkat az élő webhelyre, mivel kockáztatja, hogy teljesen elveszíti szerves láthatóságát.

és mindannyian ott voltunk, igaz?

Vélemény, hozzászólás?

Az e-mail-címet nem tesszük közzé.