az Organic Digital Blog
ez egy blogbejegyzés két (nagy) oldalon-élő és átmeneti webhelyek:
1. rész: Hogyan ellenőrizhető, hogy a Google indexelte-e az élő webhelyét
2. rész: Hogyan ellenőrizhető, hogy a Google indexelte-e az átmeneti/teszt webhelyet
hogyan állapíthatom meg, hogy a Google indexelte-e az élő webhelyemet?
két egyszerű módja van annak, hogy megtudja:
használja a webhelyet: lekérdezés operátor
keresse meg domainjét a Google-on az alábbiak szerint: site:organicdigital.co
ha a webhely indexelve van, látni fogja az oldalak listáját:
ha nem ad vissza eredményt, akkor problémák merülhetnek fel:
megjegyzés: a nagyobb oldalak, míg látni fogja közelítése hány oldalt indexelt, akkor csak akkor lesz képes, hogy valóban látni körül 300 őket a SERP-k.
ellenőrizze a Google Search Console lefedettségi szakaszát
minden webhelynek rendelkeznie kell GSC-fiókkal, véleményem szerint ez a legjobb eszköz, amelyet egy webhelytulajdonos vagy SEO használhat, és rengeteg információt nyújt webhelye szerves láthatóságáról és teljesítményéről. Ha még nem rendelkezik ilyennel, menjen a Főtitkárság hivatalos oldalára, ha igen, menjen a lefedettség szakaszba, ahol láthatja a:
- hibák az oldalak feltérképezése közben
- blokkolt oldalak
- érvényes indexelt oldalak
- kizárt oldalak
ha webhelyén problémák vannak, ezeket a “hiba” vagy a “kizárt” alatt jelentik – és megtudhatja, hogy miért nem szerepelnek a keresésben, például:
- alternatív oldal megfelelő kanonikus címkével
- feltérképezett-jelenleg nem indexelt
- duplikált felhasználó által kiválasztott kanonikus
- kizárva a ‘noindex’ címkével
- feltérképezési anomália
- Nem található (404)
ha webhelye oldalai nem jelennek meg az” érvényes ” részben, akkor problémái lehetnek.
használja az URL Inspect funkciót a GSC-ben
ha egyes oldalak indexelve vannak, míg mások nem, akkor az URL Inspect eszközt is használhatja annak ellenőrzésére, hogy a Google képes-e feltérképezni és indexelni egy adott oldalt, vagy vannak – e más problémák, amelyek megakadályozzák, hogy megjelenjen a keresésben-ez a felső menüben található, és lehetővé teszi, hogy egyszerre egy URL-t ellenőrizzen:
ha az oldal indexelve van, akkor a következő részleteket adja meg:
ha nem, akkor ezt az állapotot kapja, amely megmutatja, hogy a Google mikor próbálta feltérképezni az oldalt, és betekintést nyújt abba, hogy miért nincs indexelve:
miért nem térképezi fel vagy indexeli a Google az oldalaimat?
általában két oka van annak, hogy egy oldalt nem lehet feltérképezni vagy indexelni. Ezek különösen akkor gyakoriak, amikor egy új webhelyet elindítottak vagy áttelepítettek, és a fejlesztői környezet beállításait átvitték.
a robotok.txt Disallow Directive
ez az, ahol a webhely, a könyvtár vagy az oldal blokkolva van a robotok által.txt fájl.
minden helyszínen kell egy robot.TXT fájl, ez arra szolgál, hogy irányelveket adjon a keresőmotoroknak arról, hogy a webhely mely részeit kell feltérképezni.
ha van ilyen, akkor a gyökérkönyvtárban robots néven találja meg.txt
https://organicdigital.co/robots.txt
azok az irányelvek, amelyek megakadályoznák a webhely, könyvtár vagy oldal feltérképezését, a következők lennének:
Disallow: /Disallow: /directory/Disallow: /specific_page.html
a Screaming Frog segítségével megkísérelheti feltérképezni webhelyét. Ha ezt nem tudja megtenni, a következő feltérképezési adatok jelennek meg:
számos érvényes oka van a keresőmotorok blokkolásának ezen irányelv használatával, de ha a fentiek szerint lát valamit, akkor ezeket módosítania kell, hogy lehetővé tegye webhelyének feltérképezését.
hogyan kell módosítani a robotok.TXT fájl manuálisan
ha hozzáfér az FTP-hez, vagy kéznél van egy fejlesztő, manuálisan módosíthatja a robotokat.TXT fájl, hogy eltávolítson minden olyan irányelvet, amely blokkolja a webhely feltérképezését.
általában a következő parancs fogja ezt megtenni:
User-agent: *Allow: /
hogyan kell módosítani a robotok.txt fájl a WordPress-ben
ha telepítve van a Yoast plugin, akkor a fájlt közvetlenül az eszközök -> fájlszerkesztő szakasz segítségével szerkesztheti – kövesse ezt a linket az erre vonatkozó utasításokért.
hogyan kell módosítani a robotok.TXT fájl Magento-ban
menj a tartalomhoz – > tervezés – > konfiguráció, kattints a megfelelő áruház nézetbe és szerkesztsd a “keresőmotor robotokat”
A Robots metacímke Noindex és/vagy nofollow
a robotok mellett.txt fájl, akkor is ellenőrizheti a robotok meta tag belül a webhely forráskódját, és győződjön meg róla, hogy nem akadályozza meg a keresőmotorok feltérképezése.
ha ellenőrzi a forráskódját, ha nem lát robots metacímkét, vagy az “index” vagy “index, follow” értékre van állítva – akkor nem ez a probléma. Ha azonban látja, hogy a “noindex” felirat szerepel, ez azt jelenti, hogy az oldal feltérképezhető, de nem lesz indexelve:
ismét használhatja a Screaming Frog-ot, hogy ellenőrizze a robotok címkéinek állapotát a webhelyén. Ha a címke noindex értékre van állítva, akkor a nofollow nem lép túl a kezdőlapon:
ha csak noindexre van állítva, akkor az egész webhely feltérképezhető, de nem indexelhető:
A Robots metacímke fájl manuális módosítása
ismét nyissa meg közvetlenül a webhely oldalát/sablonját, és cserélje ki/adja hozzá a következő címkét:
<meta name="robots" content="index, follow">
hogyan lehet módosítani a Robots metacímkét a WordPress-ben
ennek két módja van – ha a probléma az egész webhelyre kiterjed a Beállítások – > olvasás és annak biztosítása, hogy a “keresőmotorok elriasztása a webhely indexelésétől” nincs bejelölve:
lehet, hogy tévedek, de azt hiszem, az egyetlen módja annak, hogy egy adott oldalt vagy bejegyzést indexre vagy noindexre lehet állítani, ha Yoastot használ, ezért lépjen az oldalra/bejegyzésre, és ellenőrizze a következő beállítást az oldal lábánál:
hogyan kell módosítani robotok Meta Tag Magento
mint korábban, menj Content – > Design – > Configuration, kattintson a megfelelő Store nézetben, és módosítsa a” Default robotok ” legördülő opciót:
a webhelyemet / oldalaimat a Google feltérképezheti és indexelheti – mi a következő lépés?
miután meggyőződött arról, hogy a robotok.a TXT fájl és a robots metacímke helyes, ismét használhatja az URL ellenőrzése eszközt az oldal ellenőrzéséhez, és kérheti, hogy a Google feltérképezze és indexelje az oldalt:
van egy Bing Webmester fiókom is!
ugye? Azt hittem, én vagyok az egyetlen. Ok, nagyjából ugyanazokat a dolgokat teheti meg, amelyeket ebben a cikkben írt a Bing Webmestereszközökben, mint a FŐTITKÁRSÁGBAN – tehát ellenőrizze az URL-t, és kérjen indexelést:
mindezt megtettem, és a webhelyem / oldalaim még mindig nincsenek indexelve!
ebben az esetben mélyebben el kell mélyednie a webhely konfigurációjában és funkcionalitásában, hogy azonosítsa, milyen egyéb problémák merülhetnek fel. Segíthetek, ha kitölti az alábbi kapcsolatfelvételi űrlapot.
2. rész:
Hogyan: ellenőrizze, hogy a Google indexeli-e az állomáshelyét
csak három dolog biztos az életben: halál, adók és a tesztoldal indexelése a Google által.
nagyon ritkán találkozol egy új webhely elindításával anélkül, hogy egy bizonyos ponton észrevennéd, hogy a staging szerver nyitva maradt a botok számára, hogy feltérképezzék és indexeljék.
nem feltétlenül a világ vége, ha egy keresőmotor indexelni akar egy tesztoldalt, mivel ezt meglehetősen könnyű megoldani – de ha hosszú távon tesztkörnyezetet futtat, hogy új funkciókat fejlesszen ki egy livesite mellett, akkor a lehető leghamarabb biztosítania kell a megfelelő védelmet, hogy elkerülje a duplikált tartalmi problémákat, és biztosítsa, hogy a valós életben az emberek ne látogassanak el és ne lépjenek kapcsolatba (azaz próbáljanak meg vásárolni valamit).
korábban fejlesztő vagyok, és valószínűleg magam is többször elkövettem ezeket a hibákat, de akkoriban nem volt olyan SEO, amely állandóan fájdalmat okozott volna a seggemben, rámutatva ezekre a dolgokra (akkoriban a régi iskolai brosúra-come-web tervezők, akik nem értették a táblázatok és az inline CSS korlátozását, ahol a fájdalom a seggemben van).
a következő technikák mind kipróbált és tesztelt módszerekhogy már használt azonosítani ezeket a kérdéseket a vad, bár, hogy megvédje a identityof klienseim és a fejlesztők, vettem az önzetlen döntést, hogy hozzanak létre egy pár teszt oldalak segítségével a saját honlap tartalmát annak érdekében, hogy bemutassa, mit kell tennie, ezek a következők:
test.organicdigital.co
alitis.co.uk
bár mire elolvassa ezt, követni fogom a saját tanácsaimat, és leveszem ezeket, szükségem van minden láthatóságra, amit csak tudok, az utolsó dolog, amire szükségem van, az indexelt teszthelyek visszatartanak.
1) Google Search Console (GSC) Domain tulajdonság
az új GSC egyik nagyszerű tulajdonsága, hogy beállíthat olyan tartománytulajdonságokat, amelyek kulcsfontosságú betekintést nyújtanak a webhelyéhez társított összes aldomainbe – mind a HTTP-en, mind a HTTPS-en. Ennek beállításához egyszerűen válassza ki a domain opciót egy tulajdonság hozzáadásakor (el kell végeznie azt a potenciálisan nem olyan egyszerű feladatot is, hogy TXT rekordot adjon a domain DNS-hez):
számos oka van annak, hogy egy domain tulajdonság miért hasznos, ebben az esetben azért, mert ha a tesztoldalt egy aldomainen állította be, és megjelenítést és kattintásokat generál a keresésben, akkor ezt a” teljesítmény “részben észlelheti az oldalak szűrésével vagy megrendelésével:
ezenkívül ellenőrizze a “lefedettség” részt is-egyes esetekben a Google indexeli a tartalmát:
míg más esetekben észreveszik, hogy vana tartalom duplikálása a helyén, és kérjük, tartózkodjon az indexeléstől, ebben az esetben a “másolat, a Google más kanonikusmint a felhasználó”:
még ha ez a helyzet is, akkor is törekednie kell arra, hogy biztosítsa, hogy ne haladjon előre.
2) Ellenőrizze a Google SERP-ket a link Clump használatával
ha nincs hozzáférése a GSC domain tulajdonságaihoz, vagy bármilyen HOZZÁFÉRÉSHEZA GSC-hez (ha nem, miért ne?) ezután ellenőrizheti a SERP-ket, hogy van-e teszt URL-je az indexbe.
ez is egy praktikus technika,amikor pitching az új üzleti, mi a jobb módja annak, hogy megnyerje a potenciális ügyfél, mint hogy a belső orexternal development team néz ki, mint ők kockára keresés láthatóság deathby lehetővé teszi, hogy ez megtörténjen az első helyen, és hogy te itt, hogy mentse theday.
a lépések a következők:
I) telepítse a LinkClump Google Chrome kiterjesztést, amely lehetővé teszi több URL másolását és beillesztését egy oldalról valami hasznosabb helyre, például az Excel-be.
ii) módosítsa a Linkcsomó beállításait az alábbiak szerint:
a legfontosabb megjegyezni a “másolt vágólapra” műveletet– az utolsó dolog, amit itt meg akar tenni, az, hogy száz URL-t nyit meg atonce.
iii) lépjen a kedvenc (vagy helyi) Google TLD-jére, kattintson a “Beállítások” gombra, amelyet látnia kell az oldal jobb alsó sarkában, majd válassza a “keresési beállítások” lehetőséget, ahol beállíthatja az “oldalankénti eredmények” értékét 100-ra.
iv) térjen vissza a Google kezdőlapjára, és használja a “site:” queryoperator alkalmazást, és csatolja a domainjét. Ha www-t vagy hasonlót használ, távolítsa el ezt – így a parancs a következő lenne:
site:organicdigital.co
egy legfeljebb 300 URL-ből álló minta jelenik meg, amelyet a Google jelenleg indexel az összes aldomainen. Miközben manuálisan áttekintheti az egyes eredményeket, hogy észrevegye a szélhámos webhelyeket:
találom, hogy sokkal gyorsabb és könnyebb jobb klikk és húzza allthe utat az oldal aljára. Tudni fogja, hogy a Linkcsomó működik-e, mivel a következő események jelennek meg, amikor a hivatkozások kiválasztása és másolása folyamatban van:
ismételje meg ezt a 2.és 3. SERP-ben, ha rendelkezésre áll, és miután az allURLs beillesztésre került az Excelbe, az A-Z sorrend használatával könnyen azonosíthatja indexelt tartalmát az összes releváns aldomainen.
3) a webhelyére jellemző Szöveg keresése
a fenti módszerek akkor működnek, ha a teszt webhelyét asubdomain tárolja ugyanazon a domainen, mint az élő webhelyét. Ha azonban az Ön vizsgálati helye máshol található, pl. test.webdevcompany.com, akkor nem fognak működni. Ebben az esetben ez vagy a következő módszereklehet.
keressen olyan tartalmat, amelyről úgy gondolja, hogy egyedülálló a webhelyén – az én esetemben a következő strapline-t használtam:” fokozza webhelye szerves láthatóságát és forgalmát”–, majd keresse meg ezt idézőjelben. Ha ezt a tartalmat tartalmazó teszthelyet indexelték, ennek a keresésnek fel kell tárnia:
mint látható, a kezdőlapok a fő oldalon, teszt sub domain és külön teszt domain jelennek meg. Véletlenül észrevehet egy versenytársat is, aki letépte a tartalmát. Néhányan ezt bóknak vennék, mások DMCAs – t adnának ki-rajtad múlik, de az utolsó dolog, amire vágysz, az, hogy valaki felülmúlja Önt a saját példányával.
4) feltérképezni a helyszínen a Screaming Frog
feltételezem te vagy a SEO, ezért használja Screaming Frog. Ha ezek közül bármelyik válasz nem, akkor jól sikerült, hogy ilyen messzire került ebbe a cikkbe (Hadd találjam ki, hogy olyan fejlesztő vagy, aki eldobott egy bollock-ot, és arra törekszik, hogy fedezze a seggét, mielőtt bárki más megtudja?).
ha nincs meg, töltse le itt.
az Alapbeállításokon belül jelölje be az “összes aldomain feltérképezése”jelölőnégyzetet. A “belső” nofollow követése ” jelölőnégyzetet is bejelölheti, mivel egyes tesztkörnyezetekben ez a helyén lehet.
miután a feltérképezés befejeződött, olvassa el a listát, hogy lássa, vannak-e belső linkek a teszthelyekre. Nemrég találkoztam ezzel, ahol egy új Drupal webhely élt, de a blogbejegyzésekben található összes belső link egy béta aldomainre mutat:
Ezután kattintson az egyes teszt URL-re, majd kattintson az alsó linkekre, hogy megtalálja a jogsértő belső linket a live to test webhelyről. Ebben az esetben módosítottam a kapcsolat linket a webhelytérképen, hogy a teszt URL-re mutassak:
miután észrevette, módosítsa és újra feltérképezze, amíg ezek nem lesznek többé belső linkek, amelyek máshová viszik a látogatókat. Ha WordPress-t használ, használja a search/replace plugint, hogy megtalálja az összes testURLs-t, és cserélje ki őket az élőre.
5) Ellenőrizze a Google Analytics Hostnames
ha teszthelyén ugyanaz a Google Analytics-fiók ‘stracking kód van telepítve, mint az élő webhelyén, akkor ezt észreveheti withinGA ha olyan szakaszra lép, mint a “viselkedés” – > “webhely tartalma” – > “AllPages”, majd másodlagos dimenzióként válassza a “Hostname” lehetőséget:
ezen túlmenően az adatokat tovább szűrhetikizárva a jelentésből a fő domain összes látogatását, amely mindent meghagymás példányok a listában. A webhelyek tesztelése mellett, felfedheti azt is, hogy a ga Spam egy 3rdparty webhelyen vált ki:
vannak előnyei és hátrányai annak, hogy ugyanaz a ga követési IDrunning mind az élő, mind a tesztkörnyezetben, de személy szerint nem látok okot arra, hogy külön fiókokkal rendelkezzen, és ehelyett több nézetet hozna létre az egyik Fiókján belül. Az élő webhelyhez állítson be egy szűrőt, amely csak az élő gazdagépnévre irányuló forgalmat tartalmazza,a teszthelyre pedig fordítva.
hogyan lehet eltávolítani és megakadályozni a teszthely indexelését
tehát felfedezte a teszthelyet az indexben a fenti technikák egyikével, vagy meg akarja győződni arról, hogy ez nem történik meg az első helyen. A következők segítenek ebben:
1) Távolítsa el az URL-eket a GSC-n keresztül
ha webhelye indexelt, függetlenül attól, hogy forgalmat generál-e vagy sem, a legjobb, ha eltávolítja. Ehhez használhatja az ” URL-ek eltávolítása “részt a” régi ” FŐTITKÁRSÁGBÓL.
Megjegyzés: Ez nem fog működni a domain tulajdonság szintjén, mivel a régi Főtitkárság nem gondoskodik róluk. Annak érdekében, hogy ezt megtehesse, be kell állítania egy tulajdonság beállítása az egyes testdomain számára.
a beállítás után lépjen a “régi verzióra”, majd a “Google Index”-> “URL-ek eltávolítása”menüpontra. Innen válassza a “TemporarilyHide” lehetőséget, majd adja meg egyetlen előre mutató perjelként a blokkolni kívánt URL-t, amely a teljes webhelyet eltávolítja:
ez eltávolítja webhelyét a SERP-kből 90 napra, annak érdekében, hogy ne térjen vissza, további lépéseket kell tennie. Az alábbiak egyike elegendő (és meg kell történnie, függetlenül attól, hogy képes-e eltávolítani a Főtitkárságon keresztül)
2) Állítsa a robots címkét noindex – re a teszthelyen
kérje meg a fejlesztőket, hogy biztosítsák, hogy a teszttartományon való futáskor a webhely minden oldala létrehoz egy robots noindex címkét:
<meta name="robots" content="noindex" />
ha webhelye WordPress, akkor ezt a “Beállítások” -> “olvasás” menüpont alatt állíthatja be, majd válassza a “keresőmotorok elriasztása a webhely indexelésétől”lehetőséget:
bármilyen kódot vagy beállítást is használ a teszthely indexelésének megakadályozására, biztosítania kell, hogy ez ne kerüljön át az élő webhelyre, amikor az új tartalom vagy funkció élővé válik. Teszt Webhelybeállítások az élesítés az egyik leggyakoribb és legbiztosabb módszer az élő webhely láthatóságának elrontására.
3) jelszóval védje Teszthelyét
a webes vezérlőpulton vagy a szerveren keresztül, passwordprotect a könyvtár, amelyben a teszthely található. Ennek számos módja van – a bestbet az, ha felkéri a tárhelyszolgáltatót vagy a fejlesztőket, hogy konfigurálják ezt, vagy, rengeteg jó erőforrás van odakint, amelyek megmutatják, hogyan kell ezt megtenni, mint például:
https://one-docs.com/tools/basic-auth
miután blokkolta, látnia kell egy figyelmeztető mezőt, amikor megpróbálja hozzáférni a teszthelyhez:
https://alitis.co.uk/
ez megakadályozza, hogy a keresőmotorok feltérképezzék és indexeljék a webhelyet.
4) törölje a webhelyet és a visszatérési oldal állapotát 410
ha már nincs szüksége a teszthelyre, egyszerűen törölheti. Amikor a keresőmotorok megpróbáljáklátogasson el a hosszabb élettartamú oldalakra, látni fogja, hogy az oldalak törlődnek. Alapértelmezés szerint egy törött oldal visszaadja a status404 – et (“nem található”)-bár ez időben eltávolítja a webhelyet az indexeléstől, eltart egy ideig, mivel nyomon követési látogatások lesznek, hogy megnézzék, visszatért-e a törött oldal.
ehelyett állítsa az állapotot 410-re (“véglegesen eltűnt”), amely a következő üzenetet adja vissza:
ehhez egy teljes tartományban törölje a webhelyet éshagyja el a .htaccess fájl a helyén a következő paranccsal:
Redirect 410 /
ez biztosítja, hogy a webhely először indexelt legyen (vagy legalábbis gyorsabb ,mint a 404)
5) blokk robotokon keresztül.txt
blokkolhatja a webhely feltérképezését a következő parancsok végrehajtásával a teszthely robotjaiban.txt fájl:
User-agent: *Disallow: /
ez megakadályozza, hogy a botok feltérképezzék a webhelyet. Megjegyzés: ha a teszthely jelenleg indexelve van, és a noindex címkék hozzáadásának útvonalán mentél a webhelyre, ne add hozzáa robotok.txt parancs mindaddig, amíg az összes oldalt nem indexelték. Ha ezt hozzáadja az összes oldal indexelésének megszüntetése előtt, ez megakadályozza a feltérképezést és a robotok címkéjének észlelését, így az oldalak indexelve maradnak.
és ez az – remélem, hogy a fentiek elégek lesznek ahhoz, hogy megtaláld, deindex és megakadályozd, hogy a teszted újra feltérképezzen.
de ne feledje
ezt nem tudom eléggé hangsúlyozni – ha úgy dönt, hogy megvalósítjarobotok metacímkék vagy robotok.txt, amely letiltja az összes botot a teszthely feltérképezésében, győződjön meg róla, hogy a teszthely élesítésekor nem viszi át ezeket a konfigurációkat az élő webhelyre, mivel kockáztatja, hogy teljesen elveszíti szerves láthatóságát.
és mindannyian ott voltunk, igaz?