Stap 1: Zoek de URL die niet kan worden gecrawld
Pagina's die niet kunnen worden gecrawld, kunnen op drie manieren invloed hebben op uw dynamische zoekadvertenties:
- Als u
URL-Equals
selecteert als uw targetingtype en uw URL niet kan worden gecrawld, ziet u de status 'Afgekeurd: pagina kan niet worden gecrawld' in uw dynamische advertentiedoel. - Als u paginafeeds gebruikt en een URL in uw feed niet kan worden gecrawld, ziet u de status 'Afgekeurd: pagina kan niet worden gecrawld' in de rij voor die URL in de gedeelde bibliotheek.
- Als u een ander targetingmechanisme gebruikt en een URL niet wordt of niet kan worden gecrawld, weet Google Ads dat niet, dus wordt er geen foutmelding weergegeven. Als een URL die u probeert te targeten, geen verkeer ontvangt, kunt u problemen oplossen door de URL eerst te targeten via
URL-Equals
of paginafeeds. Ofwel de URL genereert verkeer ofwel u krijgt een foutmelding over waarom er geen verkeer wordt gegenereerd.
Stap 2: Zorg ervoor dat Google AdsBot de bestemmingspagina kan crawlen
- Kopieer de URL en plak deze in de adresbalk van een webbrowser.
- Voeg
/robots.txt
toe aan het eind van de domeinnaam en druk vervolgens op Enter. (Als uw bestemmingspagina bijvoorbeeldhttp://www.example.com/folder1/folder2/
is, controleert u welke robots het domein mogen crawlen door naar de URL te gaan:http://www.example.com/robots.txt
.) - Zoek naar de regel
User-agent: AdsBot-Google
.- Als deze regel ontbreekt, werkt u samen met de webmaster om deze toe te voegen.
- Als de pagina leeg is, werkt u samen met de webmaster om een
robots.txt
-bestand toe te voegen aan het domein. - Als u
User-agent: AdsBot-Google
wel ziet, zorgt u ervoor dat deze regel niet wordt gevolgd door een regel metDisallow: /
. Zorg er ook voor dat AdsBot-Google niet wordt beperkt door een andere regel in het bestand. Overrobots.txt
-bestanden en Google-crawlers
- Als de bestemmingspagina een subdomein is, controleert u of het subdomein een afzonderlijk
robots.txt
-bestand bevat. Bijvoorbeeld:https://subdomain.domain.com/robots.txt
. Zorg ervoor dat ditrobots.txt
-bestand ookUser-agent: AdsBot-Google
toestaat. - Open de bron van de URL. In Chrome kunt u dit doen door
view-source:THE_URL
te openen. Als uw bestemmingspagina bijvoorbeeldhttp://www.example.com/folder1/folder2/
is, kunt u controleren welke robots het domein mogen crawlen door te navigeren naarview-source:http://www.example.com/folder1/folder2/
. - Zoek naar de tekenreeks
AdsBot-Google
.- Als deze er niet is, is dit niet de oorzaak van het probleem.
- Als de tekenreeks zich binnen een tag zoals
<meta name="AdsBot-Google" content="noindex" />
bevindt, werk dan samen met uw webmaster om deze te verwijderen. Meer informatie over metatags die Google begrijpt
Andere redenen waarom een bestemmingspagina niet kan worden gecrawld
Als Google AdsBot de bestemmingspagina mag crawlen (User-agent: AdsBot-Google
is al opgenomen in het robots.txt
-bestand van de site), kan er een andere reden zijn waarom de pagina niet kan worden gecrawld:
- De bestemmingspagina wordt niet geladen. Als u de pagina opent met een webbrowser en een foutmelding ontvangt (bijvoorbeeld '404 niet gevonden', 'Site niet bereikbaar', 'Uw sessie is verlopen'), neemt u contact op met de webmaster van de site om te controleren of de bestemmingspagina op elke locatie, in elke omgeving (mobiel en desktop) en in elke browser wordt geladen.
- De bestemmingspagina vereist inloggen. Alle bestemmingspagina's voor advertenties moeten openbaar toegankelijk zijn. Gebruik een andere bestemmingspagina of werk samen met de webmaster om de inlogvereiste voor de pagina te verwijderen.
- De bestemmingspagina stuurt gebruikers te veel door of leidt hen te veel om. Bestemmingspagina's moeten minder dan tien omleidingen bevatten. Werk samen met de webmaster om het aantal omleidingen te verminderen. Meer informatie over domein doorsturen