Het verbeteren van de indexering van de site (deel 2)In het eerste deel van dit artikel hebben we behandeld in de openbare diensten van Google en Yandex dient zich registreren om zoekmachines vaker uw site bezocht. In dit artikel leer je hoe je de zoekmachines te krijgen om te blijven op het terrein en de index meer pagina's over dit nogal wat is gezegd in het eerste artikel, namelijk, is de plaatsing van de gerelateerde links op de pagina, zoals de onderkant van deze pagina voor me, maar maïsvelden geen geval zou moeten zijn links naar andere onderwerpen en, bijgevolg, op die pagina's ook moeten zijn die links.Maak je fouten in het dorp. Htaccess te lezen of te downloaden van een volledig geconfigureerd.Soms gebeurt het dat links naar sites verouderd, hernoemen of verwijderen pagina's in het einde wanneer coming out op dergelijke koppelingen fouten, veel hosting bedrijven zijn geen uitzondering en mijn standaard-error pagina en verstrekt door de hosting Jino hiervan opende het op mijn www.likiliks.ru/ 404.html, en bij hosting www.jino.ru/404.html het betekent als er een fout van de zoekmachine zal direct gaan van je eigen site.Om dit te doen, je foutpagina, als je niet weet hoe je een pagina fout te maken. Htaccess maak een tekstdocument en maak de volgende gegevens (elk met een nieuwe lijn) ErrorDocument 500 / 500.html ErrorDocument 404 en / 404.html en op te slaan zonder de naam in txt-formaat. htaccess te maken, precies zoals in voorbeeld Ie (tochkahtaccess) als u hebt niet mijn download om te downloaden, dan is dit bestand moet worden geladen in de hoofdmap van de site en natuurlijk naar dezelfde pagina 404.html 500.html en .Op haar stranitsahoshibok maken links naar uw site of gewoon een link naar de homepage, nu weet je hoe je je error pagina te maken op de website of hosting.Robots.txt te lezen of te downloaden van een volledig geconfigureerd.Nu laten we het robots.txt-bestand is een must-have elke site andere zoekmachines zijn terughoudend om uw site te morrelen. Hoe kan ik het bestand robots.txt te maken? Om dit te doen, maak een tekst document met de naam robots.txt en voeg de volgende gegevens (elk item met een nieuwe lijn) User-agent: *- search engine kan iedereen om te komen tot uw site en indexeren, Disallow: / mapnaam / index-specifieke verboden map op de site, Disallow: stranitsa.html - voorkomt indexering van bepaalde dorpen. En daar heb je een paar tips over het schrijven van een bestand robots.txt, indien op de site te veel links (meer dan 10) in dit geval, de robot zal een grote last te verplaatsen, en voor hosting meer en hij kan gewoon wegglijden van de site voor om dit te verminderen en geef het een rust voor hem om het schrijven in het robots.txt-bestand een ander team Crawl-delay: 20 is de zoekmachine weer verblijf in de plaats van de 20 seconden pauzeren voordat ze overstappen naar een andere pagina. Crawl-delay: 2 '- deze optie zal de robot zorgen om naar uw site terug te keren in 2 dagen. Moeten nog een tweede golf van zoekmachine indexering van uw site te brengen)) schrijven een ander team Host: www.vash-sayt.ru is een spiegel van uw site zal laten zien, de tijd zal worden gecontroleerd totdat de mirror site in de index twee keer vallen zoveel pagina's Ie www.vash- sayt.ru en uw sayt.ru, maar dit is slechts tijdelijk in de scan mirror site.Als je niet begrijpt dat toen het downloaden van een kant en klare, maar vergeet niet om het adres van de site in te voerenControleer het derde artikel van uitgifte met betrekking tot de indexering van de site te verhogen, zal het automatisch detecteren van de broken links en rijden de concurrenten.
Комментариев нет:
Отправить комментарий