Wie beschleunigt man die Indexierung einer Website ?
Suchmaschinen berücksichtigen mehrere Faktoren, um ihre Crawling-Geschwindigkeit möglichst gut anzupassen und so ihre Rechenleistung intelligent zu verteilen.
Eine Crawling-Verzögerung durch robots.txt oder den Meta-Tag revisit-after werden von Google einfach ignoriert. Selbst die Änderungsfrequenz des Seiteninhalts der URL durch eine XML-Sitemap scheint nicht maßgebend zu sein.
Eine Website, die jeden Tag viele neue Seiten anbietet, wird sehr oft von Bots besucht, denn die Crawler richten sich anscheinend nach dem Veröffentlichungsrhythmus.
Ebenso werden Seiten und Websites mit einem hohen PageRank häufiger gecrawlt als andere.
Auch sind die Bereitstellung eines RSS-Feeds, eine in Echtzeit aktualisierte XML-Sitemap oder das Verweisen vieler (interner und externer) Links auf eine neue Seite (noch) positive Parameter.
Schließlich scheint der Traffic ein wichtiger Indikator zu sein. Wenn Tausende von Besuchern auf eine neue Website kommen, sind die Bots schnell alarmiert.
Einige SEO-Experten glauben, dass der Einsatz von Google Analytics oder Google Adwords den Indexierungsprozess beschleunigen kann.
Eine (fast) direkte Indizierung gehört also heute für viele Websites zur Realität, da eine Website nicht mehr über das offizielle Google-Formular eingereicht werden kann. Dieses Verfahren hat sich mit der Zeit als ineffizient herausgestellt.
Eine „künstliche“ Beschleunigung der Indexierung kann nur noch über Google Search Console erreicht werden.