holgi-w hat geschrieben:Ein Webseitenbetreiber hat aber auch die Möglichkeit, seine Webseite z. B. bei Google "anzumelden" um bestimmte Verzeichnisse aus der Suche von vornherein auszuschließen.
Als Webseitenbetreiber brauchst du dich aber nicht bei sämtlichen Suchmaschinen anzumelden um deine Seite von der Indexierung auszunehmen. Das schaffst du sowieso nicht, weil du nicht alle Suchmaschinen dieser Welt finden wirst. Du kannst einfach im Header des Quelltext die Indexierung verbieten und die seriösen Suchmaschinen halten sich auch daran.
- Code: Alles auswählen
<meta name="robots" content="index,nofollow" />
In dem Beispiel soll die Seite zwar indexiert werden, aber die BOTs sollen keinem Link auf der Seite folgen, wenn die Seite nicht indexiert werden soll schreibst du einfach
noindex statt index.
Für alle die sich nicht so gut auskennen, den Header sieht man nur wenn man sich den Quelltext anschaut, beim normalen surfen ist er nicht zu sehen. Hier ist die auf der Seite ist die Zeile des Header nicht vorhanden, also wer sich die Zeile anschauen möchte muß wo anders suchen. Wenn alles indexiert werden soll ist sie auch nicht notwendig, da Seite ohne die Zeile automatisch indexiert werden.
Die Seite von der meine Beispielzeile ist ist:
https://www.openstreetmap.de/karte.html#