/ robots.txt

ghost & robots.txt

die welt interessiert nicht was ich hier schreibe. deshalb sollte eine robots.txt her; selbstredend auch die sitemap als xml.datei.

robots.txt

melden wir uns einfach via ssh an und erstellen rasch die gewünschte datei:

$ nano ~/ghost/content/themes/casper/robots.txt

bitte korrigiere den namen deines themes, falls es von casper abweicht. nun folgt der inhalt; meine aktuelle robots.txt sieht so aus:

user-agent: *
allow: /
disallow: /ghost/
sitemap: https://nerd.one/sitemap.xml

ab nun ist die neue robots.txt erreichbar sein: https://nerd.one/robots.txt

und falls nicht: $ svc -du ~/service/ghost