die welt interessiert nicht was ich hier schreibe. deshalb sollte eine robots.txt her; selbstredend auch die sitemap als xml.datei.
robots.txt
melden wir uns einfach via ssh an und erstellen rasch die gewünschte datei:
$ nano ~/ghost/content/themes/casper/robots.txt
bitte korrigiere den namen deines themes, falls es von casper
abweicht. nun folgt der inhalt; meine aktuelle robots.txt sieht so aus:
user-agent: *
allow: /
disallow: /ghost/
sitemap: https://nerd.one/sitemap.xml
ab nun ist die neue robots.txt erreichbar sein: https://nerd.one/robots.txt
und falls nicht: $ svc -du ~/service/ghost