Ich w?rde gerne f?r alle Standardsubdomains eine globale robots.txt anlegen. Ziel: Google et al sollen die Testdomains nicht indexieren und ignorieren.
Anstatt das nun manuell f?r jeden Kunden zu machen, w?rde ich gerne sowas in der Art den vhosts hinzuf?gen
<Location "/robots.txt">
SetHandler None
Require all granted
</Location>
Alias /robots.txt /home/robots.txt
Jedoch eben _nur_ f?r die Standardsubdomains, nicht die "echten" Domains.
Ich kann zwar in den Einstellungen unter Standard vHost-Einstellungen soetwas hinzuf?gen, bin mir aber nicht sicher wie ich das eben nur f?r die Standardsubdomains machen soll.
Habt ihr ne Idee wie ich das am sinnvollsten l?sen kann?
Question
3tlam
Hallo zusammen!
Ich w?rde gerne f?r alle Standardsubdomains eine globale robots.txt anlegen.
Ziel: Google et al sollen die Testdomains nicht indexieren und ignorieren.
Anstatt das nun manuell f?r jeden Kunden zu machen, w?rde ich gerne sowas in der Art den vhosts hinzuf?gen
Jedoch eben _nur_ f?r die Standardsubdomains, nicht die "echten" Domains.
Ich kann zwar in den Einstellungen unter Standard vHost-Einstellungen soetwas hinzuf?gen, bin mir aber nicht sicher wie ich das eben nur f?r die Standardsubdomains machen soll.
Habt ihr ne Idee wie ich das am sinnvollsten l?sen kann?
Oder gibts daf?r sogar schon ne Einstellung?
Danke!
Link to comment
Share on other sites
7 answers to this question
Recommended Posts
Archived
This topic is now archived and is closed to further replies.