- #1
W
william26
Aktives Mitglied
Themenersteller
- Dabei seit
- 02.06.2004
- Beiträge
- 38
- Reaktionspunkte
- 0
- Ort
- Hamburg
Hi,
ich möchte meine robots.txt dazu nutzen, den Suchmaschinen, besonders Google, zu sagen, das deren Spider nicht auf die Meta-Angaben, sondern auf den Inhalt der Site stürzen(durchsuchen) sollen. Dabei sollen sie ebenfalls allen Links folgen!
Ich hab den Tipp bekommen, die robots.txt so zu schreiben:
User-agent: *
Disallow:
Ist das korrekt und muß in der robots.txt-Datei nicht noch mehr stehen, z.B. ein Head, oder so? Oder muss sie nur diese beiden Zeilen beinhalten?
Thx!
ich möchte meine robots.txt dazu nutzen, den Suchmaschinen, besonders Google, zu sagen, das deren Spider nicht auf die Meta-Angaben, sondern auf den Inhalt der Site stürzen(durchsuchen) sollen. Dabei sollen sie ebenfalls allen Links folgen!
Ich hab den Tipp bekommen, die robots.txt so zu schreiben:
User-agent: *
Disallow:
Ist das korrekt und muß in der robots.txt-Datei nicht noch mehr stehen, z.B. ein Head, oder so? Oder muss sie nur diese beiden Zeilen beinhalten?
Thx!