1. Herzlich willkommen bei WPDE.org, dem grössten und ältesten deutschsprachigen Community-Forum rund um das Thema WordPress. Du musst angemeldet oder registriert sein, um Beiträge verfassen zu können.
    Information ausblenden

blogdomain.de/page/1/ etc. löschen

Dieses Thema im Forum "Konfiguration" wurde erstellt von Ram, 19. Juli 2007.

  1. Ram

    Ram Member

    Registriert seit:
    10. Juli 2007
    Beiträge:
    18
    Zustimmungen:
    0
    Hallo, gibt es einen Möglichkeit die Seiten blogdomain.de/page/1/ sowie alle folgenden Seiten zu löschen? so das ich eine 404 fehlerstatus bekommen, wenn ich sie aufrufe.

    mfg
     
  2. Alphawolf

    Alphawolf Well-Known Member
    Ehrenmitglied

    Registriert seit:
    31. Mai 2005
    Beiträge:
    3.315
    Zustimmungen:
    0
    Was heißt löschen?

    Wenn du keine Seiten haben willst, dann entferne die Links oder stelle im Admin-Bereich ein, dass pro Seite 100 Beiträge angezeigt werden, dann bleibt alles auf einer Seite.
     
  3. Putzlowitsch

    Putzlowitsch Well-Known Member

    Registriert seit:
    21. Oktober 2006
    Beiträge:
    5.955
    Zustimmungen:
    47
    page/1/ gibt es normaleweise sowieso nicht, weil das die Ausgangsseite ist. Es geht erst bei /page/2/ los.
    Man könnte natürlich die URI in der myhacks.php auf 'page' testen und dann mit der Holzhammermethode einfach einen 404er ausgeben.
    Aber wozu soll das Ganze gut sein?

    Gruß
    Ingo
     
  4. Ram

    Ram Member

    Registriert seit:
    10. Juli 2007
    Beiträge:
    18
    Zustimmungen:
    0
    Löschen ist vielleicht der falsche Ausdruck, ich will einfach den Zugriff sperren und einen 404 Statuscode ausgeben.

    Den Link "nächste Seite" habe ich bereits gelöscht und es verweist, soweit ich das gesehen hab, sonst kein Link mehr auf /page/x/ ... nur so am Rand, wie werden diese Seiten eigentlich genannt?

    Nur sind die Seiten /page/x/ bereits in Google indiziert und ich kann Sie weiterhin über diesen indizierten Link aufrufen und "leider" wird ein 200 Statuscode ausgegeben ... damit wird Google nie auf die Idee kommen, diese Seite aus dem Index zu löschen ... ok, ich könnte einfach in Löschung beantragen, nur will ich vorher sicher gehen, dass diese Seiten nicht mehr erreichbar sind.

    Der Grund ist der, Alphawolf wird es schon wissen, ich will nämlich die Struktur des Blogs ein wenig verändern, um keine Probleme mit Duplictae Content zu bekommen.

    Hier ein Beispiel, Ich habe auf der Startseite maximal fünf Beiträge. Schreibe ich jetzt einen sechsten Beitrag, so wird der erste Beitrag auf die nächste Seite (/page/x/) verschoben. Nur leider hat Google bereits die Startseite mit dem ersten Beitrag gecrawlt und aufgenommen. Wenn der Googlebot jetzt wieder auf meine Seite kommt und plötzlich die /page/x/ crawlt, wo ja jetzt der erste Beitrag zu finden ist, könnte Google das als Duplicate Content werten.

    Das Ziel ist es jetzt, das jeder Text, nur auf einer einzigen Seite zu finden ist ... deshalb "darf" es keine /page/x/, /2007/7/ oder /2007/ Verzeichnisse mehr geben ... ich will alles zentral über einen Punkt verlinken und da kommt das Plugin Simple Yearly Archive vom Alphawolf ins Spiel.

    Ich bin das mit der my-hacks.php kurz mal überflogen, ich müsste mir quasi selber ein Plugin oder Codeschnipsel, bauen, der automatisch beim Aufrufen einer bestimmten URL einen 404 ausgibt?
     
  5. Putzlowitsch

    Putzlowitsch Well-Known Member

    Registriert seit:
    21. Oktober 2006
    Beiträge:
    5.955
    Zustimmungen:
    47
    Sooo intelligent ist Google dann auch wieder nicht, das es einen Textteil, der dann auf der nächsten Seite auch noch in einem anderen Kontext steht, als doppelten Inhalt erkennt. Behaupte ich zumindest mal. Das DC-Problem entsteht hautpsächlich, wenn die exakt selbe Seite unter mehreren URLs aufrufbar ist, also z.B. mit und ohne www. Sind aber alles eher meine persönlichen Eindrücke und Beobachtungen, also nicht auf die Goldwaage legen.

    Das mit der myhacks.php ist relativ simpel:
    PHP:
    Entschuldige, aber du musst dich registrieren oder anmelden um den Inhalt sehen zu können!
    Falls eine Seite /page/nnn aufgerufen wird, wird einfach die URI durch einfügen eines ungültigen Zeichens (z.B. Tabulator) für WP unauswertbar gemacht.

    Gruß
    Ingo
     
  6. Ram

    Ram Member

    Registriert seit:
    10. Juli 2007
    Beiträge:
    18
    Zustimmungen:
    0
    da muss ich dir leider wieder sprechen, denn dann würde ich mir einfach alle Texte von Wikipedia klauen und nur jeweils den ersten Satz umschreiben ... und schon könnte Google mich mal :)

    ne aber mal im ernst, Google ist da ziemlich auf Zack und Duplicate Content kann deine Seiten für lange Zeit in den Tiefen von Google verschwinden lassen. Google erkennt auf jeden Fall, ob der Text von einer anderen Seite ist und ob die beiden Seiten irgendwie zusammen gehören. Ob von der IP oder der Verlinkung her.

    Danke erstmal für den Code, hab ihn auch mal eingebaut und bekomme jetzt "Fehler 404 - nichts gefunden" ... sieht erstmal ok aus, nur leider bekomme ich noch immer den Statuscode 200 ... den bekomme ich aber auch, wenn ich an die URL irgendeinen Mist anhänge ... wie http:// blogurl . de/asd/
    wenn ich das bei einem anderen Blog mache, in dem ich nicht deinen Code eingebaut habe, bekomme ich einen schönen 404 Statuscode ...
     
  7. Alphawolf

    Alphawolf Well-Known Member
    Ehrenmitglied

    Registriert seit:
    31. Mai 2005
    Beiträge:
    3.315
    Zustimmungen:
    0
    Google unterscheidet bei DC, ob es sich um verschiedene Seiten oder eine Seite handelt. Und da sich der vermeintliche DC auf einer Domain/IP befindet, ist das nicht weiter tragisch. Btw, wenn du fünf Beiträge pro Seite hast, einer kommt hinzu, dann rrutscht der letzte Beitrag von der Startseite auf Seite 2 und ist nicht mehr auf Seite 1 vorhanden, ergo kein DC.

    Zudem, sehe es aus einem globaleren Blickwinkel. Google hat Blogger.com gekauft, und wird sich sicherlich nicht ins eigene Fleisch schneiden. Archivseiten und Paginierung gibt's zudem nicht erst seit WP, und damit kann Google sehr wohl umgehen. Laut deiner (leicht paranoiden) Theorie wären mittlerweile fast alle Blogs aus dem Index verschwunden. Den Vorteil starker interner Verlinkung (Linkpop, Link Density etc.) habe ich ja schon einmal erklärt.. Wenn es zu jeder Unterseite nur einen eigehenden internen Link gibt, ist das zwar für etwaige Linkpartner gut (da sich der PR dann stärker auf die Linktauschseiten vererbt), aber nicht für deine Seite, und somit auch wiederum nicht für deine Linkpartner (sinkender interner PR). ;)
     
    #7 Alphawolf, 20. Juli 2007
    Zuletzt bearbeitet: 20. Juli 2007
  8. Putzlowitsch

    Putzlowitsch Well-Known Member

    Registriert seit:
    21. Oktober 2006
    Beiträge:
    5.955
    Zustimmungen:
    47
    Hast Du es mal probiert? Behaupten kann man viel :)

    Ja wenn auch sonst bei jedem Fehler der Statuscode 200 zurückkommt, liegt das Problem woanders. Mein Code macht ja nur etwas, wenn tatsächlich '/page/nnn' vorkommt, für alle anderen Seiten interessiert er sich nicht. Kannst Du mal die konkrete Seite nennen?

    Gruß
    Ingo
     
  9. Ram

    Ram Member

    Registriert seit:
    10. Juli 2007
    Beiträge:
    18
    Zustimmungen:
    0
    Das ist so nicht ganz richtig, der Googlebot crawlt bei seinem Besuch nicht alle Seiten, teilweise wird nur ein gewisser Pfad "untersucht". Und deshalb kann es zu internen DC kommen, egal wie stark dies abgewertet wird.

    Das ist auf jeden Fall ein globales Problem. Nur ist die Verlinkung der Blogger.com Blogs ein bisschen anders als die der WP Blogs. Schau dir dazu doch einfach mal den "Ältere Posts" Link in einem Blogger.com Blogs an.


    Ja Google kann damit umgehen, Google kennt die Strukturen eines WP-Blogs bestimmt besser als man ein Programmierer. Aber das heisst nicht, dass dies nicht trotzdem negativ gewertet wird.

    Ich versuche gern die interne Linkpower gezielt einzusetzen und sie nicht willkürlich zu verteilen.

    Alles hat seine Vor- und Nachteile, man sollte es nur entweder zu 100% machen oder es einfach lassen. Wie heisst es doch so schön ... viele Wege führen nach Rom ... und wenn ich durch ein bisschen testen eine Abkürzung finde, dann hat sich der ganze Aufwand schon gelohnt :)
     
  10. Alphawolf

    Alphawolf Well-Known Member
    Ehrenmitglied

    Registriert seit:
    31. Mai 2005
    Beiträge:
    3.315
    Zustimmungen:
    0
    Hmm, bzgl. des vermeintlichen Double Contents mal ein Beispiel, warum ich der Meinung bin, dass du das etwas zu eng siehst, no offense. :)

    Laut Copyscape - Website Plagiarism Search - Web Site Content Copyright Protection kopiert WordPress Helper | bueltge.de [by:ltge.de] Teile meiner Seite Wordpress Helper - oliver, schloebe, wordpress, typo3, firefox, blog, webmastertools - SCHLOEBE.DE - Personal Portfolio von Oliver Schlöbe (nein, eigentlich kopiere ich ihn *gg).
    Wenn du aber genau hinschaust, ist nur der Content seines einkommenden Trackbacks derselbe. Und in ähnlichem Maße bezieht sich das auf die Paginierung. Es sind wenige Sätze, die auf vermeintlichen WP-DC-Seiten temporär doppelt erscheinen, zudem domainintern. Du müsstest also auch Trackbacks abschalten.

    Was ich damit sagen will ist, dass man den DC-Gedanken bis ins kleinste weiterführen könnte, ich aber bisher keinen Fall gehört habe, in dem ein WP-Blog abgestraft worden ist (lasse mich gerne belehren). Im Gegenteil: Blogs sind eine DER Erfolgsgeschichten des Web 2.0. Und nicht zuletzt eben wegen jener guten internen Verlinkung, sprechender URLs, und Track- und Pingback-Features, die Google mag, denn genau danach arbeitet bspw. auch der PR-Algorithmus. Die Anzahl der eingehenden (in- und externen) Links ist ausschlaggebend fürs Ranking in den SERPs. Und ich persönlich halte diesen Punkt für weitaus gewichtiger als DC-Sorgen. Ich fahre damit schon recht lange und bin nachwievor mit einigen Keywords hervorragend gelistet. Google hasst mich nicht. :)

    Sorry für die Ausschweife und Off-Topic, aber ich find's schade, wenn Google über dem Gedanken der Usability steht. Und WP hat von Hause aus IMO gute Usability-Ansätze. Archive z.B. oder eben Paginierung, um die Seitengröße gering zu halten, damit der Crawler nicht aufgrund von zu hoher Server-Reaktionszeit wieder verschwindet.

    Just my 2 cents. Ich weiß, dass SEO viel mit rumprobieren zu tun hat, und ich bin selbst auch kein Profi darin; das alles waren nur meine bisherigen Beobachungen.

    Und nein, ich werde weder für die Hymnen auf WP bezahlt noch werde ich dich hassen, weil du machst, was du machst. :D
     
    #10 Alphawolf, 23. Juli 2007
    Zuletzt bearbeitet: 23. Juli 2007
  11. Ram

    Ram Member

    Registriert seit:
    10. Juli 2007
    Beiträge:
    18
    Zustimmungen:
    0
    :)
    stimmt schon, was bringt mir ein Blog, der zu 100% allen Google Vorschriften entspricht ... jedoch für den User einen Mehrwert bietet, weil kein User eine Ahnung hat, wie er zu einem bestimmten Beitrag kommt ... das ist ja auch nicht mein Ziel ... jedoch versuche ich einen optimierten Mittelweg zu finden, um Google sowie dem User zu 100% gerecht zu werden ...

    kleine frage, bist du auch auf webmasterpark . net als Admin aktiv? Hab da Heute durch Zufall auch einen Alphawolf entdeckt ...


    mfg Ram
     
  12. Alphawolf

    Alphawolf Well-Known Member
    Ehrenmitglied

    Registriert seit:
    31. Mai 2005
    Beiträge:
    3.315
    Zustimmungen:
    0
    Verdammt, dabei bin ich doch unsichtbar... :) Bist du User dort?
     
  13. Ram

    Ram Member

    Registriert seit:
    10. Juli 2007
    Beiträge:
    18
    Zustimmungen:
    0
    Ja aber zur Zeit nur im Unterforum "Linkpartner" :)
     
  1. Diese Seite verwendet Cookies, um Inhalte zu personalisieren, diese deiner Erfahrung anzupassen und dich nach der Registrierung angemeldet zu halten.
    Wenn du dich weiterhin auf dieser Seite aufhältst, akzeptierst du unseren Einsatz von Cookies.
    Information ausblenden
  1. Diese Seite verwendet Cookies, um Inhalte zu personalisieren, diese deiner Erfahrung anzupassen und dich nach der Registrierung angemeldet zu halten.
    Wenn du dich weiterhin auf dieser Seite aufhältst, akzeptierst du unseren Einsatz von Cookies.
    Information ausblenden