Author Topic: Problem mit Google Index, Double Content (DC)  (Read 6733 times)

0 Members and 1 Guest are viewing this topic.

Offline beach-baer

  • Newbie
  • *
  • Posts: 20
    • View Profile
Problem mit Google Index, Double Content (DC)
« on: November 20, 2006, 08:58:19 PM »
Moin Moin fleißiges Forum und 4homepage Team!

Ich versuche seit Monaten meine HP einigermaßen brauchbar bei Google in den Index zu bekommen. Ich habe den '[Mod] Search Engine Friendly URLs aka Short URLs' eingebunden und nutze die Version 1.7.1. mit den letzten Bugfixes. Die Seiten sind bei msn, Yahoo etc. gut gelistet. Nur Google nimmt die Seiten auf und schmeißt das ganze nach ein paar Tagen wieder raus. Meine letzte Idee ist jetzt nur noch, dass es sich um Double Content handelt, was Google nicht so gerne hat.

Wenn ich eine Sitemap erstelle finden sich Seiten, die z.B. unter www.minibild.de/images/image123.htm und auch unter www.minibild.de/images/image123.search.htm zu erreichen sind. Die Seiten zeigen den gleichen Inhalt und stellen eigentlich Double Content dar.

Nun meine Fragen:
Sind die ../images123.search.htm wichtig?
Wie kann ich die Bildung dieser Seiten unterdrücken?
Würde das mein Problem beheben?
Liegt das Problem vielleicht auch ganz woanders?

Ich kämpfe nun seit 10 Monaten mit dem Problem und währe für jeden Tipp dankbar, bettel :D

Viele Grüße aus Hamburg

Kay
« Last Edit: November 21, 2006, 06:15:33 AM by beach-baer »

Offline Murat

  • Jr. Member
  • **
  • Posts: 97
    • View Profile
    • Lavinya
Re: Problem mit Google Index, Double Content (DC)
« Reply #1 on: February 11, 2007, 12:58:33 PM »
I Have same problem. Please help ME.
if you reply me of messages i wants happy.
<?php echo 'Hello, World!'; ?>

Offline kleiner_Hobbit

  • Jr. Member
  • **
  • Posts: 78
    • View Profile
    • Berlin in Bildern
Re: Problem mit Google Index, Double Content (DC)
« Reply #2 on: February 11, 2007, 02:24:29 PM »
Quote
Ich versuche seit Monaten meine HP einigermaßen brauchbar bei Google in den Index zu bekommen. Ich habe den '[Mod] Search Engine Friendly URLs aka Short URLs' eingebunden und nutze die Version 1.7.1. mit den letzten Bugfixes.

Werden denn Deine Seiten bei Google gar nicht gelistet?

Ich arbeite ohne den Search Engine Friendly-Mod und habe keinerlei Probleme mit Google.
Um eine bessere Platzierung bei Google zu erreichen, dürfte dieser Mod sehr hilfreich sein:
http://www.4homepages.de/forum/index.php?topic=6613.0

Viele Grüße

Claudia



Offline beach-baer

  • Newbie
  • *
  • Posts: 20
    • View Profile
Re: Problem mit Google Index, Double Content (DC)
« Reply #3 on: February 11, 2007, 03:34:08 PM »
Um eine bessere Platzierung bei Google zu erreichen, dürfte dieser Mod sehr hilfreich sein:
http://www.4homepages.de/forum/index.php?topic=6613.0

Hallo Claudia,

ja, den von Dir verlinken Mod habe ich auch integriert, den halte ich auch für sehr Sinnvoll.

Ich habe kurz nach meinen Posting hier über die Google-Console meine gesamte Seite aus dem Index entfernt. Da inzwischen alle möglichen Versionen, mit und ohne den Mods im Index waren und monatelang nicht wieder entfernt wurden. Normalerweise muss man dann 6 Monate auf die Wiederaufnahme warten. Ich habe dann aber schon ende Dezember ein Antrag gestellt und die Seiten wurden dann neu gecrawlt und der Index ist soweit auch sauber. Ich habe eine Sitemap erstellt und habe Google über die Robot.txt angewiesen keine Seiten mit "?" in der URL aufzunehmen. Dadurch fallen nun eine ganze Reihe Kombinationen die ev. DC verursachen raus. Mein Index bei der Google suche "im Web" scheint nun auch recht sauber gelistet zu sein. Die Suche bei Google mit "Seiten auf Deutsch" hat nach wie vor das gleiche Problem. Zuerst sehr viele Seiten, dann immer weniger. Zur Zeit  so um die 40. Mit der Anzahl der Seiten steigen und fallen auch die Besucherzahlen über Google. Es gibt doch sehr viele, die gleich auf "Seiten auf Deutsch" umschalten, bzw. beim Firefox ist sogar Standard.

Ich kenne noch ein ganze Reihe andere 4Image Nutzer und die haben die gleichen Probleme im deutschen Index. Auch bei Dir sieht das nicht besser aus. Es ist auch durchaus möglich, dass es sich um ein Problem bei Google handelt, die anderen Suchmaschinen haben da ja keine Probleme damit.

Gruß Kay
« Last Edit: February 11, 2007, 04:15:23 PM by beach-baer »

Offline beach-baer

  • Newbie
  • *
  • Posts: 20
    • View Profile
Re: Problem mit Google Index, Double Content (DC)
« Reply #4 on: July 26, 2007, 06:24:26 PM »
Moin Moin! (Monate später ... :lol:)

Da ich glaube, nun wieder etwas weiter gekommen zu sein, wollte ich hier mal berichten:

Meine Seiten sind nun auch seit einigen Monaten stabil im deutschen Google-Index. Was dieses nun aber genau bewirkt hat, kann ich nicht genau sagen, auch die bei Google arbeiten wohl ab und dann noch mal. Die Besucherzahlen haben sich seitdem aber merklich verbessert und sind durchweg stabil. Es gibt in zwischen die Möglichkeit, bei einigen Crawlern (auch Google), mittels Platzhalter die Aufnahme bestimmter Seiten zu unterbinden und so wie in meinem Fall den DC auszuschalten.

In der Robots.txt einfach folgendes ergänzen (als Beispiel, ggf. anpassen):

User-agent: *
blabla was da ggf. eh schon stand ...
Disallow: /*.search.*
Disallow: /*?mode=search


So wird nun eine doppelt vorhandene Seite wie www.minibild.de/images/image123.search.htm nicht mehr aufgenommen und als DC gewertet. Auch das Plugin "Rebuild Search Index" kann eine Menge nicht mehr relevanten Kram löschen. Mit den Platzhalten könnten auch die ganzen Suchseiten /*?search_keywords* oder Kategorieseiten entfernt werden.

Einzig was nun noch fehlt, ist die Aufnahme der ganzen Fotos bei Google-Images, das läuft noch sehr schleppend. :roll: Hat da noch jemand eine Idee (außer Tee trinken)? :)

Vielleicht hilft diese Info ja den Einen oder Anderen weiter.

Gruß Kay

Offline AntiNSA2

  • Hero Member
  • *****
  • Posts: 774
  • As long as I can finish my site before I die.
    • View Profile
    • http://www.thelifephotography.com
Re: Problem mit Google Index, Double Content (DC)
« Reply #5 on: May 19, 2009, 05:57:44 AM »
Disallow: /*.search.*
Disallow: /*?mode=search


I am now thinking of adding this to the robot.txt

Has any one found away to allow google to use search.php wihout any problems or errors?

Is there some bad things about blokding search.php?

Will it keep them from finding your image details or will they still be able to see all image details?
As long as I can finish my site before I die.