Kurze Verweilzeiten
 

Worum
geht es ?

Manche Besucher scheinen sehr flink zu sein und bleiben nur ein paar Sekunden, manchmal sogar nur 0 Sekunden auf Ihren Seiten. Wie kommt es dazu ?

Wie ist dies zu erklären ?

Eine Besuchszeit (z.B. in der Liste "Besucher-Info" oder "Besucher Seiten...") von einer bestimmten Dauer, die länger als das Laden der Elemente einer Seite dauert, kommt nur dann zustande, wenn mindestens zwei Ihrer Seiten besucht werden, da die Aufenthaltsdauer auf der letzten besuchten Seite Ihrer Webpräsenz nicht bestimmt werden kann. Beim ausschließlichen Besuch der Homepage, die keine Bilder o.ä. hätte, würde als Besuchszeit 0 Sekunden erscheinen. Grund: Die Log-Datei, auf der alle Auswertungen beruhen, zeigen nur den AbrufzeitPUNKT einer Seite an, nicht die Dauer ! dalaSTAT-pro ermittelt aber zu jedem Seitenabruf bestimmte Eigenschaften des Abrufenden, also des Besuchers (und zwar: IP-Adresse in Kombination mit Betriebssystem, dem verwendeten Browser und dem Abrufzeitpunkt). Aufgrund dieser Eigenschaften können weitere Zugriffe auf andere Seiten wieder diesem Besucher zugeordnet werden - die Wege des Besuchers über die Seiten werden erkennbar. Man kann davon ausgehen, dass der Aufruf einer neuen Seite eines Besuchers dazu führt, dass er die zuletzt angesehene Seite verlassen hat - nur daraus also kann der Zeitpunkt des Verlassens einer Seite bestimmt werden. Bei der letzten besuchten Seite fehlt aber (definitionsgemäß für "letzte") eine weitere (neue) Seite - ein Zeitpunkt für das "Verlassen" der letzten Seite kann damit nicht ermittelt werden.

Für Besuchszeiten von Null oder ein paar Sekunden gibt es zwei Möglichkeiten:

1) Meist sind sogenannte Robots hier involviert. Dies sind Programme von Suchmaschinenbetreibern, die das gesamte Web durchstöbern und aufgrund deren sehr guter Netzanbindung sehr schnell Ihre Seiten, manchmal nur eine, manchmal die gesamte Präsenz, laden und auswerten. Die meisten dieser Robots melden sich auch heute noch so an, wie es sich "gehört", also mit einer Browserangabe von z.B. "+http://www.googlebot.com/bot.html" oder "slurp@inktomi.com". Viele Robots tarnen sich allerdings mittlerweile als ganz normaler Surfer, der mit Windows und Netscape daherkommt. Grund: Viele Homepage-Eigner haben in der Vergangenheit unterschiedliche Seiten für Robots und für normale Surfer angelegt. Auf der Robots-Seite standen dann haufenweise Dinge, die in der Suchmaschine aufgelistet wurden, ein normaler Besucher bekam aber (gemeinerweise) eine ganz andere Seite zu sehen. Um diesem Missbrauch vorzubeugen, gehen heute die Robots etwas intelligenter zu Werke: Sie prüfen die Webseiten einmal als Robot und einmal als Normal-Surfer (nicht unbedingt zur gleichen Zeit) und vergleichen die Ergebnisse - bei Differenzen laufen die Homepagebetreiber dann Gefahr, für immer aus der Suchmaschine verbannt zu werden.

2) Wenn nur eine Ihrer Seiten geladen wird, so kann als Besuchszeit nur die Zeitspanne zwischen erster und letzter Abfrage von Dateien (HTML-Datei, Bilder usw.) verwendet werden (s.ganz oben). Zunächst wird der Browser des Besuchers also z.B. die index.html laden und danach noch ein paar Bilder anfordern. Je nach Browser kann die Anforderung mehrerer Bilder gleichzeitig geschehen oder erst nach erfolgtem Laden der bislang angeforderten Bilder. Im ersten Fall wäre der Abruf der Bilder also sofort nach Laden der index.html zu erwarten, unabhängig von der Ladezeit der Bilder. Damit wäre als Besuchszeit quasi nur die Ladezeit der index.html entscheident und könnte bei sehr wenigen Sekunden liegen. Ähnliches gilt, wenn Ihre index.html einen Frameset beschreibt und die nachzuladenen Frames nur wenige oder keine Bilder eingebunden haben. Hier wird also ein realer Besucher, der sich Ihre Homepage vielleicht eine viertel Stunde lang angeschaut hat, mit einer Verweilzeit von 3 Sekunden angegeben, eben weil er nur die eine Seite besucht hat.

Das Problem ist jetzt, getarnte Robot-Zugriffe von "einseitigen" Surfern zu unterscheiden. Hier gibt es aber einen Umstand, den wir uns zu nutze machen können: Selten wird ein Robot eine Bilddatei laden! Unter "Besucher Seiten..." lassen sich so auch versteckte Robots identifizieren.

Was müssen Sie beachten ?

Robots sind gewünscht. Dass sie sich heute oft nicht mehr von normalen Besuchern auf den ersten Blick unterscheiden lassen, ist auch weiter nicht so problematisch.

Gedanken sollten Sie sich aber schon machen, wenn viele Ihrer realen Besucher nur eine einzige Ihrer Seiten besuchen. Hierfür kann es viele Gründe geben:

  • Sie verwenden Begriffe z.B. in Meta-Tags, die nicht zum Inhalt Ihrer Seiten passen. Besucher werden gelockt und enttäuscht. Dies zahlt sich nicht aus, denn keine Seite kann auf Dauer von Einmal-Besuchern leben - Stammbesucher müssen das Ziel sein.
  • Ihr Seitenaufbau der Eingangsseite/Homepage ist zu langsam. Zu viele bzw. grosse Bilder in der Homepage sind eine gern' gemachte Sünde. Gesamtseitengrößen incl. alle Bilder von über 50 KByte sind schlecht - unter 20 KByte (insgesamt) sind anzustreben.
  • Ihre Besucher kommen gar nicht über Ihre Homepage herein, sondern landen durch Links von Suchmaschinen auf Nebenseiten. Testen Sie dies über die Referrer-Auswertungen.
  • Die Homepage erfordert spezielle Plugins, z.B. Flash o.ä., die der Besucher nicht hat (und dann auch meist nicht haben will). Merkwürdige Abfragen sind den meisten Surfern lästig - also gehen Sie gleich weiter zum nächsten Suchergebnis.
  • Der häuigste Fehler ist aber der, dass die Navigation auf JavaScript oder gar auf Java aufgebaut ist. Wer hier glaubt, alle Surfer hätten Java-Applets freigeschaltet, der irrt gewaltig. Auch wenn JavaScript mittlerweile meist aktiviert ist, gilt dies für Java nicht. Wenn Sie also eine Navigation durch Buttons in Ihren Seiten haben, so achten Sie darauf, dass diese auch z.B. mit einem Netscape bei ausgeschaltetem Java, deaktiviertem JavaScript und deaktivierten Formatvorlagen funktionieren. Glauben Sie nicht, solches wäre allein durch die Verwendung z.B. von Frontpage als Webseiten-Erstellungstool garantiert. So schwer ist es nicht, für alle Surfer eine funktionierende und trotzdem ansprechende Navigation auf die Beine zu stellen - die JavaScript nutzt, wenn es aktiviert ist, aber auch ohne JavaScript auskommen kann, falls es deaktiviert sein sollte.
  • Last but not Least könnte der graphische Aufbau Ihrer Seite auch Schuld am fluchtartigen Verhalten Ihrer Besucher sein. Könnte - meist wird dies aber völlig überschätzt. Zunächst zählt für den Surfer der Inhalt, die Übersichtlichkeit und die Manövierfähigkeit - in genau der Reihenfolge. Erst dann - vielleicht - kümmert er sich um solche Dinge wie optische Gestaltung. Investieren Sie also erstmal Ihre Zeit in Inhalte - und erst ganz zum Schluß können Sie sich Gedanken über die Grafiken und das Layout machen. Auf den meisten Webseiten ist erkennbar die entgegengesetzte Reihenfolge eingehalten worden - und die Betreiber wundern sich, warum die Seiten so wenig Stammbesucher haben.