Hallo,
diese Version befindet sich im Kundenbereich als zip-Datei zum Ersetzen der Dateien im bin-Ordner.
Es hat sich gezeigt, dass Kunden unter einem vermehrten Zugriff von Robots leiden, z.T. mehrere Zugriffe pro Sekunde.
Bisher konnte man unter Projekt | Optionen | Logfiles schon einstellen, dass Zugriffe von Robots nicht in das Logfile
geschrieben werden.
Hierzu ist eine Liste von Adressen und/oder Browserkennungen anzulegen (kommagetrennte Werte), Z.B:
Hosts: msnbot.msn.com,inktomisearch.com,googlebot.com,looksmart.com
Browser: crawler,miva.com
Bei den Hosts funktioniert das so nur, wenn der Provider eine Namensauflösung hat.
Ansonsten müssten man IP-Adressen angeben.
Wir haben das jetzt so erweitert, dass für die erkannten Robots auch kein Warenkorb angelegt wird.
Der Warenkorbordner (cart) wird damit von unnötigen Dateien deutlich entlastet.
Gruß hop