1. Herzlich willkommen bei WPDE.org, dem grössten und ältesten deutschsprachigen Community-Forum rund um das Thema WordPress. Du musst angemeldet oder registriert sein, um Beiträge verfassen zu können.
    Information ausblenden

WP all import - CSV Import zu Woocommerce sehr langsam

Dieses Thema im Forum "WooCommerce" wurde erstellt von Oschiver, 22. Januar 2018.

  1. Oschiver

    Oschiver Member

    Registriert seit:
    4. Februar 2015
    Beiträge:
    6
    Zustimmungen:
    0
    Hallo zusammen,

    ich versuche ein grosse Anzahl an Produkten über das Plugin WP all Import per CSV anzulegen.
    Die Einträge in den CSV-Dateien liegen insgesamt so bei 500.000. Mittlerweile habe ich die Hälfte geschafft, doch jetzt lassen sich nur noch wenige Tausend Produkte pro Tag anlegen.

    Es werden keine Bilder importiert. Die Datenbank-Tabelle meiner lokalen XAMPP-Installation für die wp_postmeta ist trotzdem mittlerweile auf 1.2GB angewachsen.

    Gibt es eine alternative Möglichkeit grosse Mengen von Produkten per CSV zu importieren, die wesentlich schneller geht?
    (evtl. per SSH mit PHP oder direkt per SQL/CSV)

    Vielen Dank für eure Hilfe im Voraus.

    Gruss Oschiver
     
  2. mensmaximus

    mensmaximus Well-Known Member

    Registriert seit:
    24. Juli 2014
    Beiträge:
    7.601
    Zustimmungen:
    193
    WP All Import ist gut aber eben ein Allround Produkt. Die verwendeten Routinen sind langsam und mit steigender Anzahl an importierter Daten wird es immer langsamer, weil immer jeder Datensatz angefasst wird.

    Es gibt andere Plugins die spezialisierter sind und damit schneller. Allerdings eben 'beschränkt'. Per SSH und WP-CLI kann man viele Aufgaben lösen. Eine reine SQL Verarbeitung scheitert regelmäßig an den dann fehlenden 'Nebenarbeiten' die WooCommerce ausführen will/muss.

    Bei 500.000 Produkten (ich interpretiere das jetzt einmal so) ist ein nicht 'gepimpter' WooCommerce Shop im Regelfall nicht vernünftig verwendbar. Pro Produkt werden im Durchschnitt 40 Einträge in der Postmeta Tabelle angelegt. Besonders die Routinen, die auf Postmeta Daten zugreifen müssen, werden bei 20 mio. Einträge sehr träge.

    Ich hatte gerade erst eine solche Anfrage. Die fünfstelligen Kosten um ein solches Projekt zuverlässig zu betreiben, wollte man aber nicht akzeptieren.
     
  3. r23

    r23 Well-Known Member

    Registriert seit:
    9. Dezember 2006
    Beiträge:
    4.426
    Zustimmungen:
    46
    In einer XAMPP Umgebung würde ich PHP etwas mehr Zeit und etwas mehr RAM zur Verfügung stellen. Änderungen in ~/xampp/php/php.ini durchführen und den Server (apache) neu starten.

    Auch die MySQL Umgebung ist etwas mager ... hier die Standardwerte von der aktuellen XAMPP Version

    [mysqld]
    port= 3306
    socket = "C:/xampp/mysql/mysql.sock"
    basedir = "C:/xampp/mysql"
    tmpdir = "C:/xampp/tmp"
    datadir = "C:/xampp/mysql/data"
    pid_file = "mysql.pid"
    # enable-named-pipe
    key_buffer = 16M
    max_allowed_packet = 1M
    sort_buffer_size = 512K
    net_buffer_length = 8K
    read_buffer_size = 256K
    read_rnd_buffer_size = 512K
    myisam_sort_buffer_size = 8M
    log_error = "mysql_error.log"



    Ich persönlich mag richtige Werkzeuge...

    zum Beispiel
    https://www.heidisql.com/
     
    #3 r23, 22. Januar 2018
    Zuletzt bearbeitet: 22. Januar 2018
  1. Diese Seite verwendet Cookies, um Inhalte zu personalisieren, diese deiner Erfahrung anzupassen und dich nach der Registrierung angemeldet zu halten.
    Wenn du dich weiterhin auf dieser Seite aufhältst, akzeptierst du unseren Einsatz von Cookies.
    Information ausblenden
  1. Diese Seite verwendet Cookies, um Inhalte zu personalisieren, diese deiner Erfahrung anzupassen und dich nach der Registrierung angemeldet zu halten.
    Wenn du dich weiterhin auf dieser Seite aufhältst, akzeptierst du unseren Einsatz von Cookies.
    Information ausblenden