Große SQL-Dumps auf eingeschränkten Systemen importieren mit BigDump
BigDump ist eine kleine PHP-Datei, die den gestaffelten Import von großen MySQL-Dumps erlaubt. Dazu wird die Datei einfach auf einem im Web zugänglichen Verzeichnis (Passwortschutz z.B. via .htaccess nicht vergessen!), zusammen mit dem MySQL-Dump, abgelegt.
Danach wird das Script im Browser aufgerufen und das Dumpfile in der Oberfläche ausgewählt. Erfahrungsgemäß sind auch Importe von Dateien mit mehreren Gigabyte Größe kein Problem.
Wie funktioniert das?
Das BigDump-Script startet sich in kurzen Intervallen immer wieder selbst und macht einen gestaffelten Import. Das bedeutet, dass nicht versucht wird, das gesamte .sql-File auf einmal zu importieren (wie es beispielsweise phpMyAdmin macht), sondern immer nur Teile davon.
Dadurch verlieren php.ini-Einstellungen, wie z.B. die max_execution_time, für den Import an Relevanz und der Dump kann erfolgreich importiert werden.
Hat dir der Artikel gefallen?
Werkraum News:

Toller Podcast zu Künstliche Intelligenz von Sascha Lobo
Wir von werkraum träumen ja schon seit langem vom eigenen Podcast, wäre das nicht immer so viel spannende Projekte, die es zu erledigen gibt. Solange hören wir einfach andere…
Matomo im DDEV installieren
Ich zeige euch wie man eine lokale Matomo Instanz im DDEV nutzen kann.
Strukturierte Daten - schema.org
Suchmaschinen mit den richtigen Daten füttern ist einfacher als man denkt.