Как разделить большой файл sql .gz для загрузки в базу данных?

У меня есть база данных, экспортированная со старого сайта, и это сайт, созданный на Joomla 1.5.

Теперь мне нужно создать резервную копию сайта, но я не могу импортировать базу данных.

База данных находится в сжатом файле .gz. Я знаю, что старый сервер работал на centos (5, я думаю) и панель прямого управления администратора.

И я использовал обычные настройки по умолчанию для экспорта базы данных через phpmyadmin.

Теперь я не могу импортировать его на свой компьютер.

Я использую wampserver и постоянно получаю ошибку, превышающую максимальное время 300 в phpmyadmin / import.php

Файл базы данных сжат в 2,5 МБ, а в несжатом 28 МБ.

Я попробовал все варианты, чтобы разделить его, разделить, скопировать / вставить код в php, но файл слишком велик, чтобы сделать это.

Я изменил все настройки времени выполнения скрипта на неопределенный, максимальный размер загрузки, максимальное использование памяти … но просто phpmyadmin просто удаляет файл через некоторое время.

Любой способ разбить файл sql на несколько небольших файлов и загрузить их отдельно.

0

Решение

Поздрав Срба,

Существует инструмент для этого на платформах с ограничениями, таких как виртуальный хостинг:

http://www.ozerov.de/bigdump/

После этого загрузите свой большой дамп, затем настройте BigDump, чтобы вставить его в вашу БД.

Что касается разделения файла дампа, это будет зависеть от характера дампа. Это как несколько запросов, с подтверждением, я бы представил себе: ,.

Сначала вам нужно будет определить завершение каждого запроса, а затем разделить его примерно так:

$con = file_get_contents( 'file.sql' );
$parts = explode( '),(' );

Теперь у вас есть каждый отдельный запрос, который вы можете сбросить. Вам нужно установить память и время выполнения, например:

set_time_limit( 2419200 );
ini_set( 'memory_limit', '999M' );
2

Другие решения

Других решений пока нет …

По вопросам рекламы [email protected]