Sie sind vermutlich noch nicht im Forum angemeldet - Klicken Sie hier um sich kostenlos anzumelden  
logo
Sie können sich hier anmelden
Dieses Thema hat 4 Antworten
und wurde 274 mal aufgerufen
 Fragen zu (X)HTML und CSS ?
Michael ( gelöscht )
Beiträge:

29.05.2009 18:18
RE: online backup Antworten

Hallo,

meine immer umfangreicher werdende Website braucht ein regelmäßiges Backup. Nachdem Runterladen und anschließendes Zippen (automatisiert mit Cobian) bis zu 8 Stunden dauert - ich habe viele Kleinstdateien (Wetterprogramm), suche ich nach einer Möglichkeit die Dateien mit php oder ähnlichem online, das heißt auf dem Server, zu zippen und anschließend runterzuladen. Das dürfte deutlich schneller ablaufen.

fpdf.php DeepDir.php zip.lib.php zip.php (habe ich auf diesen Forumsserver hochgeladen) [attach]{51242,693e8fc56515[/attach]

Mit diesen Dateien habe ich schon experimentiert. Aber ich schaffe es damit gerade das Stammverzeichnis zu sichern, aber nicht rekursiv, was die Datei deepdir.php eigentlich besorgen sollte. Hat jemand eine Idee? Es darf auch gern eine völlig andere Möglichkeit sein, als die von mir angedachte.

Schöne Pfingsten wünscht

Michael

--
mit der 1ngo-Website www.fragmente-literatur.de
und dem neuen blog.fragmente-literatur.de für den Leseappetit zwischendurch

1ngo Offline




Beiträge: 431

29.05.2009 18:37
#2 RE: online backup Antworten

Hi,
es kann sich ja eigentlich nur um den Blog handeln, denn die statischen Inhalte liegen ja eh' lokal vor.
Sind das denn wirklich so viele Daten - die Software ausgenommen?

Ein Problem könnte die Ausführungszeit sein, die oft sehr begrenzt ist und das Script dadurch abbricht.
Ich kenne die Verzeichnisstruktur für die abgelegten Daten nicht, aber wenn diese noch übersichtlich ist, dann würde ich die Verzeichnisse einfach einzeln sichern. Und falls ZIP zu langsam ist, könnte vielleicht die eingebaute gzip-Funktion i.V. mit tar helfen?

Gruß
Ingo

Michael ( gelöscht )
Beiträge:

29.05.2009 20:15
#3 RE: online backup Antworten

Hallo Ingo,

mein Blog hat etwa 2500 Dateien. Die Hauptpage (www.fragmente-literatur.de), in die ich auch die Wetterdaten ablegen lasse über 10000. Vielleicht ist es eine Idee jedes Hauptverzeichnis (subdomains, etc) an einem anderen Tag zu sichern. Aber das mit dem tar würde mich interessieren. Meintest du dies online oder nach dem runterladen? Ich denke nämlich der hohe Zeitaufwand kommt von den vielen Kleinstdateien des Wetterprogramms beim runterladen. Wie könnte so ein skript aussehen?

Alles Gute,

Michael

--
mit der 1ngo-Website www.fragmente-literatur.de
und dem neuen blog.fragmente-literatur.de für den Leseappetit zwischendurch

1ngo Offline




Beiträge: 431

29.05.2009 20:31
#4 RE: online backup Antworten

Hi,
wie gesagt brauchst Du nicht alle Dateien zu sichern, sondern nur die Daten (die online hinzu kommen).

gzip und tar sind unix bzw. linux-Programme - beide zusammen erfüllen in etwa die Funktion von zip. Man hat zwei unterschiedliche Möglichkeiten: entweder zunächst alle Dateien mit tar zusammenführen und diese Datei dann komprimieren oder anders herum. Ich würde letzteres empfehlen, da die gzip-Funktion sonst möglicherweise mit dem Speicherplatz nicht auskommt. Nur kann ich Dir leider nicht sagen, ob und wie Du online tar auf Deinem Webspace einsetzen kannst.

Gruß
Ingo

Michael ( gelöscht )
Beiträge:

29.05.2009 20:40
#5 RE: online backup Antworten

Danke für den Tipp. Der bringt mich schon etwas weiter.

 Sprung  

Datenschutzerklärung
Auf die vom Anbieter dieses kostenfreien Forums gespeicherten Daten habe ich keinen Einfluss.
Wenden Sie sich zum Datenschutz für dieses Forum bitte an die verantwortliche Miranus GmbH.

Xobor Forum Software von Xobor | Forum, Fotos, Chat und mehr mit Xobor
Datenschutz