パスワードを忘れた? アカウント作成
31944 story
インターネット

ウェブサイトのバックアップ、どうしてる? 40

ストーリー by hayakawa
私はtarで固めて、自分が管理している別サーバへscp転送してます 部門より

あるAnonymous Coward 曰く、

本家/.に、ウェブサイトのバックアップ方法についての質問が掲載されている。

同じような悩みを抱えている人は他にもいると思うのだが、ウェブサイトのバックアップについて質問がある。自分はウェブサイトをいくつか持っていて、プロバイダには2GB位アップしていて、他にもMySQLデータベースがいくつかある。プロバイダでは最小限のバックアップしか提供されていないのだが、自分としては最新の状態のバックアップを取っておきたい。自分のネット接続は最速でも150Kbps程度しかないので、FTPで自宅のPCにバックアップを取るというのは現実的ではない。例えば、URLとFTPパスワードを渡して、自分の代わりにバックアップDVDを焼いてくれるようなサービスなどないだろうか?このようなサービスを使ったことのある人はいるだろうか?おすすめの業者や、逆に避けた方がよい業者などの情報なども是非教えて欲しい。
/.J諸氏も自身のサイトを持っていたり、複数のサイトを管理している方も多いかと思うが、どのようにバックアップを取っているだろうか?本家タレコミ人はなぜかDVDに焼きたがっているが、/.J諸氏おすすめのバックアップ方法などあればぜひ教えてほしい。
この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。
  • ウーヤー (スコア:3, おもしろおかしい)

    by manmos (29892) on 2008年08月06日 15時24分 (#1398053) 日記
    tar
  • by phenix (31258) on 2008年08月07日 11時03分 (#1398746)
    自分で管理してるサーバがなくったって、
    最近はSSH使えるレンタルサーバも安くなってますし。
    うちはSFTPで落として、ローカルでバックアップとってますが。

    最近、電源周りの故障でRAID組んでたHDDとバックアップ用のHDDが同時に死亡。
    HDDの方がGB単価安くなったといっても、DVDに入るならDVDのほうが安全だと思います・・・
    iTSの楽曲全部飛んだorz
  • 変なサブジェクトですが、いわゆる自宅サーバということで。
    主要なファイル、DBをアーカイブするバッチを毎朝4時に走らせ、保存先をUSBメモリにしています。
    しかし、リカバリ方法までは真剣に考えていないので復旧には時間がかかりそう。
    リカバリまで自動化出来たら管理的には楽かな。
    • プライベートでは自宅サーバーなので、毎朝7時に全ファイルシステ
      ムのdumpを別のハードディスクに取っています。日曜日と木曜日が
      フルダンプで、残りの日がインクリメンタルダンプ。以前はDDS→DDS-2
      →DDS-3と使ってきましたが、DDS-4だともう個人ではインターフェ
      イスをそろえるにも一苦労するのであきらめました。

      仕事だとLANにテストサーバーがあってDDS(いくつかは知らないです
      が)オートチェンジャーでバックアップ。テスト後に公開用サーバー
      四つ(ロードバランサー付き)に転送しているので、どれか一つくら
      い壊れてもOKな状態です。
      --
      ---- 6809
      親コメント
  • 逆に考えるんだ (スコア:1, すばらしい洞察)

    by Anonymous Coward on 2008年08月06日 14時32分 (#1398009)
    PublishするSiteの方がバックアップだ。オリジナルはいつでも手元に残してある。お引越しがいつ発生しても安心。
    • by Anonymous Coward
      少なくともDBはSite側がオリジナルですよね。当たり前のことですが
      • by Anonymous Coward
        なぜこっち側のDBを叩いていないのか断言できるのか教えてほしい
      • by Anonymous Coward
        は? 単なるデータの入れ物を主体として考えるんじゃなく、
        データを主体として考えればそういう発想は出ないはずだが?

        #入れ物に縛られるような運営ってのは避けた方がいいぞ。
  • 例えばInternetArchiveとか(ぉ
    • by Anonymous Coward on 2008年08月06日 15時57分 (#1398082)
      どこでもいいけど、ミラーサイト作っとけばいいよねぇ?
      サーバ間で勝手に同期取るようにしておけば自分の回線環境なんて関係ないし
      親コメント
    • by Anonymous Coward
      いや、マジで昔のサイトはGoogleのキャッシュから復旧させましたが。
      #それでも懲りていないし反省もしてない。
  • by nao-i (3197) on 2008年08月06日 17時38分 (#1398176) 日記
    subversionのリポジトリ自体は定期的にバックアップとってるサーバにあって、
    そこからあちこちにチェックアウトした作業用ファイルがあるという状態。
    作業用にチェックアウトしてあるのは4か所くらいにあるんじゃなかろうか。
    それを適当に編集してローカルで確認して、コミットしてから本番のウェブサーバで
    svn up して公開。

    subversionかなり便利。
    • by Anonymous Coward
      仕事で、
      開発マシンつまり自分PCと、
      社内の結合テストマシンとを
      どちらもSvn管理下にしておいた。
      モノがスクリプト系ばかりだったので、それで全然OK
      (というかバイナリだってOKだけどね)
      開発でコミットしたファイル群を結合でチェックアウトすればデプロイも完了!なんて快適!

      はまったのが初回の納品の前日。

      「ねーきみ、そういや本番マシンにどうやってデプロイすることにしてるの?」

      …あんまり快適なので、Svn管理下じゃない本番マシンへのデプロイ方法を構築するのを忘れてました orz

      #とりあえず初回はtarならぬjar(Javaモノじゃないけどそれが一番手軽なツールだったんで)で固めて現地で解凍したAC
  • MySQLレプリとlsyncdで解決でしょ!

    DRBDはちょっと大がかりだしねー。
    でもレプリを許可してくれるところなんて。。。

    なおかつlsyncdなんか普通入ってるわけないしねー。

    金がないなら、アプリ側で2台に書き込むなり、ログを残すなり!
    アプリを改修する暇がないなら、、、crontabしかないかな。
  • UNIX でないと使えないけど、私は rdist6 -P /usr/bin/ssh -f どこぞ/Distfile でミラーリングしています。焼きたければミラーの方でやるといいかと。理由は「ftp でやるより圧倒的に早いから」です。rsync の人の方が多いと思いますが、私は rdist を昔から使っていて慣れているのと、rsync より複雑な事がやれる (と思う) のでこちらを使っています。逆に、設定ファイルを書かないと使えないけど、そう難しくはないです。

    シェルアカウントが無くて rdist も rsync も動かせないという場合 (ありがちだが、私はバックアップの事を最初に考えますが) sitecopy [manyfish.co.uk] が向いてるかも。使ったことは無いのでググって [google.co.jp]みてください。 Windows でも動かせるようだけどバイナリは配布されていないっぽい。
  • by Anonymous Coward on 2008年08月06日 14時06分 (#1397984)
    バックアップは行わない、という選択肢。
    • by ots556556 (34248) on 2008年08月06日 14時35分 (#1398013)
      公開チラシの裏/メモ帳みたいな使い方しかしてないし、訪問者も自分とスパム業者程度なのでほとんどバックアップしてません。
      バックアップが必要なほど大した内容が含まれているサイトかどうか、ちょっと考えてみるのも良いかも。
      バックアップする手間だってタダじゃないんだし。

      # dokuwikiはdataフォルダ引っこ抜いてくるだけで大まかバックアップできるから楽。
      親コメント
    • by Sukoya (33993) on 2008年08月06日 14時35分 (#1398014) 日記
      バックアップに手間とコストのかかる動的コンテンツは諦めるのも手じゃね?

      重要性の高いコンテンツなら、そもそも構築時点でバックアップを考慮しているべきだし

      壊れたら、新しく作り直そうよ
      そんときに受けたダメージでバックアップすることも考えようぜ!
      血の涙とか流してみなきゃわからないって!
      親コメント
  • by Anonymous Coward on 2008年08月06日 14時12分 (#1397990)
    そこまででかくなるまでバックアップ持たなかったのが不思議と言えば不思議な気もする。
    失うかもしれないとは少しも思わないと言うことなのかな?

    日本の光回線なアレゲ人のお友達にうまい飯でもおごるからちょっくらやってもらうくらいの量だよねぇ2G+DBのバックアップって(もちろん業務で定期的にってのなら全く違うだろうが)
  • by Anonymous Coward on 2008年08月06日 14時16分 (#1397995)
    T/O
    • by Anonymous Coward
      私も普通にrsync。

      日本国内だと光回線の人も少なくないので、

      自分のネット接続は最速でも150Kbps程度しかないので
      という制約がないんですよね。
      • > | 自分のネット接続は最速でも150Kbps程度しかないので
        > という制約がないんですよね。

        rsync でも -z でそこそこ圧縮できるので、画像や書庫ばかりでなければ
            --bwlimit=KBPS で帯域を絞って裏で動かせておけばよさそうですが・・・

        記事中 FTP にしか言及されておらず、サーバ側で rsync を動かせるか微妙。
        親コメント
      • by Anonymous Coward
        うちも自宅回線は細いんで、サーバ側でdb dumpと静的コンテンツまとめて圧縮してAmazon S3に送ってます。
        今圧縮後で500MBくらい。暇ができたらもうちっと賢く差分取ったりしようかと思いつつ、動いちゃってるので
        ついついそのままに。
    • by Anonymous Coward
      pdumpfsかな・・・?

      rsyncは消えたのをバックアップしたら怖いから・・・
      # ローカルにsyncした後でも良いかもしれないけど
  • by Anonymous Coward on 2008年08月06日 14時22分 (#1398002)
    無くなった時がリニューアル時。

    確か既に3回ほど・・・。

    #そして、バックアップはリニューアルが済んだ頃に見つかるという。

    まあ、自宅のリビングPCに予備のサーバー環境が入っているんで、丸ごと有るって言えば有るんだけど、面倒だし気分的にも。

    それでもサーバの居候さんたちには、自身でバックアップしろとは言って有る。

    • 99年頃に作ったサイトのデザイン欲しくて
      幸い当時のサーバのHDD@4Gbyteは残ってたけど、繋いでデータトルのめんどくさくて悩んだあげく
      ふとインターネットアーカイブを思い出して見たらCGIなんかは駄目だった物のHTMLと画像は取れたので
      それを改変して最近サイト作り直しました。
      親コメント
    • うちもローカルの試験サーバーで全部やって、テストまでしてから本番にコピーという手段です。
      さてこの場合、どっちがバックアップになるのかしらぁ?

      最初から全部そろってるmacとlinuxでやってますが
      Windowsでも最近XAMPPとかLighty2Goとか、サーバー環境導入セットが充実してきてますね。
  • by Anonymous Coward on 2008年08月06日 15時39分 (#1398067)
    客は金を出さないくせに100%の信頼性と可用性を求める
    商売としてまったく成り立たない
    • by Anonymous Coward
      誤: バックアップはビジネスにならない
      正: バックアップ「だけで」はビジネスにならない

      # なので、よい(一般的に推奨できそうな)バックアップソリューションはなかなかない。
  • by Anonymous Coward on 2008年08月06日 16時24分 (#1398112)
    > プロバイダには2GB位アップしていて
    > プロバイダでは最小限のバックアップしか提供されていないのだが

    この規模なら、ホスティングサービスとか専用サーバーサービスにするとか
    最小限じゃないバックアップの所に移動するか、
    自分のネット接続をリッチにするとかが浮かびます。

    大切な物なら、金を出す事をケチっちゃいかんような。

    あとはメールを作成・送信できるなら、サーバー内でtarなり何なりに固めて
    gmail当たりに自動送信する仕組みを作るか。
  • by Anonymous Coward on 2008年08月06日 17時22分 (#1398166)
    何が問題だ?
    自分が作った自分のウェブだろ?
    アップする前にバックアップすればそれで済む話だ
    • by Anonymous Coward
      サーバ側で動的生成するものをどうバックアップするかが主な問題というか、質問の中身なんだと思うが。

      CGI掲示板に投稿されたテキストデータだとか、phpで動かしてるブログの中身だとか、立ち上げたwikiの中身だとか…
      • by Anonymous Coward
        >立ち上げたwikiの中身

        へたれWindows人間です。
        数日おきに想い出した頃、
        FFFTPの「ミラーリングダウンロード」で新しいファイルだけゲットし、
        更にそのフォルダをpdumpfsで別媒体に保存してます。

        小分けのファイルなら問題なし。
        大きな1つのファイルになってたらどうしたらいいかわかりません…
  • by Anonymous Coward on 2008年08月06日 20時41分 (#1398361)
    ちょっとおかしなことを書いておけば、日本の異常な人たちが勝手に隅々まで魚拓を取ってくれるのでバックアップも安心ですよ。
typodupeerror

日々是ハック也 -- あるハードコアバイナリアン

読み込み中...