新年のToDoリストのうちの一件。
遅い以外は順調に動いてる我が家のサーバ、そろそろ30000時間にさしかかりつつあるHDDの交換が必要なんですが。
どうせならHDDだけでなく全体をもう少し速いものに入れ替えようと思いまして、少し前までメイン機で使ってたCPUに合うマザーその他をボチボチ集めてまいりました。
泣き泣き収まってますが、しかし狭いですねぇ。
置き場所に余裕がないこともないので、今となってはもうMini-ITXにこだわる必要もないかな。ま、そのあたりは次世代以降ということで。
ちなみに左に見える格好悪い段ボール、メモリにCPUファンの廃熱が直接当たるのを避けたいなと思って仕込んでみたんですが、さてどうでしょうか。
それやこれやのハード的な内容はさほどどうってことないんですが、自分にとっての問題はソフト的な部分。
当時結構苦労して組み上げたし、今でもcgiが遅い以外に特に不満はないので、何とか今のまままるっと移行したいところ。
試しにダメ元で、毎晩取ってるバックアップを新しい環境にリストアしてみることにします。
おぉ!? 何事もなくフツーに立ち上がった模様。
ちなみにここまでの手順は
・現行機のバックアップイメージを別HDDにコピー
・そのHDDを新環境にUSBで接続
・新環境をインストールディスクで立ち上げ
・『コンピュータを修復する』-『トラブルシューティング』-『イメージでシステムを回復』
時間はそこそこかかるものの、たったこれだけであとは放置。RAIDとかもしてないのでドライバ云々の問題もなし。
こういう方法が用意されているとは、ありがたいですねぇ
現行機を動かしたままやってるので、データの交錯その他を避けるべくまだネットにはつないでません。
そのあたりはいよいよ入れ替え、というときにぶっつけ本番でやるか、あるいはあらかじめダミーの(予備の)ルータにつないで閉じた環境で確認してからかと思ってます。
写真、見かけないものが出てますが…これ、ライセンス再認証の必要があるってことなんでしょうねぇ。ま、それくらいの面倒は仕方ないかな。
実はもう少し替えておきたい部品があるので、実際の移行はもう少し先になる見込みです。
うまいこといってくれたらいいんですがねぇ~
新サーバ構築作業、お疲れ様です。
こちらのサーバは、9年目突入、60,000時間前後の稼働のような・・
次期マシンですが、うちはマイナーでアクセス数も少ないのでPCを辞めてraspberryPIへの移行を考えて、ごそごそしております。
自宅サーバの肝であるApache2の設定に四苦八苦が続き、出口が見えません・・トほほ。
はまっている原因は、Win系のapache2とDEBIAN系のapache2、confファイルの構成が違い過ぎてついて行けていません(T_T)
60,000時間とは結構すごいですね! 我が家でそこまで持ったHDDはないかも。
そして、面白そうなことに取り組んでいらっしゃいますね。前から省エネ・省スペース的にかなり気になる存在ではあるのですが、そうですか厳しいですか…
ApacheももちろんですがそれだけでなくすべてにおいてWindowsですらヒィヒィ言うてますんで、僕には相当難しそうですね(^^;
よろしければ、また続報お聞かせ下さい!
うちでも、歴代は5年から5年半で入れ替えてきました。これだと、45,000時間ぐらいでしょうか?
現在の自宅サーバ、ディスクはSSDなんです。今のところ、73,000時間ぐらい動いていると思います。
過去に一度debianのApache2はギブアップしました(汗)
その時は、apache2ではなくNginxを使って動かすことはできました。(SSL無しですけど)
そのままnginxという手もありますが、もうちょっと悪あがきしてみようかと思っています(^^;;;
おぉSSDでしたか! いいですねぇ~
心配しすぎなんでしょうけど、突然の電源断でデータがすべて飛んでしまうかもなんて聞くとビビってしまい、サーバにはなかなか導入できません。UPSを何とかすればいいんでしょうけど…てなとこで止まってます。今後の宿題ですわ
おんなじApacheでも全然違うんですね。むしろWindowsの方が特殊なんでしょうけど…そういうのを伺うと、ますますLinuxはたまのお遊びでしか触れなくなってしまいます(^^;;;
停電に強いのはどちらなんでしょう?
うちは、HDDで停電に会い、ディスクがクラッシュしました。1年分の投稿が飛んでしまいました。以降、毎日NASへバックアップ。NASも2台用意して、交代です。hi
SSDに変えてから、今のところまずい事態にはなっていないです。
debianのapache2がちょっと特殊みたいです。Winみたいに、何でもかんでもhttpd.confに書いてしまうって訳ではなく、ファイルが分散しています。分散を理解すると、confの切替えが簡単になるから便利らしいが。。。そのメリットが分かるまでまだまだ時間がかかりそう。
なんとか、perlのCGIが動くようになりました。cgiライブラリーのインストールを失念していたという初歩ミスでした(汗)
改めて調べてみましたら、メーカにもよるものの今どきのは結構対策されてるようですね。こちらは3~4回停電に遭ったように記憶してますが、それに起因する不具合は皆無でした。
今回のメイン側は新品を導入した(3.5インチのHDDを今ごろ!!)んで3年は持つでしょうから、次回の交換時にSSDにしてみようかな。
confの切り替え…マルチドメインなんかだとそういうのが便利なんでしょうか。こちらの場合そもそも今のやり方が正しいのかどうかも全く不明なので…ちなみにSSL化してから一部書いてあるとおりに動いてくれないところがあり放置中、windows環境ですらこんななので(^^;;
perlの動き(速度)がどの程度のものなのかも気になりますね。続編、勝手に楽しみにさせていただきます(^^)