[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]
[connect24h:0053] メールサーバーがダウンする現象
- To: connect24h@xxxxxxxxxx
- Subject: [connect24h:0053] メールサーバーがダウンする現象
- From: kazumi HORINO <k-horino@xxxxxxxxxxxx>
- Date: Mon, 01 Oct 2001 20:22:14 +0900
初めてメールします。
堀野と申します。
会社でメールサーバーの管理をしています。
今日、何度かメールサーバーがダウンしてしまい、原因が分からず困っています。
運用環境は
<Software>
OS:RedHat linux 6.1(J)
smtpサーバー:qmail-1.03
pop-3サーバー(apop):qpopper3.0.2
imapサーバー:IMAP4.5(IMAP4rev1 v12.250)
<Hardware>
NIC:
eth0: 3Com 3c905B Cyclone 100baseTx at 0xdc00, 00:c0:4f:cf:a0:d5, IRQ 11
8K byte-wide RAM 5:3 Rx:Tx split, autoselect/Autonegotiate interface.
MII transceiver found at address 24, status 786d.
MII transceiver found at address 0, status 786d.
Enabling bus-master transmits and whole-frame receives.
CPU: Celeron 400Mhz
Memory:384Mbyte
Disk:
Filesystem 1k-blocks Used Available Use% Mounted on
/dev/hda1 303344 33477 254206 12% /
/dev/hda3 2522076 1085000 1308960 45% /usr
/dev/hda4 1004052 560968 392080 59% /var
/dev/hdb1 22161300 3334424 17701124 16% /home
このようになってます。
ユーザーは、
apopで接続する人:130人程度
imapで接続する人:5人程度
です。
このメールサーバーはプライベートのネットワーク内で動作しており、
メールはグローバルにいるメールサーバー(qmail)からsmtp転送されてます。
今日3回落ちたのですが、syslog(maillog, messageなど)には手がかりがないように見え、
3回目にやっとログに残っていたのが以下のメッセージです。
Oct 1 18:51:34 localhost kernel: eth0: Too much work in interrupt, status e081. Temporarily disabling functio
ns (7f7e).
Oct 1 18:51:34 localhost kernel: eth0: Too much work in interrupt, status e081. Temporarily disabling functio
ns (7f7e).
これをみると、ネットワークに負荷がかかりすぎて落ちた?ようなのですが
この程度の利用状況で負荷がかかりすぎということがあるんでしょうか?
例えば、あるユーザーがものすごく大きなファイルをpopで受信していたとしてネットワークに負荷がかかっていたとしても
OSごと落ちてしまうということってありえるのでしょうか?
問題がどこにあるのか分からず(ハードなのか、ソフトウェアの設定なのか、いたずらされているのか)、困っています。
この程度の説明では
状況が分かりづらいと思いますが
同じような現象を経験されている方などいらっしゃったら
お知恵を貸していただけますと、ありがたいです。
以上
長々と書きましたが
ご無礼があったらお許しください。
よろしくお願いいたします。
--[PR]------------------------------------------------------------------
【FreeMLからのお知らせ】
ユーザー登録すると、MyPageっていうとっても便利なページが使えるように
なります。
例えば、MLの過去ログが見られたり、アドレス変更も簡単に行えます。
http://www.freeml.com/reg_member1.php
------------------------------------------------------------------[PR]--