[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

[connect24h:0053] メールサーバーがダウンする現象



初めてメールします。
堀野と申します。

会社でメールサーバーの管理をしています。
今日、何度かメールサーバーがダウンしてしまい、原因が分からず困っています。
運用環境は
<Software>
OS:RedHat linux 6.1(J)
smtpサーバー:qmail-1.03
pop-3サーバー(apop):qpopper3.0.2
imapサーバー:IMAP4.5(IMAP4rev1 v12.250)

<Hardware>
NIC:
eth0: 3Com 3c905B Cyclone 100baseTx at 0xdc00,  00:c0:4f:cf:a0:d5, IRQ 11
  8K byte-wide RAM 5:3 Rx:Tx split, autoselect/Autonegotiate interface.
  MII transceiver found at address 24, status 786d.
  MII transceiver found at address 0, status 786d.
  Enabling bus-master transmits and whole-frame receives.

CPU: Celeron 400Mhz 
Memory:384Mbyte
Disk:
Filesystem           1k-blocks      Used Available Use% Mounted on
/dev/hda1               303344     33477    254206  12% /
/dev/hda3              2522076   1085000   1308960  45% /usr
/dev/hda4              1004052    560968    392080  59% /var
/dev/hdb1             22161300   3334424  17701124  16% /home

このようになってます。
ユーザーは、
apopで接続する人:130人程度
imapで接続する人:5人程度	
です。

このメールサーバーはプライベートのネットワーク内で動作しており、
メールはグローバルにいるメールサーバー(qmail)からsmtp転送されてます。

今日3回落ちたのですが、syslog(maillog, messageなど)には手がかりがないように見え、
3回目にやっとログに残っていたのが以下のメッセージです。

Oct  1 18:51:34 localhost kernel: eth0: Too much work in interrupt, status e081.  Temporarily disabling functio
ns (7f7e).
Oct  1 18:51:34 localhost kernel: eth0: Too much work in interrupt, status e081.  Temporarily disabling functio
ns (7f7e).

これをみると、ネットワークに負荷がかかりすぎて落ちた?ようなのですが
この程度の利用状況で負荷がかかりすぎということがあるんでしょうか?
例えば、あるユーザーがものすごく大きなファイルをpopで受信していたとしてネットワークに負荷がかかっていたとしても
OSごと落ちてしまうということってありえるのでしょうか?
問題がどこにあるのか分からず(ハードなのか、ソフトウェアの設定なのか、いたずらされているのか)、困っています。

この程度の説明では
状況が分かりづらいと思いますが
同じような現象を経験されている方などいらっしゃったら
お知恵を貸していただけますと、ありがたいです。

以上
長々と書きましたが
ご無礼があったらお許しください。
よろしくお願いいたします。


--[PR]------------------------------------------------------------------
【FreeMLからのお知らせ】
 ユーザー登録すると、MyPageっていうとっても便利なページが使えるように
 なります。
 例えば、MLの過去ログが見られたり、アドレス変更も簡単に行えます。
         http://www.freeml.com/reg_member1.php
------------------------------------------------------------------[PR]--