From hibari.michirou @ nttcom.co.jp Thu Nov 10 19:57:36 2011 From: hibari.michirou @ nttcom.co.jp (=?ISO-2022-JP?B?GyRCMUA/fSEhTylPLxsoQg==?=) Date: Thu, 10 Nov 2011 19:57:36 +0900 Subject: [Ultramonkey-l7-users 458] Re: =?iso-2022-jp?b?GyRCOkdCZ0YxO35AXEIzP3QkTkBfRGokSyREJC0bKEI=?= =?iso-2022-jp?b?GyRCJF4kNyRGGyhC?= In-Reply-To: <20111101072654.2D1DFFB801D@mail.opendoor.co.jp> References: <20111020035355.49125FB801E@mail.opendoor.co.jp> <4EAA2C73.9090403@nttcom.co.jp> <20111101072654.2D1DFFB801D@mail.opendoor.co.jp> Message-ID: <4EBBAE20.2050604@nttcom.co.jp> 酒井様 雲雀です。 >> (Host1) >> ・l7vs.cfの設定を変更 >> session_thread_pool_size = 100 ⇒ 1000  >> (Host2) >> ・l7vs.cfの設定を変更 >> session_thread_pool_size = 100 ⇒ 1000 >> (Host1) >> ・Heartbeat再起動 >> # /etc/init.d/heartbeat restart >> ⇒Host2でActiveConn 100が最大 (※1) Host2はまだl7vsdが再起動されていないので ここまでは、正しい動作に思えます。 その次の >> (Host2) >> ・Heartbeat再起動 >> # /etc/init.d/heartbeat restart >> ⇒Host1でActiveConn 100が最大 (※2) では、既にl7vsdは再起動しているはずなので、 設定も反映されているはずです。 session_thread_pool_sizeの値が変更されたかは snmpによる監視でもウォッチできます。 ※1と2のタイミングで、snmpgetを利用して、 session_thread_pool_sizeの値を確認してみて いただけますでしょうか。 #負荷はかけずに実施してください。 ※1の時点でsnmpgetの結果が99 ※2の時点でsnmpgetの結果が999 であれば、設定の反映は正しく行われて いることになります。 snmpgetを利用した、session_thread_pool_size値の確認 方法は以下のとおりです。 1.snmpd.confを以下の内容に編集。 ===================================== master agentx com2sec ultramonkey_sec default public group ultramonkey_group v1 ultramonkey_sec group ultramonkey_group v2c ultramonkey_sec group ultramonkey_group usm ultramonkey_sec view ultramonkey included .1 access ultramonkey_group "" any noauth exact ultramonkey none none trap2sink 127.0.0.1 public ====================================== 2.MIBファイルのインストール  /usr/share/doc/ultramonkeyl7-3.0.x/mibs/ULTRAMONKEY-L7-MIB.txt を  /usr/share/snmp/mibs/ 配下にコピーしてください。    # cp /usr/share/doc/ultramonkeyl7-3.0.x/mibs/ULTRAMONKEY-L7-MIB.txt /usr/share/snmp/mibs/ 3.snmpdの起動  # /etc/init.d/snmpd start 4.l7vs.cfの編集  [snmpagent]内の設定 enable = "false" を enable= "true" に変更して ください。 5.session_thread_pool_sizeの値を確認  ※1と2のタイミングで、snmpgetを実行  # snmpget -v 2c -c public localhost ULTRAMONKEY-L7-MIB::l7vsVsSes sionPoolCount.1 手間のかかる作業になってしまうかと思いますので、 お時間があるときにでも試してみていただければと思います。 >> もうひとつ、l7directord.cfのmaxconnについて、 >> 上の操作をした際はmaxconn = 50としていましたが、 >> 実際は300を超えた接続がなされています。 >> 困っているわけではありませんが、うまく反映されていないようです。 こちらについては、以下のバグが確認されております。 Client の accept() から RealServer への connect() までの時差の間に大量接 続があると、瞬間的に設定した最大接続数を超えて、RealServer に接続されて しまう。 #残念ながら今のところ、修正パッチは出ておりません。 以上、よろしくお願いいたします。 (2011/11/01 16:27), 酒井 聡司 wrote: > 雲雀様 > > 返信ありがとうございます。酒井です。 > 元々の手順もほぼ同じですが、記載いただいた手順でやってみました。 > > (Host1) > ・l7vs.cfの設定を変更 > session_thread_pool_size = 100 ⇒ 1000 > (Host2) > ・l7vs.cfの設定を変更 > session_thread_pool_size = 100 ⇒ 1000 > (Host1) > ・Heartbeat再起動 > # /etc/init.d/heartbeat restart > ⇒Host2でActiveConn 100が最大 > > (Host2) > ・Heartbeat再起動 > # /etc/init.d/heartbeat restart > ⇒Host1でActiveConn 100が最大 > > その後、 > (Host2) > ・OS再起動 > # reboot > ・再起動後heartbeat起動 > # /etc/init.d/heartbeat start > (Host1) > ・Heartbeat再起動 > # /etc/init.d/heartbeat restart > ⇒Host2でActiveConn 700前後が最大 > > 700前後で留まったのはスペックかなと考えています。 > > > もうひとつ、l7directord.cfのmaxconnについて、 > 上の操作をした際はmaxconn = 50としていましたが、 > 実際は300を超えた接続がなされています。 > 困っているわけではありませんが、うまく反映されていないようです。 > > 以上、よろしくお願いします。 > > > On Fri, 28 Oct 2011 13:15:47 +0900 > 雲雀 路朗 wrote: > >> 酒井様 >> >> 雲雀です。 >> 遅レスすみません。 >> >>>> L7vsdの記載があるのでHeartbeatの再起動でいけるのかと思ったのですが。 >> Heartbeat 2.x ですし、再起動で設定反映できるはずなんですが・・・ >> >>>> 試しに両系設定して何度かHeartbeat停止で切り替えてみましたが、 >>>> ActiveConnは変わりませんでした。 >> このときのコマンド実行内容を実行した順番どおりに教えて >> いただけないでしょうか? >> >> 例えば、↓といった感じで。 >> >> (Host1) >> ・l7vs.cfの設定を変更 >> (Host2) >> ・l7vs.cfの設定を変更 >> (Host1) >> ・Heartbeat再起動 >> # /etc/init.d/heartbeat restart >> (Host2) >> ・Heartbeat再起動 >> # /etc/init.d/heartbeat restart >> >> 以上、よろしくお願いいたします。 >> >> (2011/10/20 12:54), 酒井 聡司 wrote: >>> 雲雀様、竹林様 >>> >>> 返信ありがとうございます。酒井です。 >>> >>> インストールはマニュアルに沿って行い、Heartbeatは以下でインストールしました。 >>> heartbeat-2.1.4-1.x86_64.rpm >>> >>> また、作業時は両系設定するのは手間なので片方だけ設定して動かしています。 >>> 試しに両系設定して何度かHeartbeat停止で切り替えてみましたが、ActiveConnは変わりませんでした。 >>> OS再起動で反映される状態です。 >>> >>> crm_monの出力は以下です。 >>> ============ >>> Last updated: Thu Oct 20 12:50:18 2011 >>> Current DC: Host1 >>> 2 Nodes configured. >>> 2 Resources configured. >>> ============ >>> >>> Node: Host1: online >>> Node: Host2: OFFLINE >>> >>> Resource Group: grpUltraMonkey1 >>> prmVIPcheck (ocf::heartbeat:VIPcheck): Started Host1 >>> prmVIP (ocf::heartbeat:IPaddr2): Started Host1 >>> prmVIP2 (ocf::heartbeat:IPaddr2): Started Host1 >>> prmL7directord (ocf::heartbeat:L7directord): Started Host1 >>> prmSSLProxy (ocf::heartbeat:SSLProxy): Started Host1 >>> Clone Set: grpClone1 >>> prmL7vsd:0 (ocf::heartbeat:L7vsd): Started Host1 >>> prmL7vsd:1 (ocf::heartbeat:L7vsd): Stopped >>> >>> L7vsdの記載があるのでHeartbeatの再起動でいけるのかと思ったのですが。 >>> >>> >>> On Tue, 18 Oct 2011 19:31:13 +0900 >>> Shinya TAKEBAYASHI wrote: >>> >>>> 竹林です. >>>> >>>>> session_thread_pool_size の設定を変更した場合、設定の反映には >>>>> l7vsdプロセスの再起動が必要となります。 >>>>> heartbeatの再起動を行った場合、l7vsdも再起動することになりますので、 >>>>> 設定の反映が行われるはずなのですが・・・ >>>> >>>> Heartbeat のバージョンが古い(1.x)と,l7vsd は感知しないで >>>> l7directord と IPaddr だけが監視対象になっているので・・・. >>>> >>>> >>>> 酒井さん,Heartbeat は何をお使いで,どう設定しましたか. >>>> もし Heartbeat 2.x であれば,crm_mon の出力をいただけますか. >>>> >>>> ----------------------------------------------------------- >>>> Shinya TAKEBAYASHI >>>> >>>> E-mail: takebayashi.shinya @ oss.ntt.co.jp >>>> GPG ID: 395EFCE8 >>>> GPG FP: 58B2 B5D0 A692 1BD8 328B E31E E027 AC35 395E FCE8 >>>> ----------------------------------------------------------- >>>> >>> >>> _______________________________________________ >>> Ultramonkey-l7-users mailing list >>> Ultramonkey-l7-users @ lists.sourceforge.jp >>> http://lists.sourceforge.jp/mailman/listinfo/ultramonkey-l7-users >>> >>> >> >> >> -- >> ============================================== >> NTTコムウェア株式会社 >> 品質生産性技術本部 技術SE部 基盤ソフトSE・OSS部門 >> 雲雀 路朗(ひばり みちろう) >> E-Mail:hibari.michirou @ nttcom.co.jp >> TEL:043-211-2452 >> ============================================== >> > > > -- ============================================== NTTコムウェア株式会社 品質生産性技術本部 技術SE部 基盤ソフトSE・OSS部門 雲雀 路朗(ひばり みちろう) E-Mail:hibari.michirou @ nttcom.co.jp TEL:043-211-2452 ==============================================