直線上に配置

直接サーバアクセスによる連続処理

前章でマクロプログラムによる連続処理では実質的ではないことを説明したが、それ以外のやり方としては直接サーバアクセスによる連続処理が考えられる。いわゆる直鯖と呼ばれる隠語で表されるものである。


これは755の端末アプリが行う処理を解析し、その一部だけを取り出してサーバに対して直接アクセスしてデータ更新を行うやり方である。

本来端末アプリとサーバアプリは相互に確認作業をしながら処理を完了させる。しかし、その場合は要求した新しい画面を開くなどの一連の処理が終わってから初めて次の処理がまた実行できるようになるので、1台で速度をコントロールしながら大量の処理を短時間で実行するのはほとんど不可能であろう。

しかし、端末アプリの中のW数を上げるのに必要な一部の処理だけを取り出して、連続してその部分の要求をサーバに対して投げかければ、W数は飛躍的に増やすことはできる。
そしてその処理を繰り返すプログラムの中で、変数として加速度を与える仕様にすれば、加速しながらデータを送り込むことも可能になる。

ただこれには専門的な知識が必要な上、自身でプログラムを作成できる技術がなければ不可能である。
上西恵755写真集:データ送信フロー

果たして本当にそんなことが行われたのだろうか?
上西恵755写真集:755サーバアプリ概念図
上記は755アプリのようなWeb環境でのアプリケーション構築事例を元に想定した755アプリのシステム概念図である。各端末の755アプリからの要求は、通信機器を経由したのちWWWサーバを経由してから755のサーバアプリケーションとの間でやりとりをしていると考えられる。アプリケーションサーバは通常のトークルーム表示が行われたら、その情報をきっかけにしてDBサーバに格納されているW数データをカウントアップするという仕様だと予想される。

また。755のシステムで特徴的なのは、コメントの書き込みやW数の増加に関係するのは、あくまでもスマホやタブレットなどで755アプリを利用した場合に限られるのだが、やりとりしているトークルームの内容を見ているだけなら、一般的なパソコンのブラウザソフトでも確認できる。
たぶんこれらのソフトから確認できる仕組みはWWWサーバの中で構築されており、WWWサーバが直接DBサーバの内容を参照するか、一部のデータをアプリケーションサーバを経由して確認するなど状況に応じた方法でデータ参照のみ行い、その結果を用いたWebページを作っているものと考えられる。

このとき755の端末アプリからの要求を受け付けるWWWサーバや755アプリケーション用サーバは、1台のみということは考えられず数十から数百台の規模で存在しているものと考えられる。そうでないと現在250万ダウンロードを超えているという755アプリを導入した端末からの処理要求をさばききれない。このときに重要な働きを持つのが端末からの要求を適切に分散させる負荷分散装置(ロードバランサー)である。

実は今回のバトルの最中にこの負荷分散装置が一時的にうまく働かなかったのではないかと思われる現象が見られた。
日時 込山榛香 増分 変動 古畑奈和 増分 変動 上西恵 増分 変動
2015/5/3 23:20 3,321,000 3,121 76 89,600,696 374,736 -5,963 89,545,436 719,884 40,033
2015/5/3 23:25 3,324,155 3,155 34 89,986,339 385,643 10,907 90,253,249 707,813 -12,071
2015/5/3 23:30 3,328,570 4,415 1,260 90,388,394 402,055 16,412 90,979,304 726,055 18,242
2015/5/3 23:35 3,332,434 3,864 -551 90,783,205 394,811 -7,244 91,700,530 721,226 -4,829
2015/5/3 23:40 3,336,076 3,642 -222 91,165,125 381,920 -12,891 92,387,543 687,013 -34,213
2015/5/3 23:45 3,339,967 3,891 249 91,528,912 363,787 -18,133 93,077,904 690,361 3,348
2015/5/3 23:50 3,343,161 3,194 -697 91,917,467 388,555 24,768 93,789,853 711,949 21,588
2015/5/3 23:55 3,346,477 3,316 122 92,288,281 370,814 -17,741 94,570,728 780,875 68,926
2015/5/4 0:00 3,349,746 3,269 -47 92,564,479 276,198 -94,616 95,243,059 672,331 -108,544
上記は5/3の24時付近のデータ変動である。古畑のところは23:55あたりからW数の増分が下がっている。それに対して上西の分は23:55にピーク(5分間で780,875=156,175/分ということから考えると、100/分の処理が出来るマクロ自動化端末約1,561台以上の端末が必要となるW数の増加)に達し、その後に数字が下がっている。最後の数字の落ち込みは人手での作業量低下とも考えられるが、23:55での古畑の落ち込みにどういう問題が影響しているのかが非常に不可思議である。

というのは、このタイミングで古畑サイドでの755利用者に通信不能となった報告が数多くあった。メンバーの一人はそのことをGoogle+に投稿していたりしていた。私個人もこの時間帯は全く755アプリが利用できなかった一人である。また、もう一つ貴重な情報があった。
日時 高橋朱里 小谷里歩 太田夢莉
2015/5/3 23:00 14,620,956 14,795,433 7,400,207
2015/5/3 23:05 14,631,495 14,802,332 7,400,934
2015/5/3 23:10 14,640,389 14,807,177 7,401,381
2015/5/3 23:15 14,647,610 14,811,093 7,401,830
2015/5/3 23:20 14,652,927 14,814,604 7,402,362
2015/5/3 23:25 14,658,147 14,818,079 7,402,979
2015/5/3 23:30 14,664,041 14,821,556 7,403,654
2015/5/3 23:35 14,670,342 14,825,109 7,405,744
2015/5/3 23:40 14,674,908 14,828,662 7,406,794
2015/5/3 23:45 14,679,551 14,831,893 7,407,808
2015/5/3 23:50 14,684,262 14,835,634 7,409,303
2015/5/4 0:00 14,691,908 14,841,131 7,411,245
2015/5/4 0:05 14,697,636 14,862,158 7,419,713
2015/5/4 0:10 14,706,423 14,901,040 7,438,445
日時 穴井千尋 高柳明音 岩立沙穂
2015/5/3 23:00 9,497,781 12,434,407 2,485,727
2015/5/3 23:05 9,525,244 12,439,248 2,486,642
2015/5/3 23:10 9,551,874 12,442,916 2,487,547
2015/5/3 23:15 9,574,909 12,445,712 2,488,145
2015/5/3 23:20 9,595,472 12,448,281 2,488,997
2015/5/3 23:25 9,615,587 12,450,464 2,489,821
2015/5/3 23:30 9,636,807 12,452,626 2,490,754
2015/5/3 23:35 9,655,135 12,454,173 2,491,198
2015/5/3 23:40 9,673,005 12,455,684 2,491,763
2015/5/3 23:45 9,692,441 12,457,376 2,492,542
2015/5/3 23:50 9,709,891 12,458,955 2,493,246
2015/5/4 0:00 9,737,410 12,461,640 2,494,362
2015/5/4 0:05 9,754,375 12,479,238 2,495,541
2015/5/4 0:10 9,774,897 12,514,988 2,496,780
上記データは同時期に競争していた他の雑誌社のイベントに参加していたメンバーのウォッチ数推移データである。
今回データ収集には下記サイトの情報を利用させて頂いた。

http://paruru.csie.org/755_FLASH.html
http://paruru.csie.org/755_BOMB.html
http://paruru.csie.org/755_UTB.html

上のデータをよく見て頂きたいのだが、どちらも23:55のデータが欠落しているのがわかるだろうか?この表に疑問をお持ちなら、上記サイトでご確認頂けたらと思う(2015/5/14 8:30時点では確認できている)。
上記サイトでは各雑誌毎にデータの収集が行われていたのだが、この日に最終日を迎えるUTBのイベント参加各メンバーの情報はきちんと更新できていたのに、なぜか他の雑誌のメンバーの情報収集に関しては23:55のデータだけ取得できていない。

一般的にこうしたサイトの作成方法としては、情報を取得できるWebサイトのページを指定した時間毎に読み込みを行い、その中に含まれている必要情報(今回の場合はウォッチ数)を自動的に取り込むプログラムとなっているはずである。たぶん今回23:55時点の情報を再読み込みしようとしたが反応が返ってこず、次の24:00になってしまったのではないかと思われる。そのため23:55のデータだけ未受信になっていたのではなかろうか?詳細は上記サイトの作成者に確認するしかない。

755のシステムではPC用Webサイトにて情報提供もしているが、それは一般的なWebページであるため単に保存されているデータを検索するだけで、端末アプリからのデータ更新と連動している755のサーバアプリケーションと密接に関係しているとは思えない。従ってこういったPC側のWebシステムにまで影響を及ぼしているとしたら、多くの更新処理要求が発生してアプリケーションサーバでの反応が悪くなったからとか、WWWサーバでの端末認証エラーとかということより、一部の固定された経路から上西のトークルーム宛てに、本来755端末アプリでは短時間に通常発生し得ない大量データ送信を受けたため、負荷分散装置がそちらを優先的に処理した事により、他のメンバー向けの更新データや一般サーバ宛ての問い合わせデータの帯域が十分確保できなかったというのが、通信トラブルの原因としての可能性が高いと考えられる。

これに関しては具体的な情報がないので、755運営側が明確な情報を公開しない限りその原因は明らかにできないだろう。

ただいずれにしてもこの時間、外部から755アプリケーションサーバ向けに大容量のデータが送信されたことは間違いなさそうだ。負荷分散がうまくいっていない状況を見ると、そのデータが755の端末アプリを経由して発生したものとは考えにくい。

次は最終日における3名の終了時までのデータ変動について詳細に検証してみる。


前へ トップ アイコントップへ戻る 最終日(5/3)詳細編へ


直線上に配置