昨夜はGoogleが使い物にならずどうなるのやらと思っていたが、実際は40分ほど異常が出ていただけのようだ。
Googleに何が起きていたのか気になっていたけど、事の顛末は単純なようで『Googleの公式Blog』を見るとヒューマンエラーだと釈明している。
なんでも悪いサイトリストを更新する際に『/』を候補のURLとして加えたらしい。
その結果全てのサイトが対象として処理されたとのこと...
確かにどのサイトでも必ずURLに『/』が入るから、そんなのを加えられたら全サイト『このサイトはコンピュータに損害を与える可能性があります。』になっちゃう。
この顛末からGoogleのシステムの脆弱性の一端が見えた気がする。
膨大な情報を高速で的確に扱うGoogleのシステムについては多くの本が出版されていて紹介されている。
私もいくつか読んだことがあるが、良くできたシステムにただただ感心するばかりであったが、よく考えれば殆どの機能が自動化されていて人の手を介さずに処理されている。
自動化された処理は非常に優秀なプログラムによって的確に処理されているが、一方で人が介在する際のチェックが甘かったのではないだろうか。
もしリスト更新のロジックに影響を受けるサイト数をチェックしてから更新するようにできていれば、他の候補より異常な数のサイトが対象になるキーワードが含められていることを検知できたはず。
コンピュータはプログラムされた通りに生真面目に仕事をしてくれ、プログラムに重大な問題がなければコンピュータはミスすることなく仕事をこなしていく。
しかし、人はミスをする。どんなに優秀な人であってもミスは完全に無くすことはできない。
人が犯すミスをチェックし、問題を起こさないようにするのがコンピュータシステムの役割なのだから、人の手が介在する部分こそ慎重に作り込む必要があったのではないだろうか。
コメントを残す