先般、とある案件のヒアリングの際に受けた質問で、「xxって精度がまだまだ悪いんだけど、そんな精度の悪い情報を提供するのですか?」というのがあった。これって、もう典型的な日本の擦り合わせ型というか、ベンチマーク指向な質問だった。
いま、いろいろとビッグデータの事が話題になっているけど、ビッグデータによって、従来見えなかった相関が見つかり、新しい課題や解決策が見つかると期待されている。
ところが、こういう膨大な量の情報を扱う事を前提とした話しなのに、従来と同じ感覚で情報の精度を問うている点で、この質問に僕は違和感を感じた。
そこで、ビッグデータにより得られる情報について、通信の世界のシンプルな定理であるシャノン定理にあてて考えてみるとどうなるだろうか?
いま、情報の精度=S/N、情報リソース=帯域幅、得られる情報量=通信容量とすると、ビッグデータによる大量の情報リソースを使えば、情報の精度の悪さを補えることになる。
僕は、数理屋じないけど、なんとなくこの置換は正しいように思う。(誰か証明してください)もっと、普遍的に言うならば、物事には常にトレードオフが存在するというわけだ。
ところが、先の質問の人などは、たぶん新しい事に対して、こういうプリミティブな定理をあてて評価するんじゃなくて、従来の知験と基準で評価をするタイプなのだろう。
ある事案というかアイデアが、イノベーティブかどうか、似非科学じゃないかを見極めるということは、旧来のフレームを外すことが必要だ。だから、可能な限りシンプルなプリンシプルによって評価することが大事なのだが、そういう柔軟なことが出来る方は、なかなか少ないようだ。
結果的に、老害とまでは言わないけど、頭の固い人達が集まっても、イノベーションの芽は発見出来ないんだろう。