今日午後の某所での打ち合わせは、AIとデータ収集の話。データ共有をするには、データモデルが一定の標準化されていることが望ましいという取り組みをしているけど、ちょっと違う視点の話。
AIを使えば、標準化されたデータではなくても、とにかくデータから一定の関係性が推察できるという事例のネタだった。確かに、カチッとした教師データや辞書をつくらなくても、自然言語処理系では、こういう推論が盛んに行われている。
でっ、まぁとにもかくにも、世の中で流れているあらゆるデータを、むしゃ食いすることができるのだろうか? エシュロン (ECHELON)の話は、有名だけど、どこかで違法な行為が含まれるなら、かなりデータは集まるのが実態だろう。
昔、少し手伝いをした西海岸の会社は、タッピング装置とそこからターピングとしたパケットフレームから、特定のメールと思しきものを見つけて、某機関に転送するなんてことやってたなと思い出した。メールの中身が見れなくても、メールの頻度とか送信元、受信元のアドレスとかは、かなり分析に有用な情報だもんなぁ。
というわけで、データに貪欲なAIが、そのうちなにかやらかすかもね。