3~4年前からAI及びディープラーニングを気象予測に活用する取り組みが、民間の気象予報会社で始まっています。その仕組みはどんなものなのか、業界を牽引する〈ウェザーニューズ〉を訪ねて、天気予報の現状と未来について聞きました。
Photo Courtesy: Weathernews
Portrait by Tomo Ishiwatari
text by Mari Matsubara
連載すでに始まっている! AIと暮らす未来
Interview 2
Photo Courtesy: Weathernews
Portrait by Tomo Ishiwatari
text by Mari Matsubara
——まず、現在の気象予測の仕組みを教えてください。
石橋 天気予報には、まず国の機関である気象庁が莫大な予算をかけて様々なデータを各地で計測し予想するものが大前提にあります。その下に、我々のような民間の会社が発信している予報があります。民間では気象庁発表のデータだけを用いて発信する企業がほとんどですが、我々〈ウェザーニューズ〉は、自社でもデータを集計して解析し、オリジナルの予測をしています。
皆さんもよくご存じの「アメダス」は気象庁が管理している自動気象データ収集システムで、ここから集めたデータをもとに気象予測をしています。「アメダス」は全国に約1,300カ所あり、これによって全国を約20㎞四方のグリッド状に分割して予測することができます。一方〈ウェザーニューズ〉では、これを1㎞四方の密度にまで狭めて、より狭い範囲の現象をとらえることができるのです。その結果、より精度の高い予測が可能なのです。
石橋 たとえばKDDIと契約を結び、彼らが持つ3,000カ所の基地局に我々の観測機を設置してもらうなど、他社と提携して全国約13,000カ所に観測機を置いています。つまり気象庁より10倍多くデータを集めることができます。また、ゲリラ豪雨や雪などを観測する自前のレーダーを全国に80基、津波レーダーを30基設置していて、独自に情報を集めています。それともう一つ重要なファクターは、10年ほど前から始めた「ウェザーリポーター」の取り組みです。現在、ウェザーニュースの利用者は月間で2,500万人いますが、その中に「ウェザーリポーター」という存在がいます。ユーザー各人が自分のいる場所の天気情報をアップしてくれるのです。こうした情報が1日約18万件も寄せられています。
——どんな情報が集まるのですか?
石橋 ユーザーのいる場所の天気を、主観的な言葉を選択して報告してもらいます。太陽光によってものの影が「はっきり」見えるのか「うっすら」なのか「見えない」のか。雨なら「ポツポツ」なのか「ザーザー」か、雪なら「チラチラ」か「ドカドカ」か、といった具合です。誰もが簡単に報告できるし、報告義務もなく、好きな時にアップしていただければいいのです。写真も投稿できるので、空の色や雲の形、雪の降り具合、ほかに季節の花が咲いた様子や、食べ物の写真をアップする人もいます。こうした大量の情報はディープラーニングやAIを気象予測に取り入れる際に、大変重要なのです。全国のユーザーから集まる大量データが鍵
——AIをどのように天気予報に取り入れているのでしょうか?
石橋 従来の気象予測も、現在のデータをとらえて過去のデータと照合し、コンピュータで解析することで未来の予測をしていたわけですが、その際CPU(Central Processing Unit)つまり中央演算処理装置を使って、データを数式化していました。しかし、我々が取り組んでいるのはGPU(Graphics Processing Unit)によるデータ処理です。これは簡単に言えばデータを数式化するのではなく、画像をそのまま画像として認識し、記憶し、学習するという処理方法で、イメージやグラフィックの処理に適しています。
わかりやすい例で言えば、機械にいろいろな「猫」の画像を大量に見せて、「これが猫だ」ということを覚え込ませます。機械はそこに規則性や類似性を見出し、ついには虎との差異にも気づけるようになります。このようにGPUを使うディープラーニングは画像データ処理に適しているので、画像をたくさん活用する気象予測の分野とは親和性が高いのです。現在はこの特質を活かして、新しいステージの気象予測に移行していく最中なのです。
石橋 全国のリポーターから上がってきた雲の画像の中には、アイスクリームのようにモコモコとした雲があります。これは典型的なゲリラ雷雨の雨雲なのですが、AIがこれを瞬時に認識します。画像が撮影された場所、時間、角度(仰角)なども総合して分析し、ゲリラ豪雨が来る場所や時間を予測します。他にも、ライブカメラで24時間撮影している雲の画像から、風速を観測することもAIのおかげで可能になりました。
気象庁は毎日全国16カ所の地点でラジオゾンデという風船を上げて、上空の気象を観測しているのですが、今ではライブカメラの映像をAIが分析できるようになっています。現場で物理的に情報を採取するのではなく、映像だけで判断できる時代が来ています。アメダスを1台設置するのには数億円かかりますが、ライブカメラは1台たった1万円ぐらい。もちろんライブカメラがアメダスの機能を100%代行できるわけではありませんが、圧倒的にコストが安いのは確かです。AIの性能がさらに高まれば、ゆくゆくは映像分析だけでもアメダスを凌駕できるようになるでしょう。
——AIを天気予報に取り入れることが可能になった要因はなんですか?
石橋 AIの学習には大量のデータが必要です。気象予測においてそれを可能にした一番の要因はスマートフォンの普及ですね。一般市民の誰もがスマホでリアルタイムの情報を入手し、写真を撮り、また簡単に発信できるようになりました。圧倒的にローコストで全国から集まった大量の情報を生かすのが今後の天気予報のあり方であり、その処理を担うのがAIやディープラーニングといったテクノロジーなのです。
——今後の見通しを教えてください。
石橋 空の画像だけでもたくさんの情報が詰まっていますが、それだけでなく、歩いている人の服装や車のワイパーの動きさえも気象観測のツールになります。世の中の事象のすべてが観測機になりうると言ってもいいぐらいです。あらゆる事象からの膨大なデータを処理するAIの役割は今後ますます重要になるでしょう。〈ウェザーニューズ〉は将来的に99.9%の確率で当たる天気予報を見据えています。
SHARE