長い間、ブログの更新をサボってしまいましたが、今回はラスベガスで開催されている全米最大のエレクトロニクスショー、CESからのレポートです。
【ラスベガス風景】
昨日からラスベガス入りして、今日からショーを見て回ります。今日は、頭の中にインデックスを作るために、ひととおり駆け足で見て回ることにしました。まずは、メイン会場から少し離れた、IoT関連の展示会場へ向かいます。
スマートホーム系のIoTでは、次第に形が定まってきている印象を受けます。機器の制御や通信については、ZWAVEやZigbee3.0といった標準に乗るメーカーがほとんどで、デバイスの選択肢も2年前に比べるとかなり増えた印象を受けます。
【ZWAVEアライアンスのブース】
【つながる機器群】
こうしたデバイスレイヤーの標準の上に、ユーザーインターフェイスとしてのAI,たとえばGoogle Assistant や Amazon Alexaなどを使用して全体をたばねるといった形が定着しつつあります。
一方、家電メーカー系はというと、ちょっと混迷しているかもしれません。冷蔵庫や電子レンジといったものにAIを積んでネットにつなぐ・・・といった流れは2年前のCESでも見られていたのですが、そこから大きく進んだ感じでもなく、また、スマートホームとしての(住居インフラとなるIoT環境との)統一感もいまひとつ見られません。大手家電メーカーは、どうしても囲い込み戦略になりがちなので、そういう意味での停滞感があるのかもしれません。本格的なスマートホームを実現するためには、もっとオープンなインターフェイスが必要になりそうです。
さて、CESのもうひとつの目玉が自動車関連です。こちらは、自動運転が次第に実用化段階に入りつつあり、各社とも力が入っています。AI搭載の自動運転車のプロトタイプやコンセプトモデル展示の一方で、各社ともに、近未来の公共交通システム的なコンセプトでの展示も増えています。これは、自動運転化後に起きるであろう、自動車所有意欲の低下を意識したもののようにも思えます。所有から利用への変化はこの世界でもいずれ起きるのかもしれません。
【ベンツのコンセプトカー】
【乗り合いの自動運転車】
【乗車体験コーナー】
また、AIは自動運転だけでなく、ドライバーや利用者のエクスペリエンス向上のためにも応用されます。利用者の顔などから感情や感覚を読み取り、適切なアシストをしたり、車内の環境をそれにあわせて制御するといった応用は各社とも力を入れているようです。
さて、IoT、家電、車、ヘルスケアなど、いずれの世界でも、AI搭載は普通に行われるようになってきたわけですが、私のようなセキュリティ屋の性分としては、どうしても「大丈夫か?」と思いながら見てしまいます。
気になるのは、AIにかかわらず、現在流行となっている技術の開発において、どこまでセキュリティが意識されているのか、という点です。たしかに、安全という面では、自動車やヘルスケアの分野、電気製品などについては一定の基準があるはずなのですが、それらが「悪意」を前提としたものかと言えば、必ずしもそうではありません。
たとえば、AIにおいては、近年、画像認識を混乱させるような攻撃が話題になっています。昨年11月にブリュッセルで開催されたESCAR EUROPEという自動車関連のセキュリティコンファレンスでは、道路標識を誤認させるような攻撃手法が紹介されていました。しかし、こうした問題への対応は簡単ではありません。現在、AIと呼ばれているものの多くが、人間や動物の五感についての神経系の動きを模倣する「深層学習」という手法を利用しています。これは、知能というより、神経系の学習能力を模したものです。ただ、これは神経系を電子的に再現するのではなく、その動きを数値的にシミュレーションしているため、統計解析などを応用した高度な数学的演算が必要になります。NVIDIAのようなAI用チップメーカーが提供しているのは、ニューラルネットワークを直接実現するチップではなく、こうした数値演算を高速化するための並列処理コンピュータなのです。
【NVIDIAの車載用コンピュータ】
また、こうした演算のプログラミングには様々な統計解析手法や数学的手法に関する知識が必要となります。最近では、GAFAなどを含め、こうした深層学習のプログラミングを簡素化するためのツールキットを無償で提供する動きがあり、それほど高度な知識がなくても深層学習を応用したシステムを作ることができるようになっていますが、そのレベルでは、先に述べたような攻撃に対する対策は困難です。どうしても、深層学習の原理に詳しい専門技術者や研究者に悪意を前提として対応を考えてもらわざるをえません。
IoTなど、ハードウエアに近い分野に関しても似たような状況が存在します。こちらも近年、脆弱性の問題がクローズアップされていますが、結局のところ、開発者が「悪意」を意識できるかどうか、という点に問題は帰結します。
いずれも、我々、いわゆる「セキュリティ専門家」にとってはハードルが高い分野です。こうした分野に個別に足を踏み入れるのもひとつの方法かもしれませんが、おそらくそれならば、セキュリティを離れて、その分野の専門家に転身してしまったほうが早そうです。一方、こうした最新技術のプラットホームとなるコンピュータシステムは、いまだに従来型のものです。AIといえども例外ではなく、こうした部分については、これまでのベストプラクティスが応用できます。つまり、従来型のセキュリティで基盤は守ることができるわけで、専門知識が必要となるのは、その上のアプリケーション部分だけなのです。ついでに言えば、AIで防ぎきれない問題については、従来型の枠組みの中に安全弁を入れる方法もあるでしょう。
逆に、先端技術の技術者や研究者に基盤のセキュリティまで考えてもらうのは荷が重いので、従来型のセキュリティ専門家は依然として必要とされます。問題は、この両者がうまくコラボレーションできるかどうかです。基盤とアプリケーションは相互に密接に関連しますから、全体をひとつのシステムとして考えられないと困ります。こうしたシステム設計の段階で、どうセキュリティを組み込んでいくのか、またアプリケーション開発者に対して、悪意を前提とした課題をきちんと提起していけるかどうかは、むしろ、我々、従来からセキュリティ畑で働く人間の仕事なのかもしれません。
深層学習への攻撃では、そのためにAIを使う手法なども明らかになっています。こうした「敵対的」AIは、対AIだけでなく、今後セキュリティ全般に対する大きな脅威となることは間違いありません。今後、我々セキュリティ専門家が、様々な分野の専門家とうまくコラボレーションしていけるかどうかが、生き残りの鍵といっても過言ではないような気がするのです。
少し脱線気味になってしまいましたが、いつものセキュリティ関連のコンファレンスやショーではなく、こうした最先端技術を見て回ることで、セキュリティ屋としての自分を、その井戸の中から追い出すことは重要だろうと思います。
明日以降、もう少し深く、見て回ろうと思っていますので、また気づいたことなどを書こうと思っています。
0 件のコメント:
コメントを投稿