アマゾンエコーやグーグルホームなど、「家庭用AIスピーカー」(家庭用AIアシスタント)の人気・需要が爆発的に高まっている。
今年6月初旬、市場調査会社トレンドフォースが発表した統計資料では、2016年に全世界で販売されたサービスロボットの47.4%が家庭用AIスピーカーだったことが明らかにされた。これまで、サービスロボットとしては「ルンバ」など掃除用ロボットが1強だったが、家庭用AIスピーカーの登場によりその勢力図が変わりつつある。
家庭用AIスピーカーは人間の日常会話を理解し、家庭におけるさまざまなタスクを処理する。IoT家電製品の電源オン/オフ、音楽再生、ニュースの読み上げ、ショッピングなどその用途を挙げれば枚挙に暇がない。そんな家庭用AIスピーカーのなかでも特に人気が集中しているのがアマゾン・エコーで、2016年は全世界的に約520万台が売れたとされている。
家庭用AIスピーカーの普及は、家事など生活全般の利便性を高めると期待されているが、一方で「新たなセキュリティ上の問題を喚起するのではないか」という懸念の声も徐々に高まっている。
家庭用AIスピーカーとセキュリティ問題を考えたとき、まずネックになるのは「会話内容をクラウドサーバーに保存する」という特徴だ。クラウドに収集されたデータは機械学習に利用され、フィードバックを受けた各端末のAIの精度は徐々に高まっていく。開発メーカーの立場からすると、クラウドを構築して音声データを一箇所に集めた方が学習には効率的。そうすることで、より多くのデータを分析することができるからだ。
なおクラウドにデータを集めた方が、開発コストもかからない。市場競争力を維持するためにも、クラウドの要素は必須になる。ただ、この仕組みがプライバシー問題に直結する可能性を秘めていると指摘され始めている。
2016年12月、米アーカンソー州の警察は、殺人事件の捜査のためにアマゾン社にAIスピーカーが記録した情報を提供することを要求した。アマゾン側は当初、拒否。しかし、最終的には情報を渡している。企業の個人情報保護に関する観点はさておき、この事例はAIスピーカーがユーザーの日常生活を記録していることを計らずとも示す結果となった。
アップルは、このようなユーザーのプライバシーに対する不安に備え、クラウドに集めた個人音声情報の厳格な管理基準を提示している。例えば、情報保存の期間を短期だと6ヶ月、長期でも2年としている。またすべての音声情報がクラウドに送信するわけではなく、認識率向上に役立つ情報だけを送信するとしている。その他の音声情報は、アップル内で処理するようにし、本人が望む時に削除できるともしている。
ただいかに厳しい基準を設けたとしても、ユーザーが抱える「音声データが記録される」という懸念は消えないだろう。データ保存期間を短くしても、内容を選別して保存してもが、「データがクラウドに保存されている」という事実は揺るがないからだ。
一方、悪性コードへの感染は、AIスピーカーのセキュリティを脅かす要因になると指摘されている。ハッカーが悪性コードを感染させれば、AIスピーカーから聞こえる内容をサーバーに送信することができるからだ。今年3月、ウィキリークスは「CIAがサムスンとアップルが生産したスマート機器に悪性コードを埋めて盗聴した」と暴露しているが、AIスピーカーにも同様のセキュリティ上の懸念があることは拭い去れない。
AIスピーカーの場合、悪性コードの感染経路は大きく三つに分けることができる。まずネットワーク通信区間。 AIスピーカーは、クラウドセンターとの通信を送受信しながら動作するが、ハッカーがその通信区間に介入すれば、内容を操作することができるだろう。これはMITM(中間者攻撃)と呼ばれている。
またクラウドセンターをハッキングすれば、AIスピーカーから集められた情報を流出させることもできるだろう。厳密に言えば、ハッカーがクラウドセンターに侵入することは非常に難しい。ただし、不可能ではない。セキュリティが強固だとされたシステムが、ハッキングで破られた事例は数え切れない。
加えて、AIスピーカーと連動したIoT機器がハッキングされる可能性も否定できない。世界的に流通し始めた家庭用IoT機器は、セキュリティ的に盤石だとはとても言えない。
AIスピーカーは、生活を便利にしてくれるテクノロジーであることは間違いない。ただし、他の技術・サービスと同様にセキュリティ上の穴がないわけではない。現段階では「個人情報の流出」という脅威がフォーカスされているが、AIスピーカーが周辺のスマート機器を制御するハブの役割を担うことになれば、ハッキングによる被害の脅威はより大きなものになるはずだ。普及が本格的に始まったいま、長期的な視野に立った技術開発が求められている。
Photo from YouTube