Amazon エコーが大失態…「ニュースの声を注文と勘違い」誤発注殺到

Amazon エコーが大失態…「ニュースの声を注文と勘違い」誤発注殺到

Written by Pocca

Posted date:2017.01.12

アマゾン_人工知能_アレクサ_誤発注
photo by KTNV

 昨今話題になっている音声認識デバイス。一番身近なところでは、iPhoneのSiriやアンドロイドに搭載された会話認識機能が思い浮かぶ。昨年に大ヒットした、話しかけて操作するAmazonの人工知能スピーカー『エコー(Echo)』もその一つだ。エコーに話しかければ、搭載されたAI「アレクサ(Alexa)」が情報を処理。ネット検索はもちろん、天気予報を聞いたり、アラームをセットしたり、音楽を再生させたりできる。その上、「アマゾンの商品を注文する」という機能まであるから驚きだ。しかし最近では、このエコーで思わぬハプニングが起きている。

 ことの発端はアメリカのダラスに住む6歳の女の子がアマゾンエコーに「ドールハウスとクッキーを買って」とお願いしたことだ。数日後、約160ドル(約1万8千円)相当のドールハウスと2kgにもなる大量のクッキーが家へ配達されて、女の子の母親はびっくり。結果、届いた高価なドールハウスはチャリティーに寄付されることになったのだとか。

 このなんとも微笑ましい事件をアメリカメディアは朝のニュースで取り上げた。このニュースを伝える際、男性アナウンサーは「アレクサ、私にドールハウスを注文して。(Alexa order me a dollhouse)」と話した。するとその結果、なんとTVの音声を主人からの注文と勘違いしたエコーがドールハウスをアマゾンに注文し始めたというのだ。

 しかもこのエコーの誤認識によるドールハウスの注文はたった数件だけでなく、大量に殺到したという。後日、アマゾンは公式サイトで今回のトラブルで誤発注されたドールハウスはキャンセル、または払い戻しができると明らかにした。

 ちなみに、アマゾンエコーの設定で音声注文を禁止したり、決済時には認証コードを確認するように設定することができる。しかし、それを「手間」と考えて設定をおろそかにしてしまうと、このようなトラブルもあり得るということだ。

1 2

参照
cbslocal.com
mashable.com