おはようございます!
IoTアドバイザの管理人ケイです!
今日は、ボクの持っているPixel3では、次世代のOK Googleが実装できないことを、シブシブ納得する理由をお話しします。
ちょっと前になりますが、以下の記事をみました→次世代の“OK, Google”は「スマホの未来」をここまで変える —— Google I/Oで垣間見えた半歩先の「未来」
この記事で以下の文面があります。
Googleアシスタントの音声認識、言語認識機能は今年の後半には、クラウドではなくエッジ側、つまりスマホ内でローカル処理できるようになることが発表されている。
引用:https://www.businessinsider.jp/post-190600
ご存じの方も多いかと思いますが、これはエッジコンピューティングっていいます。IoTシステム技術検定にもでてきます。
「データ発生源・ネットワークユーザーの近く = 端」という意味でエッジと呼ばれます。
クラウドコンピューティングで、すべて処理していたのに対して、以下のような期待ができます。
- 通信データ量の削減
- サーバ側の処理負担
- リアルタイム / 応答性の向上
おぉ!いいことだらけじゃん!! って思いますよね。実際イイことだらけです。
しかし、これらをエッジ側で処理する必要があるため、今までよりも処理性能の高い「エッジ = 端」が必要になります。
ということで、
この次世代のGoogleアシスタントは、今年後半にリリースされる次の「Pixel」シリーズ(おそらく「Pixel 4」)から導入予定。グーグルは新たに開発した認識モデルの詳細を明らかにしていないが、チャン氏によればローカルでの音声認識の実現のためには、ソフトウェアとハードウェアの密接な連携が必要で、そのために新機種での対応となるようだ。
引用:https://www.businessinsider.jp/post-190600
なるわけですが………
えー、ボクは去年の11月に、高いお金でPixel3を買ったのに、Pixel3じゃだめなのかよぉー
まじかよ、ブツブツ
:
:
:
とまぁ、不満足ながらも、Pixel3では、エッジコンピューティングができないわけを、理解でき、納得するわけです。
:
:
:
いや、納得していないぞ(=゚ω゚)ノ
そうだ、お金ちょっと出すから、Pixel3とPixel4を交換してくれるキャンペーンやらないだろうか?
まぁ、それはさておき、ボクみたいな一般人にも、こんなところで、IoTシステム技術検定の知識が役に立つわけです。
IoTアドバイザは、IoTシステム技術検定の基礎に合格すると、名乗ることができます。よろしければ参考にしてください。
それでは!