Pixel3では、次世代のOK Googleが実装できないことを、シブシブ納得する理由

おもしろい(^○^)! と思っていただけたら、また読みに来てくださいね。更新するパワーになります(^_^)b


おはようございます!

IoTアドバイザの管理人ケイです!

今日は、ボクの持っているPixel3では、次世代のOK Googleが実装できないことを、シブシブ納得する理由をお話しします。

ちょっと前になりますが、以下の記事をみました→次世代の“OK, Google”は「スマホの未来」をここまで変える —— Google I/Oで垣間見えた半歩先の「未来」

この記事で以下の文面があります。

Googleアシスタントの音声認識、言語認識機能は今年の後半には、クラウドではなくエッジ側、つまりスマホ内でローカル処理できるようになることが発表されている。

引用:https://www.businessinsider.jp/post-190600

ご存じの方も多いかと思いますが、これはエッジコンピューティングっていいます。IoTシステム技術検定にもでてきます。

「データ発生源・ネットワークユーザーの近く = 端」という意味でエッジと呼ばれます。

クラウドコンピューティングで、すべて処理していたのに対して、以下のような期待ができます。

  • 通信データ量の削減
  • サーバ側の処理負担
  • リアルタイム / 応答性の向上

おぉ!いいことだらけじゃん!! って思いますよね。実際イイことだらけです。

しかし、これらをエッジ側で処理する必要があるため、今までよりも処理性能の高い「エッジ = 端」が必要になります。

ということで、

この次世代のGoogleアシスタントは、今年後半にリリースされる次の「Pixel」シリーズ(おそらく「Pixel 4」)から導入予定。グーグルは新たに開発した認識モデルの詳細を明らかにしていないが、チャン氏によればローカルでの音声認識の実現のためには、ソフトウェアとハードウェアの密接な連携が必要で、そのために新機種での対応となるようだ。

引用:https://www.businessinsider.jp/post-190600

なるわけですが………

えー、ボクは去年の11月に、高いお金でPixel3を買ったのに、Pixel3じゃだめなのかよぉー

まじかよ、ブツブツ



とまぁ、不満足ながらも、Pixel3では、エッジコンピューティングができないわけを、理解でき、納得するわけです。



いや、納得していないぞ(=゚ω゚)ノ

そうだ、お金ちょっと出すから、Pixel3とPixel4を交換してくれるキャンペーンやらないだろうか?

まぁ、それはさておき、ボクみたいな一般人にも、こんなところで、IoTシステム技術検定の知識が役に立つわけです。

IoTアドバイザは、IoTシステム技術検定の基礎に合格すると、名乗ることができます。よろしければ参考にしてください。

2018年12月1日に行われた第5回 IoTシステム技術検定の基礎に無事合格しました。勉強方法・時間などをまとめておきます。参考にしてくださいね。

それでは!