Seattle Watch

今回は、エリクソンが発表しているThe Internet of SensesというコンセプトやWebrainがこれまで発行してきた様々なレポートを振り返りながら、5感のデジタル化による人間の能力の拡張(エンハンス)の可能性について考察していきます。

Issue 130 The Internet of Senses (5感のデジタル化)- Part 1

2020年の年末にモバイル通信技術の大手企業であるフィンランドのエリクソンが、同社の研究機関であるエリクソン・コンシューマーラボを通じて、2030年までの注目すべきコンシューマートレンドを紹介しており、そのひとつにInternet of Senses (IoS)があります。この予測は同社が収集した15歳から69歳の世界約8,000人のアーリーアダプターと呼ばれる技術に関心の高いコンシューマーのオンラインアンケートによるもので、未来のインターネットが可能にする感覚の世界を次の10のテーマに分類して予測しています。
https://www.ericsson.com/en/reports-and-papers/consumerlab/reports/10-hot-consumer-trends-2030 


1.    脳がユーザー・インターフェースになる(Your brain is the user interface)
2.    自分とまったく同じ声の再現/聴覚(Sounds like me)
3.    自分好みのフレーバーの実現/味覚(Any flavor you want)
4.    デジタル・アロマ/嗅覚(Digital aroma)
5.    トータル・タッチ/触覚(Total touch)
6.    マージド・リアリティー/視覚(Merged reality)
7.    本物の識別(Verified as real)
8.    消費者向けのポスト・プライバシー(Post-privacy consumers)
9.    コネクテッド・サステイナビリティー(Connected sustainability)
10.    感覚をベースにしたサービス(Sensational services)

 

エンジニアリング向けのポータルサイトであるInteresting Engineeringの記事では、これらの10のテーマーが織りなすInternet of Senses (IoS)の世界を次のように要約しています。「AIやVRやAR、さらにオートメーションや5Gなどの技術が可能にする世界では、感覚をベースにしたインターネット、つまりInternet of Sensesが実現され、より没入できるエンターテイメントやショッピングが可能になる。さらに環境破壊や食料危機という地球が抱える問題についての解決の糸口を見つけていく。」
https://interestingengineering.com/emerging-consumer-trends-evolving-toward-2030-the-internet-of-senses

 

現在のテクノロジーでは主に視覚と聴覚のデジタル化が進んでいますが、エリクソン・リサーチでは2025年までに5感全てがデジタル化されると予測し、2030年までには人々が思考(Thoughts)を直接共有できるようになると考えています。さらに同社では今回の調査をテクノロジーによる変容だけでなくコンシューマーの視点からの変容も考慮しているとし、これらのアーリーアダプターの感覚が将来の様々な市場形成に大きな影響を与えると推測しているのです。

 

これまでWebrainでは、5感のデジタル化について長年に渡り様々なタイトルで継続して紹介しています。今回は過去のレポートを振り返りながら、我々の感覚がネットワークを通じて共有できる「Internet of Senses (IoS)」と呼ばれる世界を思い描きたいと思います。この前編ではWebrainが5感のデジタル化に注目したきっかけと、視覚と聴覚のデジタル化について紹介します。

 

最初にWebrainが5感のデジタル化に注目したのは、2012年12月にIBM が発表した「5 in 5」という5年後の技術予測で、我々の5感が将来はデジタルに置き換えられるという予測を発表したことがきっかけです。この時われわれは、2013年1月号で人間の感覚が可能にする新しいコンピューターインターフェースの可能性を “Human Sensory Computer Interface (HSCI)” というタイトルで紹介しました。
https://www.extremetech.com/extreme/143478-ibm-predicts-computers-will-have-the-five-human-senses-within-five-years

 

視覚については、皆さんもご存知のようにGoogleやTeslaを始めとする自動運転技術やヒューマノイドロボット技術の進化と共に2016年に注目され、Webrainでは2016年3月号で“Bilateral UI: The Digital Mirrored World” というレポートを制作しています。ここでは現実の世界がコンピュータービジョンを通じて複製(ミラーリング)される世界を詳しく紹介しています。その後セキュリティー業界を中心に顔認識技術が注目されるようになりました。顔認証技術については2018年9月号の“Faceprint-Power of Convenience”というレポートで、関連技術の仕組みやアプリケーションの可能性を紹介しています。

 

次に聴覚については、Amazon のAlexaやAppleのSiriなどのAIアシスタントとのコマンド入力、さらに自動車の運転時などにおける機械とのインターフェースとして音声が2014年に注目を集めました。これは、自然言語を処理するコンピューター技術と機械学習の能力が急激に進化したからで、最近ではスマートフォンを音声で操作する人も米国のように増えてきており、昨年は音声ベースのSNSであるClubhouseが話題になったりしています。Webrainでは音声によるコマンド入力について、2017年10月号の“The Voice-First Economy”というレポートで詳しく紹介してます。

 

このように、5感のデジタル化は着々と進化しています。これらは人間の能力をテクノロジーによって拡張する(エンハンスする)形で浸透してきており、イスラエスの歴史学者のユヴァル・ノア・ハラリ氏が「ホモ・デウス: テクノロジーとサピエンスの未来」という著書で描いたような人間(ホモサピエンス)をアップグレードする時代が来るのでしょうか?次回の後編では、嗅覚、味覚、触覚のデジタル化について話していきます。
https://www.ynharari.com/book/homo-deus/ 
 

Toshiro Akashi, Editorial Team

<視覚と聴覚のデジタル化を支援するプレーヤー>
 

Affectiva (
http://www.affectiva.com)
MITメディアラボからスピンアウトしたAffectivaは、顔の表情や感情を分析するソフトウェアを開発している。世界87か国以上から収集された800万人以上の顔画像データを保有し、独自のアルゴリズムを用いたディープラーニングを使って表情から感情分析を行っている。同技術はモバイルアプリやゲーム、教育や医療の現場、自動車、マーケティング・リサーチなどのさまざまな業界で活用されている。
 

Google Duplex (
https://about.google/)
Googleは、2018年のGoogle I/OでGoogle Duplexと呼ばれるAI音声技術を発表している。この技術を使うことで、Googleアシスタントはユーザーの代わりに電話をかけてレストランや美容院の予約を行ってくれる。その予約電話の音声はまるで人間が話しているような自然な発音で、人間らしい相づちを加えながら、電話の相手との会話における文脈を理解して会話を進めることができる。
 

Chorus.ai (
https://www.chorus.ai/)
Chorus.aiは、セールス活動における会話を分析するAIツールである。ZoomやGoogle Meetなどを介して行われるオンライン商談をAIが記録して分析することで、商談中の会話内容から契約が成立した理由やしなかった理由や、どのタイミングでどのような内容のオファーをするとパフォーマンスが上げるのかを可視化してくれる。また、過去のデータからコンバージョン率の高い商談の流れをテンプレート化することで、営業人材の育成にも活用できる。