No.010 特集:2020年の通信・インフラ
連載04 次世代UI(ユーザーインターフェース)
Series Report

第3回
コンテキストアウェアネス機能が
当たり前の社会に

 

  • 2016.03.31
  • 文/津田 建二

コンテキストアウェアネス機能にはこれから、どのような未来が開けるだろうか。実は先端コンピュータ技術界では、1990年代からコンテキストアウェアネス機能のアイデアはあったが、なかなか実現できずにいた。それがいま、スマホの時代でようやく実現できるようになってきたのだ。第3回目は、コンテキストアウェアネス機能が今後どのような用途で使われていくのか、想定される利用シーンを議論していきたい。

コンテキストアウェアネスの歴史は、まだ始まったばかりである。その未来はどこに向かうのであろうか。この機能はこれからも使われ続けるのだろうか。この答えを知るために少し過去をひも解いてみよう。

コンピュータの世界では、1990年代からコンテキストアウェア・コンピューティング(Context Aware Computing)と呼ばれた分野で、ジョージア工科大学やマサチューセッツ工科大学(MIT)、カーネギーメロン大学など米国を中心にその研究が始まっていた。ところが、当時はコンピュータを持ち歩くことができなかったために、「もし持ち運べるコンピュータがあるとしたら」という仮定の元で、コンテキストアウェアネスを次世代UIとして研究していた。その中には、日本の東京大学のように、携帯電話にコンテキストアウェアネス機能(センサ)を付ける実験研究を行っていたチームもある。

こういった研究状況を一変させたのが、iPhoneの登場とセンサの進化である。iPhoneが登場する以前は、Blackberryが2000年ごろから普及していたが、iPhoneの誕生と共にグーグルがAndroidを開発。Androidフォンが世に出ると、iPhone以降の賢いモバイルコンピュータを、「スマートフォン」と呼ぶようになっていった。

スマホの最大の特長は、ハードウエアのキーボードではなく、画面上にキーボードを表示するソフトキーボードの利用であり、頁をめくる動作や2本指で拡大縮小を表すピンチオフ、ピンチオンで表現できるUI(ユーザーインターフェース)や人間が楽しさを感じるユーザーエクスペリエンスにあった。この特長を実現したのがMEMS(Micro Electro Mechanical System)と呼ばれる半導体技術を使ったセンサである。次世代のUIとして、スマホにコンテキストアウェアネス機能を搭載することは、こうした研究の歴史からは自然な流れといえるといえるだろう。

スマホと相性の良いクルマ

スマホをモバイルデバイスというように、クルマのことをモビリティとも呼ぶ。どちらも移動性に着目した呼び方だ。その点で、クルマもスマホと同様、今後コンテキストアウェアネス機能が、重要な役割を担うことになりそうだ。スマホを持った人間が移動するときと同様に、走行するクルマの位置をGPSで特定し、信号待ちなどで停止した時間も履歴として残る。山や坂を上り下りする場合でも圧力センサを通じて高度がわかる。人間の活動を予測することと同様に、自動車の動きを推測することができるのだ。

クルマへの利用を、真っ先に採り入れたのがルネサスエレクトロニクスだ。ルネサスは2014年の開発者会議DevConにおいて、あるビデオを流した。これは、若い男の主人公が朝起きてからクルマで出勤するまでのシーンである。朝起きると、スマホは「朝ご飯は食べましたか?」と聞いてくる。「出かける前に食べましょう」とさらに圧力をかけるが、彼はそのまま黙ってクルマに乗りこむ。

クルマに乗ると、「コーヒーショップへ寄りましょうか?」とさらに聞いてくる。これはクルマに乗ったことを検知するとともに、毎日の彼の行動パターンを知っていなければ、この質問は出てこないはずだ。「今日は食欲がないから食べない」と答えると次のシーンに移る。そしてオフィスのあるビルの出入り口に到着し、スマホを操作すると、クルマが自動運転で駐車場に行ってくれる。仕事が終わりビルの出入り口で、スマホからクルマを呼び出すと数分で来てくれる。クルマの自動運転と、スマホとコンテキストアウェアネスが結びつくと、このように、一人で行動していても相棒がいるかのような生活を楽しむことができるようになるのだ。

Copyright©2011- Tokyo Electron Limited, All Rights Reserved.