No.002 人と技術はどうつながるのか?
Scientist Interview

マッキントッシュの登場で、
コンピューターとユーザーのギャップが見え始めた

──HCIという領域が生まれたのは、いつ頃ですか。

私はまだ参加していませんでしたが、最初の大きな会議が開かれたのは1984年のことです。この年にアップルのマッキントッシュ・コンピューターが生まれたのも、偶然ではないでしょう。何が起こったかと言うと、その頃までコンピューターを扱っていたのは、科学者やビジネス・データ・プロセシングを行うような高度な訓練を受けた専門家だけだった。ところが、マッキントッシュの前後から、ごく普通のことをやるのにコンピューターが使われるようになり、コンピューターとユーザーの間にある大きなギャップが突然見えるようになったのです。私自身が関わり始めたのは、先ほども言ったように1990年で、HCI会議に『コンピューターと認知を理解する』を元にした基調講演をしてほしいと呼ばれた時です。

──その時から、HCI自体はどう変化してきたのでしょうか。

当初のHCIは、エンジニアリングと認知心理学,認知モデリングの組み合わせでした。先導していたのは、AI出身のアラン・ニューウェルとハーバート・サイモン、そして彼らの弟子でゼロックスPARC研究所にいたグループですから、非常に影響力が強かった。彼らのアプローチは、たとえて言うと、橋を建設する際に参照できるエンジニアリングの原則があるように、インターフェース・デザインにも原則が作れるのかどうかを模索したものでした。しかしながら、このアプローチが主流になることはありませんでした。一方、その間に世に出回るデバイスの種類はかなり増え、HCIはそれに従って進化してきたと言えます。しかし、人がどう理解するかという原則に根ざしていることに関しては、HCIが生まれた当初から変わっていません。また、どんなに小さくなってもデバイス自体はコンピューターなので、コンピューターとやりとりしているという点では、1980年頃にPARCで、ゼロックス・スター(最初のグラフィカル・ユーザー・インターフェースを搭載した商用パソコン)のために開発されたインターフェースから大きな変化はありません。例えば、これが家の中のすべてをジェスチャー入力するような時代になれば、また大きな変化があるのかもしれません。

[写真] サンフランシスコ郊外のスタンフォード大学キャンパス

ビッグデータ時代のHCI研究の最新動向

──産業界が世に出す製品によって、研究も変わってきたということですか。

そうです。その意味では、ここ5〜10年間はソーシャル領域へHCI研究が大きくシフトし、ソーシャル・ネットワーキングやクラウド・ソーシングといった現象が対象になっています。これまでは、一人のユーザーがコンピューターとやりとりすることが前提だったのですが、今は、一人のユーザーとコンピューター、その向こうの多数のユーザーのすべてを含むものになった。学生の論文には、『ティーンエージャーのメッセージング利用とフェイスブック』といったようなテーマもあります。それでは、心理学の領域ではないかという議論もできるでしょうが、HCIはもともと実に幅広い分野を包括する学問です。また、実際には、現在のソーシャル・ネットワーク時代も、人間の社会的性質は電話を使っていた時代と変化がないわけですが、道具が変化したことによって構造が変わり、それがひいては人間の見方を変えてしまうといったことが起こっている。すなわち、昔ならば家に戻って電話で話すまで、友達が何をしていたのかはわからなかったのですが、今ではひっきりなしにツイートが入ってくる。友達の様子を知りたいという根底の社会的欲望を満たすことは同じでも、情報の入手方法が変わり、それによって人間と情報の関係における構造が変わっているのです。

──ジェスチャー入力とまで行かなくとも、すでに音声入力テクノロジーは広まっています。また、ビッグ・データ時代にはデータ同士がやりとりして、人間が必要とする情報をプッシュ型で提供してくれるようになると言います。こうした時代のHCI研究はどんなものになるのでしょうか。

確かに、コンピューターはもっとインタンジャブル(実体のない)なものになりつつあります。しかし、マシーンかクラウドかということは核心ではありません。キーとなるのは、人間の生活にどうコンピューターが統合されるのかということです。コンピューターの前に人が座って操作するという限られた状況設定を超えて、人間の活動を広く捉える必要があります。それでも、人がどうコンピューターとやりとりするのかという原則は変わらない。またビッグ・データと言った場合には、ずいぶん多くのことを含んでいます。そのひとつに、たとえば機械翻訳がある。私の学生時代には、機械翻訳のためには言語を深く理解することが必要だと思われていました。ところが今、グーグル翻訳を見るとどうでしょうか。深い理解などには手もつけず、二つの言語間の相関事例を何兆件とデータとして蓄えておいて、それを元に翻訳する。もちろん、完璧とは言えませんが、以前開発されたどんな翻訳システムよりも有効です。HCI領域でも、人のパターン認識をビッグ・データを利用して向上させられれば、機械学習のレベルを上げられるのではないかといった議論もあります。別の方向性は、たとえばデータ・ビジュアライゼーションです。どんな大量のデータも、何らかのパターンをそこから引き出せないのならば役立たずです。そこで数学的なテクニックを用いる方法はすでにありますが、ここでは人間が生来持っているパターン認識能力を使ってデータを分析するような方法も今、開発されています。

Copyright©2011- Tokyo Electron Limited, All Rights Reserved.