No.019 特集:データ×テクノロジーの融合が生み出す未来

No.020

特集:データ×テクノロジーの融合が生み出す未来

Expert Interviewエキスパートインタビュー

アートとテクノロジーの融合によって、未来の世界が見えてくる。

2019.6.28

真鍋 大度
(アーティスト)

アートとテクノロジーの融合によって、未来の世界が見えてくる。

コンピュータや通信技術の急速な進化により、近年、メディアアートで培われた表現が次々と社会に実装されてきた。その最前線で世界を驚かせ続けてきたのが、メディアアート、データアート、エンジニアリング、インターフェイスデザイン、プロダクトデザイン、建築、映像、音楽など、多彩なバックグラウンドを持つ個性豊かなクリエイター、プロデューサーらを擁するプロダクション「ライゾマティクス(Rhizomatiks)」を率いる真鍋大度氏である。メディアアート作品制作の傍ら、広告制作やイベントの演出、ミュージシャンやアーティストのライブ演出といったフィールドで新しいテクノロジーを駆使したインタラクションデザインやソフトウェアエンジニアリングを手掛け、新たな表現を様々なジャンルに展開してきた。テクノロジーの進化がますます加速する中で、アートやエンターテインメントはどう変化していくのか。そして、メディアアートはこれからの社会でどういう役割を果たしていくのか。トップランナーである真鍋氏に聞いた。

(インタビュー・文/近藤 雄生 写真/黒滝千里〈アマナ〉)

メディアアートが社会に広まる流れの中で、転機をつかむ

真鍋 大度氏

── 株式会社ライゾマティクス(以下、ライゾマティクス)を立ち上げたのは2006年。以来、「アート作品の制作」と「クライアントワーク」の両輪で活動し、テクノロジーを駆使した様々な新しい表現や作品を生み出してこられました。創業から13年の間に、制作の方法や取り巻く環境にはどのような変化があったのでしょうか?

当時も今も、自分がやろうとしていること自体はそれほど大きく変わっていないのですが、ここ十数年間の様々な技術の進化が僕たちの仕事の仕方を変えてきました。15年程前からこのような活動をしていますが、かつては大量のデータを使って何かをやろうとしても、そもそもデータを集めることが難しかった。さらに、コンピュータのスペックも貧弱だったので、実現できることは限られていました。

たとえば、映像で言えば今ならリアルタイムで4K、8Kにも対応できますが、当時はまだSD(標準画質)中心の時代。解像度は今の16分の1程度ですし、リアルタイムでできることも多くはありませんでした。それゆえに、一般の人がパッと見て面白いと思ってもらえるようなものを作るのは困難でしたね。僕たちは美術館やアートフェスティバルで作品を発表していましたが、メディアアートという枠組みの中で評価されることはあっても、それによって企業やブランドなどからコンスタントに仕事の依頼が来る――という状況ではありませんでした。

制作側にとっては、「openFrameworks」*1をはじめとするプログラミングのツールキットが出てきたのが大きな変化でした。それ以前は人の動きを解析したいと思ったら何から何まで自分でプログラムを作らなければなりませんでしたが、openFrameworks*1には手の動きや顔の位置を解析するライブラリが誰でも使える状態になっており、それを使えばインタラクティブな映像がすぐ作れるという状況になりました。僕がこれを使い始めたのは、ライゾマティクスを立ち上げたのと同じ2006年頃。当時はまだ今ほど機能が充実しておらず、使い勝手も現在とはかなり違ったのですが、それでも、このツールキットの登場によって「インタラクティブアートで必要なプログラムを誰でもフリーで使える」という時代になり、インタラクティブアートの裾野が大きく広がったと言えるでしょう。

── そうした中で、2008年に制作した「electric stimulus to face」(動画1)という作品が大きな転機となったんですよね。

[動画1]electric stimulus to face -test3(Dito Mnbe)

はい、そうなんです。「低周波刺激装置とソフトウェアを作り、音に合わせて顔の表情が動く」という仕組みを作って映像を撮影し、それをYouTubeで公開したところ、とても大きな反響がありました。それがきっかけで自分の存在を海外の人たちに知ってもらうことが出来て、いろんな人から声がかかるようになりましたね。openFrameworksを開発していたザッカリー・リバーマン*2やテオ・ワトソン*3など、コアなデベロッパーたちのプロジェクトに参加するようになったのもそれからです。

また当時、コンピュータのスペックの向上や有用なツールキットの登場によって実装サイドのインフラが整ってきたのに加え、YouTubeのように簡単に動画を配信するプラットフォームが出てきたことも大きかったと思います。2010年頃から広告業界がそういったシーンに目を付けてバイラル映像を作るようになったことによって、実験映像が広告で使われていくようになり、エンターテインメントにも展開していきました。代表的な例が、現在よく一緒に仕事をしているPerfumeです。2008年頃から、こちらから提案を持ちかけるようになり、2010年の東京ドーム公演の時に初めて演出に関わりました。

アイルトン・セナの走りを蘇らせた表現と技術

── そこから2012年、NHK紅白歌合戦でのPerfumeの演出へとつながっていくのですね。その頃の作品として個人的にとても印象的だったのが、ホンダの広告として制作された「Sound of Honda / Ayrton Senna 1989」でした。この作品について少しお聞かせください。

あの作品は、F1日本グランプリ予選でアイルトン・セナが出した世界最速ラップの走行データと大量のLEDライト、スピーカーを用いて実際に鈴鹿サーキットで再現しようというコンセプトでしたが、メディアアート的なアプローチと広告の面白さの両方が発揮できた広告だったと思っています。つまり、普段やっているアート表現の知見を存分に生かしながら、クライアントの要求に応える広告という形でアウトプットできた仕事でした。

── あの作品の中で具体的に行われたのは、どのような作業だったのでしょうか?

元々はセナのデータとスピーカーを用いてセナの走行を表現するという企画でしたが、何か追加のアイディアを提案して欲しいということで、電通のクリエイティブテクノロジスト菅野薫君から相談を受けました。当時、Perfumeの光る衣装など、光の制御システムの開発とデザインをよくやっていたこともあり、セナの走行データを用いてコース上に設置した350個のLEDを制御する提案と実装をやりました。実際の走行時のスピード、エンジン回転数といった記録が紙のデータとして残っているので、まずはそれを画像解析や目視によってデジタルデータへ変換していきます。ただし、紙のデータを読んでいるためどうしても誤差が出てしまい、変換したデジタルデータでシミュレーションしても実際の走行とはなかなか一致しませんでした。そこで、実際のビデオを見ながらデータを微調整していきました。そしてでき上がったデータに沿って指定したLEDのライトが順に点灯するようにし、光がコースを走るようにしたわけです。

また、実装の具体的な方法やコスト、開発期間、設置時間などを計算してシステムを提案するのも僕の重要な仕事でした。以前メーカーでエンジニアとしてセキュリティシステムなどを作っていた経験もあったので、そうした仕事は比較的得意で、好きな作業でもあります。たとえば、「ケーブルはイーサネット*4で引いたら高いから電話線を使おう」「ここはモデム*5で十分だ」といったことを考えて提案します。鈴鹿サーキットを借りるには1日何千万円という単位のお金がかかります。それゆえ、いかに効率よく配線や制御を行って設営コストを下げるか、といったエンジニアリング的な仕事も重要でした。

[ 脚注 ]

*1
openFrameworks:グラフィックやオーディオ、3D表現など、クリエイティブな活動で頻用されるプログラミングを容易にするために作られたソフトウェア群(=ツールキット)。誰でも無料で使用し、開発に関わることもできるオープンソースの形式で提供されている。
*2
ザッカリー・リーバーマン:アメリカ出身のアーティスト、研究者、ハッカー。openFrameworksの共同開発者としても知られる。アルス・エレクトロニカをはじめとする世界的なメディアアートの祭典などでの受賞も多数。
*3
テオ・ワトソン:アメリカを拠点とするアーティスト、デザイナー、実験者。アート表現のための新しいツールや実験的な音楽システムなどに関する作品がある。ザッカリー・リーバーマンとともにopenFrameworksの開発にも携わる。
*4
イーサネット:コンピュータネットワークの規格の一つ。現在もっとも広く使われているLANの規格。LANそのものの意味として使われることもある。
*5
モデム:デジタル信号(コンピュータのデータ)とアナログ信号(ADSLなどの電話回線)を相互に変換するための装置。
TELESCOPE Magazineから最新情報をお届けします。TwitterTWITTERFacebookFACEBOOK