イマーシブでジェネレーティブなインスタレーション

Screen Shot 2017-12-10 at 10.05.26

坂本龍一さんと『サウンド&レコーディング・マガジン』(リットーミュージック)さんの共同で行われた「坂本龍一|設置音楽コンテスト」の優秀賞に選んでいただいたマルチチャンネル音楽作品がNTT ICCのシアターで上映されております。
http://www.ntticc.or.jp/ja/exhibitions/2017/award-winning-works-of-ryuichi-sakamoto-async-sound-installation-competition/

この作品、実は5.1ch用に作った音楽ではなく、もっとイマーシブでジェネレーティブなインスタレーションを構想していてその一部を音源として切り取ってエントリーしたものです。

実際は上層下層のスピーカーレイアウト環境で三次元的にやりたいと思っています。音としても生成音楽になっていて、今回は自分のアルバムの音楽を吸い込んで自動的に時間的空間的に展開しなおして大胆に変形させ、アルバムの音楽とは全く違うけどどこか原曲の雰囲気も残るような、ある意味サイトスペシフィックな形で再構築できる余地が残るようにMax/MSPでプログラムを作っています。本当は出ている音よりもこの音を生み出すために作ったメタ作曲プログラムのほうが作品には近いのかもしれません。

ある意味サウンドファイルの変奏曲、コンピュータ上に組んだアルゴリズムによる自律的特殊演奏のような面もあり。今回は自分の過去のアルバム作品を吸い込んでいるけどコンセプチュアルに考えるなら他者の作品を配置したり音楽の歴史を掘り返したり、地域や時代をミックスしたり、もっと別のマテリアルを吸い込むほうが面白いのではないかと思っています。去年のInterBeeの展示くらいから実験的にやってきたアプローチを洗練させたものです。

何らかのかたちでインスタレーションで実現したいものです。。広いスペースでスピーカーch数もたくさんという空間解像度の中で照明なんかも組み合わせつつ総合的にやりたいな。そんな大規模なチャンスを得るにはタレント化でもしないと難しいのかもしれませんが。
リンクの映像は展示上演されている作品の生成的バイノーラルバージョンで永遠に繰り返すことなく続く音楽になってます。Maxパッチのキャプチャーなので何となく何をやってるのか、推測できる人は推測できるかもしれません。