ソニフィケーションUI ― 2012年03月23日 23:59
先週Iさんにお会いした時に伺った話です。
「線虫」というやや嫌われ者の原生動物の動きをパーラメーターにして、そのパラメーターを音に置換えて奏でるという研究があるそうですが、その動きと音の関連が素晴らしくて、まさにそのような音をたてながら動いて見えるのだそうです。
このような、音ではないものを音にする「可聴化」というコンセプトに3つあると教えて頂きました。
1)オーラライゼイション
情報を聴覚的に提示すること。
2)オーディフィケーション
音にすること。
3)ソニフィケーション
言語外情報を音により意味付すること。
冒頭の例はソニフィケーションです。検索でも「ソニフィケーション」が多数ヒットしますので、このコンセプトがもっとも盛んに研究されているようです。
これはUIにそのまま移植したいコンセプトですね。昨日の記事でも書きましたが、「触覚」への補完にはとても相性が良さそうです。
例えば、そっとなでた時、ぐっと押した時、強く叩いた時を「疑似的」に分けてそれぞれの効果音が奏でられるもの(この方法はゲーム的ですが)でも多くのフィードバックを感じる事が出来ます。
しかし、実際の指の触り方、動き方をパラメーター化して都度その時の音が生成されるとしたら、そこには「生の感情」が表現されるでしょう。効果音ではない、自身のフィードバックとして感じる事が出来るのはとても美しい事です。
これはぜひやってみたいですね。
Iさん、ぜひ「ソニフィケーションUI」プロジェクト化して下さい!(^^)
「線虫」というやや嫌われ者の原生動物の動きをパーラメーターにして、そのパラメーターを音に置換えて奏でるという研究があるそうですが、その動きと音の関連が素晴らしくて、まさにそのような音をたてながら動いて見えるのだそうです。
このような、音ではないものを音にする「可聴化」というコンセプトに3つあると教えて頂きました。
1)オーラライゼイション
情報を聴覚的に提示すること。
2)オーディフィケーション
音にすること。
3)ソニフィケーション
言語外情報を音により意味付すること。
冒頭の例はソニフィケーションです。検索でも「ソニフィケーション」が多数ヒットしますので、このコンセプトがもっとも盛んに研究されているようです。
これはUIにそのまま移植したいコンセプトですね。昨日の記事でも書きましたが、「触覚」への補完にはとても相性が良さそうです。
例えば、そっとなでた時、ぐっと押した時、強く叩いた時を「疑似的」に分けてそれぞれの効果音が奏でられるもの(この方法はゲーム的ですが)でも多くのフィードバックを感じる事が出来ます。
しかし、実際の指の触り方、動き方をパラメーター化して都度その時の音が生成されるとしたら、そこには「生の感情」が表現されるでしょう。効果音ではない、自身のフィードバックとして感じる事が出来るのはとても美しい事です。
これはぜひやってみたいですね。
Iさん、ぜひ「ソニフィケーションUI」プロジェクト化して下さい!(^^)
最近のコメント