JazzMutant LemurというマルチタッチのOSCサウンドコントローラがある。パラメータをタッチインターフェースで入力して送信できる。こんな便利なものがあったら、市販されているMIDIコントローラの類はこれでほとんど汎用的に実現できてしまいそうだ。
しかしこのLemur、25万円もする。まともなノートPCが5万ちょいで買えるこの時代に、さすがに気軽に出せる価格ではない。そんなわけで、タッチパネルを使ったハックなどもいろいろ模索したのだけど(reactivisionみたいなやつ)、一方さすがにそこまで深入りしようとまでは思わなかった。
今年の春あたりから、その辺の状況が変わってくる。Windows 7のマルチタッチUIがSilverlightでサポートされるようになる。iPadが発売されたら、iPhoneのちっこい画面では実現できなかった大画面でのタッチUIが実現する。Lemurみたいな製品は、ソフトウェアだけ書けば実現できる時代になるというわけだ。実際、iPadでも、Windows7+Silverlightでも、Lemurみたいなのがほしいという声はネット上で散見される。
そんなわけで、ちょっとそれっぽいものを作ってみようかなあなどと思っている。本当はAndroidのようなオープンな端末で開発したいと思うのだけど、とりあえずiPhone SDKでプロトタイプのようなものを作ってみようかと思っている。「それならbeagleboard+タッチパネルでhackしましょう」みたいな話もされたのだけど、さすがに茨の道すぎてハードウェアに資金投入する気が起きない。
まあ、Lemurがどんなものなのか、Lemurにどんな機能があるのか、全然知らないのだけど。
ほしいといっても、それは今のところおもちゃにしかなる予定が無い。真剣な打ち込みをやろうと思ったら、OSCの入力を、処理可能な命令群として保持しておきたいのであって、ライブレコーディングのようなことをやりたいわけではない。(この辺の意識は、操作を記録するというGoogle Waveへの関心とかぶってくるところがあるのだけど、その辺は特別に考えがまとまっているわけではないので今日はこの辺にしておこうと思う。)