最近

遅くなりましたが小倉メガヘルツでの12AA(introduction to Audiovisual Art)ご来場ありがとうございました。
何も特別な事は書いていませんが当日のスライド↓です。


参考にアドオン組み合わせ例(参考になるかどうか怪しいですが…)
ofxOpenCV+ofxUgen…光の位置でシンセサイズ
ofxKinect+ofxUgen…kinectで手の位置等でシンセサイズ
ofxKinect+ofxAudioUnit…kinectで音源の再生スピードとローパスフィルターを操作

//————————————————————–
最近はまた風船をやる機会がありました。ofxBox2dで衝突判定し、その位置でofxUgenでシンセサイズ等やっております。

projection mapping on balloon from NEXT-SYSTEM on Vimeo.

projection mapping on balloon 2nd ver. from NEXT-SYSTEM on Vimeo.


05/31 14:23

11/2の記録

前回のライブは実際のビー玉の動きにあわせて音や映像を付けていたので今度は仮想的なものを動かしてそれに音や映像を動かしてみよう、ということが11/2の目標でした。

Leap Motion、openFrameworks(ofxBox2d,ofxOpenCV,ofxUGen)、赤外線カメラを使用。
指の位置でbox2dの重力、指の本数でオシレータの種類、ofxOpenCVで手の形を検出。
Beyond Interactionがなかったらやっていなかったでしょう。これから約3年半くらい。まだまだだなぁと思います。


11/14 12:02

10/24の記録


Leap Motion→openFrameworks→arduino→サーボモーター→蓄光マーブル

Leap MotionのZ軸でモーターを動かし(Firmata使用)、赤外線LEDで照らした蓄光マーブルの揺れをビデオカメラのナイトショットカメラモードで撮ってofxOpenCVのcontourFinderで位置検出→ofxUGenで音をつけた感じです。一本指だとサイン波、二本指だと低音、三本指だとホワイトノイズ…など指の数に応じてオシレータやモーターの数、y軸で音量などを割り当ててます。

参考…
Leap Motion→oF http://gndo.blogspot.jp/2013/07/leap-motion-openframeworks.html
ビー玉 蓄光マーブル25mm 40粒入
→通常の光ではあまり蓄光できていない(contourFinderで判別が難しい)ので赤外線LEDを下からあてました。
SONY HDD30GB搭載 デジタルビデオカメラ DCR-SR100

先週のライブ時の映像


この日は手の動きを見せるために赤外線カメラで手を撮ってもう一台のプロジェクターで手の動きを見せています。

きっかけは

http://atelieromoya.jp/ps.html
実際に動くビー玉の位置検出して音や映像を追加できたらもっと楽しくなるのかな、というのが出発点。まだ改良の余地ありですが…。


10/27 17:38