音楽ビジュアライザーの作成
完成されたプロジェクトをフォークして詳細をご確認ください。
このチュートリアルでは、PlayCanvasを使用して、WebGLの音楽ビジュアライザアプリケーションを作成する方法を説明します。オーディオストリームの余分な周波数データを取得し、PlayCanvasキャンバスにそのデータをレンダリングします。
音楽ビジュアライザは2つのスクリプトで構成されています。アナライザは、オーディオを再生し、アナライザノードを介してデータを抽出します。これは最新のブラウザに組み込まれているWeb Audio APIの一部です。ビジュアライザは、アナライザからデータを取得してグラフとして画面上にそれをレンダリングします。
アナライザ
var Analyser = pc.createScript('analyser');
Analyser.attributes.add('fftsize', {
type: 'number'
});
// initialize code called once per entity
Analyser.prototype.initialize = function() {
var context = this.app.systems.sound.context;
// create analyser node and set up
this.analyser = context.createAnalyser();
this.analyser.smoothingTimeConstant = 0.6;
this.analyser.fftSize = this.fftsize;
this.freqData = new Float32Array(this.fftsize/2);
this.timeData = new Float32Array(this.fftsize/2);
var slot = this.entity.sound.slot("track");
slot.setExternalNodes(this.analyser);
};
// update code called every frame
Analyser.prototype.update = function(dt) {
this.analyser.getFloatFrequencyData(this.freqData);
this.analyser.getFloatTimeDomainData(this.timeData);
};
こちらのコードをご確認ください。
まず、context
を取得します。これはAudioContext
のアプリケーションインスタンスです。これは、最新ブラウザの標準であるWeb Audio APIに含まれるAnalyserNode
を新規で作成するために使用します。AnalyserNode
により、フレーム毎にオーディオの生のデータに値の配列としてアクセスすることが可能になります。いくつかのsmoothingTimeConstant
プロパティにより、データサンプリングが時間と共に平滑化されるかどうかを決定します。0
の場合は平滑化されません。1
は非常に滑らかになります。fftSize
は、アナライザノードが生成するサンプル数を定義します。これは2の累乗である必要があります。高いく設定するほど綿密になり、CPUに負荷がかかります。
Float32Array
のフロート、または
Uint8Array
の整数としてAnalyserNode
からデータにアクセスすることができます。このデモではフロートを使用しているので、2つのFloat32Arrays
を割り当てます。それぞれがfftSize
の半分の大きさである必要があります。
設定の最終ステップでは、PlayCanvasのSoundSlot APIのsetExternalNodes
を使用して、サウンドコンポーネント内のノードチェーンにこの新しいノードを挿入します。
次に、更新ループでAnalyserNode
メソッドの getByteFrequencyData
と getFloat
TimeDomainData
を使用してデータで配列を埋めます。ビジュアライザスクリプトでこのデータを使用します。
ビジュアライザ
var Visualizer = pc.createScript('visualizer');
Visualizer.attributes.add('analyser', {
type: 'entity'
});
Visualizer.attributes.add('freqcolor', {
type: 'rgba'
});
Visualizer.attributes.add('timecolor', {
type: 'rgba'
});
Visualizer.attributes.add('heightScale', {
type: 'number',
default: 1
});
// initialize code called once per entity
Visualizer.prototype.initialize = function() {
this.lines = [];
var count = this.analyser.script.analyser.fftsize;
for (var i = 0; i < count; i++) {
this.lines.push(new pc.Vec3());
}
this.yScale = 1;
this.xScale = 0.10 * 2048 / count;
this.minDb = this.analyser.script.analyser.analyser.minDecibels;
this.maxDb = this.analyser.script.analyser.analyser.maxDecibels;
this.freqScale = 1 / (this.maxDb - this.minDb);
this.freqOffset = this.minDb;
};
// update code called every frame
Visualizer.prototype.update = function(dt) {
this.freqScale = 1 / (this.maxDb - this.minDb);
this.freqOffset = this.minDb;
this.renderData(this.analyser.script.analyser.freqData, this.freqcolor, this.freqScale, this.freqOffset);
this.renderData(this.analyser.script.analyser.timeData, this.timecolor, 0.5, 0);
};
Visualizer.prototype.renderData = function (data, color, scale, offset) {
var line = 0;
for (var i = 0; i < data.length; i++) {
if (line < this.lines.length) {
var h1 = scale * (data[i] - offset);
var h2 = scale * (data[i+1] - offset);
this.lines[line].set(i * this.xScale, this.heightScale*h1, 0);
this.lines[line+1].set((i+1) * this.xScale, this.heightScale*h2, 0);
line += 2;
}
}
this.app.renderLines(this.lines, color);
};
ビジュアライザスクリプトはアナライザからすべてのデータを取得して、 this.app.renderLines
APIを使用して折れ線グラフとして描画します。
設定では、線に使用するベクターを割り当てています。各データの点に対して2つ必要です(線の開始と終了)。その後、すべての線が画面に表示されることを確認するためにいくつかのスケールファクタを設定します。AnalyserNode
にはデータに含むことができるデシベルの最小値と最大値が含まれています。これは必ず正確ではないようですが(この範囲外の値を取得しました)、データを正規化するための良い基礎となります。
renderData
機能は、すべてのデータをループして、事前に割り当てられたベクターを現在の点を開始点、次の点を終了点になるよう設定します。
更新ループでは、Frequency Dataおよび Time Domain Dataの両方のグラフを描画します。
その他のアイディア?
音楽の視覚化の方法を一部紹介させていただきました。音楽に合わせて3Dバーのスケーリングや色や明るさの調整を行うこともできます。SoundCloudにビジュアライザを繋げてユーザに選択させる方法もあります。可能性はたくさんあります。