我一直在尝试在Java中实现我自己的异步MIDI定序器,该定序器通过处理MidiEvent的列表将ShortMessage发送到VST。我需要性能达到最佳,这样在听音频输出时就不会有音频延迟。
问题是,由于滴答声的增量不准确(有时增量过快或过慢,会打乱MidiEvent的所有计时),因此肯定存在可听见的滞后。
下面是测序仪的代码:
package com.dranithix.spectrum.vst;
import java.util.HashMap;
import java.util.Iterator;
import java.util.List;
import java.util.Map;
import java.util.concurrent.ConcurrentHashMap;
import javax.sound.midi.MidiEvent;
import javax.sound.midi.ShortMessage;
import com.synthbot.audioplugin.vst.vst2.JVstHost2;
/**
*
* @author Kenta Iwasaki
*
*/
public class VstSequencer implements Runnable {
public static long BPM = 128L, PPQ = 4L;
private long oneTick = (60000L / (BPM * PPQ)) * 1000000;
private Map<MidiEvent, Long> currentEvents = new ConcurrentHashMap<MidiEvent, Long>();
private long startTime = System.nanoTime(), elapsedTicks = 0;
private JVstHost2 vst;
public VstSequencer(JVstHost2 vst) {
this.vst = vst;
}
@Override
public void run() {
while (true) {
if (System.nanoTime() - startTime >= oneTick) {
elapsedTicks++;
startTime = System.nanoTime();
}
Iterator<MidiEvent> it = currentEvents.keySet().iterator();
while (it.hasNext()) {
MidiEvent currentEvent = it.next();
long eventTime = currentEvent.getTick() - elapsedTicks;
if (eventTime <= 0) {
vst.queueMidiMessage((ShortMessage) currentEvent
.getMessage());
it.remove();
}
}
}
}
public void queueEvents(List<MidiEvent> events) {
Map<MidiEvent, Long> add = new HashMap<MidiEvent, Long>();
for (MidiEvent event : events) {
event.setTick(event.getTick() + elapsedTicks);
add.put(event, event.getTick());
}
currentEvents.putAll(add);
}
public void queueEvent(MidiEvent event) {
event.setTick(event.getTick() + elapsedTicks);
currentEvents.put(event, event.getTick());
}
}
我们怎样才能提高这个系统的性能?我们能确保这类系统不会有声音延迟吗(例如:固定的时间步长)?
提前谢谢。
编辑:为了隔离声音滞后的原因,我可以确认VST本身或向VST发送MIDI消息的框架没有滞后。这与目前在测序仪中使用的基于刻度的计时系统有关。
解决:我通过在同一线程中包含VST事件处理代码(它们最初在不同的线程上),使VST事件与事件序列器本身并行处理,从而解决了这个问题。对于任何读到这篇文章并一直在四处寻找将MIDI事件排序到JVstHost2或任何类似的Java VST主机库的人,请随意将部分固定代码用于您自己的项目,因为VST是一种商业格式,很少接触Java,所以我很难在网上找到合适的VST排序。
已解决代码:
package com.dranithix.spectrum.vst;
import java.util.ArrayList;
import java.util.Iterator;
import java.util.List;
import javax.sound.midi.MidiEvent;
import javax.sound.midi.ShortMessage;
import javax.sound.sampled.AudioFormat;
import javax.sound.sampled.AudioSystem;
import javax.sound.sampled.DataLine;
import javax.sound.sampled.LineUnavailableException;
import javax.sound.sampled.SourceDataLine;
import com.synthbot.audioplugin.vst.vst2.JVstHost2;
/**
*
* @author Kenta Iwasaki
*
*/
public class VstSequencer implements Runnable {
private static final float ShortMaxValueAsFloat = (float) Short.MAX_VALUE;
public static float BPM = 120f, PPQ = 2f;
private static float oneTick = 60000f / (BPM * PPQ);
private List<MidiEvent> currentEvents = new ArrayList<MidiEvent>();
private long startTime = System.currentTimeMillis(), elapsedTicks = 0;
private JVstHost2 vst;
private final float[][] fInputs;
private final float[][] fOutputs;
private final byte[] bOutput;
private int blockSize;
private int numOutputs;
private int numAudioOutputs;
private AudioFormat audioFormat;
private SourceDataLine sourceDataLine;
public VstSequencer(JVstHost2 vst) {
this.vst = vst;
numOutputs = vst.numOutputs();
numAudioOutputs = Math.min(2, numOutputs);
blockSize = vst.getBlockSize();
fInputs = new float[vst.numInputs()][blockSize];
fOutputs = new float[numOutputs][blockSize];
bOutput = new byte[numAudioOutputs * blockSize * 2];
audioFormat = new AudioFormat((int) vst.getSampleRate(), 16,
numAudioOutputs, true, false);
DataLine.Info dataLineInfo = new DataLine.Info(SourceDataLine.class,
audioFormat);
sourceDataLine = null;
try {
sourceDataLine = (SourceDataLine) AudioSystem.getLine(dataLineInfo);
sourceDataLine.open(audioFormat, bOutput.length);
sourceDataLine.start();
} catch (LineUnavailableException lue) {
lue.printStackTrace(System.err);
System.exit(1);
}
}
@Override
protected void finalize() throws Throwable {
try {
sourceDataLine.drain();
sourceDataLine.close();
} finally {
super.finalize();
}
}
private byte[] floatsToBytes(float[][] fData, byte[] bData) {
int index = 0;
for (int i = 0; i < blockSize; i++) {
for (int j = 0; j < numAudioOutputs; j++) {
short sval = (short) (fData[j][i] * ShortMaxValueAsFloat);
bData[index++] = (byte) (sval & 0x00FF);
bData[index++] = (byte) ((sval & 0xFF00) >> 8);
}
}
return bData;
}
@Override
public void run() {
while (true) {
if (Thread.interrupted()) {
break;
}
if (System.currentTimeMillis() - startTime >= oneTick) {
elapsedTicks++;
startTime = System.currentTimeMillis();
}
vst.processReplacing(fInputs, fOutputs, blockSize);
sourceDataLine.write(floatsToBytes(fOutputs, bOutput), 0,
bOutput.length);
Iterator<MidiEvent> it = currentEvents.iterator();
while (it.hasNext()) {
MidiEvent currentEvent = it.next();
long eventTime = currentEvent.getTick() - elapsedTicks;
if (eventTime <= 0) {
vst.queueMidiMessage((ShortMessage) currentEvent
.getMessage());
it.remove();
}
}
}
}
public void queueEvents(List<MidiEvent> events) {
for (MidiEvent event : events) {
event.setTick(event.getTick() + elapsedTicks);
}
currentEvents.addAll(events);
}
public void queueEvent(MidiEvent event) {
event.setTick(event.getTick() + elapsedTicks);
currentEvents.add(event);
}
}
我怀疑问题是:
event.setTick(event.getTick() + elapsedTicks);
add.put(event, event.getTick());
事件流可能已经具有时间戳,因此不需要向它们添加elapsedTicks
。这只是意味着随着时间的推移,它们变得越来越晚。
有几种非常明显的方法可以提高上面代码的性能。它们是否是你问题的原因很难说:
1:不要忙着等待:在有事情要做之前,上面的代码没有阻塞的方法(ConcurrentHashMap
不提供阻塞行为)。相反,它会循环不断燃烧的CPU周期,即使在没有什么可做的时候也是如此。这种行为通常会受到操作系统调度器的惩罚。您的线程在不运行时无法安排事件,其当前设计鼓励这样做。
2:对currentEvents
使用带有MIDIEvent的HashMap是一个糟糕的选择,而且效率低下。您需要迭代整个容器,以查找需要传递到VST的事件。此外,由于没有订购保证,您可能会交付当前订单中的事件。考虑使用SortedMap
,其中关键是交付时间。事件现在是有序的,最快的在结构的开头。举办活动很便宜。
另一个潜在的问题在于这条线——它不会导致不规则的时间,但我的意思可能是oneTick错了:
private long oneTick = (60000L / (BPM * PPQ)) * 1000000;
除以BPM * PPQ
会导致截断。先做乘法运算。