FFT解码器,用于安卓中的音频信号



我正在尝试为由 https://github.com/rraval/pied-piper 他们已经在 python 中创建了一个解码器,在 python 中使用 numpy 包非常容易,但在 Java 中我遇到了困难。 python中使用的步骤包括:

def dominant(frame_rate,chunk):
w=numpy.fft.fft(chunk)
numpy.fft.fftfreq(len(chunk))
peak_coeff = numpy.argmax(numpy.abs(w))
peak_freq = freqs[peak_coeff]
return abs(peak_freq * frame_rate) # in Hz

上面的代码以块 [ ] 为单位返回音频数据的频率。

我正在尝试制作一个实现相同逻辑的 Android 代码。 到目前为止,我的工作如下:

public class MicReadThread3 extends Thread {
static final int HANDSHAKE_START_HZ = 8192;
static final int HANDSHAKE_END_HZ = 8192 + 512;
static final int START_HZ = 1024;
static final int STEP_HZ = 256;
static final int BITS = 4;
static final int FEC_BYTES = 4;
static final int sample_size=8;
boolean callBack_done=false;
private static final int AUDIO_SOURCE = MediaRecorder.AudioSource.MIC;
private static final int SAMPLE_RATE = 44100; // Hz
private static final int ENCODING = AudioFormat.ENCODING_PCM_16BIT;
private static final int CHANNEL_MASK = AudioFormat.CHANNEL_IN_MONO;
private static final int BUFFER_SIZE = AudioRecord.getMinBufferSize(SAMPLE_RATE, CHANNEL_MASK, ENCODING);
private static final int blockSize=BUFFER_SIZE;

public MicReadThread3(){
setPriority(Thread.MAX_PRIORITY);
}
@Override
public void run(){
System.out.println("Buffer Size : "+BUFFER_SIZE);
AudioRecord audioRecord=null;
double dom;
byte[] buffer=new byte[blockSize];
short[] bufferShort =new short[blockSize];
audioRecord = new AudioRecord(AUDIO_SOURCE, SAMPLE_RATE, CHANNEL_MASK, ENCODING, BUFFER_SIZE);
audioRecord.startRecording();
while(true){
audioRecord.read(buffer, 0, blockSize);
dom = dominant(SAMPLE_RATE, buffer);
System.out.println("Dominant="+dom);
if(match(dom,HANDSHAKE_START_HZ)){
System.out.println("Found Handshake start freq :"+dom);
}
if(match(dom,HANDSHAKE_END_HZ)){
System.out.println("Found Handshake end freq :"+dom);
}
}
}
public boolean match(double freq1, double freq2) {
return Math.abs(freq1 - freq2) < 20;
}
public double dominant(int frame_rate, byte[] chunk){
int len=chunk.length;
double[] waveTransformReal=new double[len];
double[] waveTransformImg=new double[len];
for(int i=0;i<len;i++){
waveTransformReal[i]=chunk[i];
}
Fft.transform(waveTransformReal,waveTransformImg);
//Calculating abs
double[] abs=new double[len];
for(int i=0;i<len;i++) {
abs[i] = (Math.sqrt(waveTransformReal[i] * waveTransformReal[i] + waveTransformImg[i] * waveTransformImg[i]));
}
int maxIndex=0;
for(int i=0;i<len;i++) {
if (abs[i] > abs[maxIndex])
maxIndex = i;
}
//frame_rate is sampling freq and len is no. of datapoints
double dominantFrequency=(maxIndex*frame_rate)/len;
return dominantFrequency;
}

}

我用来获取 Fft 的类可以在下面给出的链接中找到: https://www.nayuki.io/res/free-small-fft-in-multiple-languages/Fft.java

如果它等于握手频率,我必须打印主频率。

但是当我打印值时,我得到的只是垃圾频率值,如 1000,42050,2000,...

在python中,代码很好,但在android中,它变得越来越难......请帮忙,我的项目提交必须在下周完成。这只是我项目的一部分,由于这个问题,我们落后了!提前提安克。

我对原始答案太快了

double dominantFrequency=(maxIndex*frame_rate)/len;

参考您的评论,我再次查看了 github 代码与您发布的代码之间的差异:github 请求 8 位音频,这里ENCODING_PCM_16BIT。

因此,waveTransformReal[] 中的每个值都只是部分值,因为它取自 chunk[] 字节数据,其中 2 个字节构成完整值。作为快速测试,请尝试使用ENCODING_PCM_8BIT,看看是否得到正确的结果。

最新更新