Android音頻開發(4):如何存儲和解析wav文件
無論是文字、圖像還是聲音,都必須以一定的格式來組織和存儲起來,這樣播放器才知道以怎樣的方式去解析這一段數據,例如,對于原始的圖像數據,我們常見的格式有 YUV、Bitmap,而對于音頻來說,最簡單常見的格式就是 wav 格式了。
wav 格式,與 bitmap 一樣,都是微軟開發的一種文件格式規范,它們都有一個相似之處,就是整個文件分為兩部分, 第一部分是“文件頭” ,記錄重要的參數信息,對于音頻而言,就包括:采樣率、通道數、位寬等等,對于圖像而言,就包括:圖像的寬高、色彩位數等等; 第二部分是“數據塊” ,即一幀一幀的二進制數據,對于音頻而言,就是原始的 PCM 數據;對于圖像而言,就是 RGB 數據。
前面幾篇文章講了如何利用 Android 平臺的 API 完成原始音頻信號的采集和播放,而本文則重點關注如何在 Android 平臺上,將采集到的 PCM 音頻數據保存到 wav 文件,同時,也介紹如何讀取和解析 wav 文件。
而文章最后,我還會給出一段 AudioDemo 程序,該程序將最近的幾篇文章涉及到的代碼綜合起來了,演示了一個完整的 Android 音頻從采集到播放的全過程。
下面言歸正傳,講講如何讀寫 wav 文件格式。
1. 文件頭
首先,我們了解一下 wav 格式的“文件頭”,可以參考這篇文章: 《WAVE PCM soundfile format》
我們可以簡單地分析一下這個 wav 格式頭,它主要分為三個部分:
第一部分,屬于最“頂層”的信息塊,通過“ChunkID”來表示這是一個 “RIFF”格式的文件,通過“Format”填入“WAVE”來標識這是一個 wav 文件。而“ChunkSize”則記錄了整個 wav 文件的字節數。
第二部分,屬于“fmt”信息塊,主要記錄了本 wav 音頻文件的詳細音頻參數信息,例如:通道數、采樣率、位寬等等(含義請參考我的第一篇文章 《Android音頻開發(1):基礎知識》 )
第三部分,屬于“data”信息塊,由“Subchunk2Size”這個字段來記錄后面存儲的二進制原始音頻數據的長度。
分析到這里,我想大家應該就明白了,其實,做一種多媒體格式的解析,也不是一件特別復雜的事,說白了,格式就是一種規范,告訴你,我的二進制數據是怎么存儲的,你應該按照什么樣的方式來解析。
具體而言,我們可以定義一個如下的 Java 類來抽象和描述 wav 文件頭:
/*
* COPYRIGHT NOTICE
* Copyright (C) 2016, Jhuster <lujun.hust@gmail.com>
* https://github.com/Jhuster/AudioDemo
*
* @license under the Apache License, Version 2.0
*
* @file WavFileHeader.java
*
* @version 1.0
* @author Jhuster
* @date 2016/03/19
*/
package com.jhuster.audiodemo.api;
public class WavFileHeader {
public String mChunkID = "RIFF";
public int mChunkSize = 0;
public String mFormat = "WAVE";
public String mSubChunk1ID = "fmt ";
public int mSubChunk1Size = 16;
public short mAudioFormat = 1;
public short mNumChannel = 1;
public int mSampleRate = 8000;
public int mByteRate = 0;
public short mBlockAlign = 0;
public short mBitsPerSample = 8;
public String mSubChunk2ID = "data";
public int mSubChunk2Size = 0;
public WavFileHeader() {
}
public WavFileHeader(int sampleRateInHz, int bitsPerSample, int channels) {
mSampleRate = sampleRateInHz;
mBitsPerSample = (short)bitsPerSample;
mNumChannel = (short)channels;
mByteRate = mSampleRate*mNumChannel*mBitsPerSample/8;
mBlockAlign = (short)(mNumChannel*mBitsPerSample/8);
}
}
具體每一個字段的含義,可以參考我上面給出的鏈接,下面我們再看看如何讀寫 wav 文件。
2. 讀寫 wav 文件
文章開頭已經說過,其實說白了,wav 文件就是一段“文件頭”+“音頻二進制數據”,因此:
(1)寫 wav 文件,其實就是先寫入一個 wav 文件頭,然后再繼續寫入音頻二進制數據即可
(2)讀 wav 文件,其實也就是先讀一個 wav 文件頭,然后再繼續讀出音頻二進制數據即可
那么,在動手寫代碼之前,有兩點你需要搞清楚:
(1) wav 文件頭中,有哪些是“變化的”,哪些是“不變的”?
比如:文件頭開頭的“RIFF”字符串就是“不變的”部分,而用來記錄音頻數據總長度的“Subchunk2Size”變量就是屬于“變化的”部分,因為,再音頻數據沒有徹底全部寫完之前,你是無法知道一共寫入了多少字節的音頻數據的,因此,這個部分,需要用一個變量記錄起來,到全部寫完之后,再使用 Java 的“RandomAccessFile”類,將文件指針跳轉到“Subchunk2Size”字段,改寫一下默認值即可。
(2) 如何把 int、short 變量與 byte[] 的轉換
因為 wav 文件都是二進制的方式讀寫,因此,“WavFileHeader”類中定義的變量都需要轉換為byte字節流,具體轉換方法如下:
private static byte[] intToByteArray(int data) {
return ByteBuffer.allocate(4).order(ByteOrder.LITTLE_ENDIAN).putInt(data).array();
}
private static byte[] shortToByteArray(short data) {
return ByteBuffer.allocate(2).order(ByteOrder.LITTLE_ENDIAN).putShort(data).array();
}
private static short byteArrayToShort(byte[] b) {
return ByteBuffer.wrap(b).order(ByteOrder.LITTLE_ENDIAN).getShort();
}
private static int byteArrayToInt(byte[] b) {
return ByteBuffer.wrap(b).order(ByteOrder.LITTLE_ENDIAN).getInt();
}
關于 wav 文件讀寫的類我已經幫大家“封裝”好了,并且結合著前面幾篇文章給出的音頻采集和播放的代碼,完成了一個 AudioDemo 程序,放在我的 Github 上了,歡迎大家下載運行測試,然后結合著代碼具體學習 Android 音頻相關技術,代碼地址:
https://github.com/Jhuster/AudioDemo
注:本系列文章的所有代碼,以后都會并入到該 demo 項目中。
3. 小結
關于如何在 Android 平臺讀寫 wav 格式的文件就介紹到這兒了,文章中有不清楚的地方歡迎留言或者來信 lujun.hust@gmail.com 交流,或者關注我的新浪微博@盧_俊 或者 微信公眾號 @Jhuster 獲取最新的文章和資訊。