Android之 AudioTrack学习

举报
chenyu 发表于 2021/07/26 23:46:55 2021/07/26
【摘要】 AudioTrack主要是用来播放声音的,AudioTrack贯穿了JAVA层,JNI层和Native层。 AudioTrack JAVA层: framework\base\media\java\android\media\AudioTrack.java 以AudioTrack的使用方法举例:pp] // 得到一个满足最小要求的缓冲区的大小 int bu...

AudioTrack主要是用来播放声音的,AudioTrack贯穿了JAVA层,JNI层和Native层。

AudioTrack JAVA层:

framework\base\media\java\android\media\AudioTrack.java

以AudioTrack的使用方法举例:pp]


  
  1. // 得到一个满足最小要求的缓冲区的大小
  2. int bufsize = AudioTrack.getMinBufferSize(8000,//采样率 = 每秒8K个点
  3.   AudioFormat.CHANNEL_CONFIGURATION_STEREO,//双声道
  4. AudioFormat.ENCODING_PCM_16BIT);//采样精度 = 一个采样点16比特 = 2个字节
  5. //创建AudioTrack
  6. AudioTrack trackplayer = new AudioTrack(AudioManager.STREAM_MUSIC, 8000,
  7.   AudioFormat.CHANNEL_CONFIGURATION_ STEREO,
  8.   AudioFormat.ENCODING_PCM_16BIT,
  9.   bufsize,
  10. AudioTrack.MODE_STREAM);//
  11. trackplayer.play() ;//开始
  12. trackplayer.write(bytes_pkg, 0, bytes_pkg.length) ;//往track中写数据
  13. //...
  14. trackplayer.stop();//停止播放
  15. trackplayer.release();//释放底层资源
AudioTrack Native层:


  
  1. // 得到一个满足最小要求的缓冲区的大小
  2. int bufsize = AudioTrack.getMinBufferSize(8000,//采样率 = 每秒8K个点
  3.   AudioFormat.CHANNEL_CONFIGURATION_STEREO,//双声道
  4. AudioFormat.ENCODING_PCM_16BIT);//采样精度 = 一个采样点16比特 = 2个字节
getMinBufferSize实际调用了JNI通过Native代码来实现。

framework/base/core/jni/android_media_track.cpp


  
  1. static jint android_media_AudioTrack_get_min_buff_size(JNIEnv *env, jobject thiz,
  2. jint sampleRateInHertz, jint nbChannels, jint audioFormat)
  3. {//注意我们传入的参数是:
  4. //sampleRateInHertz = 8000
  5. //nbChannels = 2;
  6. //audioFormat = AudioFormat.ENCODING_PCM_16BIT
  7. int afSamplingRate;
  8. int afFrameCount;
  9. uint32_t afLatency;
  10. if (AudioSystem::getOutputSamplingRate(&afSamplingRate) != NO_ERROR) {
  11. return -1;
  12. }
  13. if (AudioSystem::getOutputFrameCount(&afFrameCount) != NO_ERROR) {
  14. return -1;
  15. }
  16. if (AudioSystem::getOutputLatency(&afLatency) != NO_ERROR) {
  17. return -1;
  18. }
  19. //音频中最常见的是frame,解释:一个frame就是1个采样点的字节数*声道。
  20. // Ensure that buffer depth covers at least audio hardware latency
  21. uint32_t minBufCount = afLatency / ((1000 * afFrameCount)/afSamplingRate);
  22. if (minBufCount < 2) minBufCount = 2;
  23. uint32_t minFrameCount =
  24. (afFrameCount*sampleRateInHertz*minBufCount)/afSamplingRate;
  25. //下面根据最小的framecount计算最小的buffersize
  26. int minBuffSize = minFrameCount
  27. * (audioFormat == javaAudioTrackFields.PCM16 ? 2 : 1)
  28. * nbChannels;
  29. return minBuffSize;
  30. }

MODE_STREAMMODE_STATIC

STREAM的意思是由用户在应用程序通过write方式把数据一次一次得写到audiotrack中。这个和我们在socket中发送数据一样,应用层从某个地方获取数据,例如通过编解码得到PCM数据,然后write到audiotrack。这种方式的坏处就是总是在JAVA层和Native层交互,效率损失较大。

In Streaming mode, the application writes a continuous stream of data to the AudioTrack, using one of thewrite() methods. These are blocking and return when the data has been transferred from the Java layer to the native layer and queued for playback.

MODE_STREAM模式终使用Write方法,该方法是阻塞的,当数据从Java层到Native层执行播放完毕后才返回。

而STATIC的意思是一开始创建的时候,就把音频数据放到一个固定的buffer,然后直接传给audiotrack,后续就不用一次次得write了。AudioTrack会自己播放这个buffer中的数据。这种方法对于铃声等内存占用较小,延时要求较高的声音来说很适用


AudioTrack的构造函数
public 
AudioTrack (int streamType, int sampleRateInHz, int channelConfig, int audioFormat, int bufferSizeInBytes, int mode)
AudioTrack
的构造函数
中有一个变量用来指定buffer的大小bufferSizeInBytes。 

AudioTrack在Native层会对这个变量的值进行有效性判断。首先,它至少要等于或者大于getMinBufferSize返回的值,然后它必须是frame大小的整数倍


举例说明,MODE_STREAM模式下,在JAVA层构造AudioTrack时,bufferSizeInBytes的大小设定为9600,在Native层调用Write方法拷贝数据至Hardware进行回放,每次拷贝的大小为320.则需要拷贝到30次,声卡才发出声音。即需要将数据填满缓冲区才进行播放。(320*30=9600)




  view plai  copy

文章来源: chenyu.blog.csdn.net,作者:chen.yu,版权归原作者所有,如需转载,请联系作者。

原文链接:chenyu.blog.csdn.net/article/details/52067495

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。