作者chris1000 (矜持)
看板MacDev
標題Re: [問題] iOS播放streaming的audio
時間Wed May 9 17:05:38 2012
※ 引述《johnlinvc (阿翔)》之銘言:
: ※ 引述《chris1000 (矜持)》之銘言:
: : 想法是
: : 1. 將收到的g.726 raw data解碼成raw PCM後
: : 2. 再使用audio queue servie去將PCM data enqueue並播放
: : 但是後半段播放出來的聲音一直是播一小段頓一下的狀況
: : ConnectionRequest.m
: : -(void) connection:(NSURLConnection *)connection
: : didRecieveData:(NSData *)data
: : {
: : int outDataSize = 0;
: : void *outDatabuf = malloc(data.length*8);
: : //將G.726編碼的data 解碼成raw PCM至outDatabuf
: : [G726Decoder decodeFrame:data.bytes
: : withDatasize:data.length
: : withOutData:outDatabuf
: : withOutDataSize:&outDataSize];
: : dispatch_queue_t playQueue = dispatch_queue_create("play", NULL);
: : dispatch_async(playQueue, ^(void){
: : playBuffer(outDatabuf, outDataSize);
: : free(outDatabuf);
: : });
: : dispatch_release(playQueue);
: : }
: : player.c
: : void AQCallback(void *in, AudioQueueRef inQ, AudioQueueBufferRef outQB)
: : {
: : //將pcm data目前播到的位置開始複製資料到outQB->mAudioData
: : //使用AudioQueueEnqueueBuffer(inQ, outQB, 0, NULL)來Enqueue
: : }
: : int playBuffer(void *pcm, int len)
: : {
: : //使用AudioQueueService播放pcm data
: : //1. 將AudioStreamBasicDescription初始化
: : //2. 使用AudioQueueNewOutput建立一個outputQueue,
: : // callback為AQCallback()
: : //3. 使用AudioQueueAllocateBuffer來建立3個buffer
: : //4. call 1次AQCallback()來Enqueue
: : //5. 使用AudioQueueStart開始播放
: : //6. 用一個while loop卡住直到pcm被播放完畢
: : }
: : 後面player的部分我有試過直接播一個已經存檔的PCM raw data
: : 可以很順利的播完
: : 但是拿來播stream就變成播一下頓一下播一下頓一下
: : 目前didRecieveData收到的data size大約是1000~2000不等
: : 解完碼後的PCM大小是四倍,大約是4000~8000不等
: : 請問
: : 1. 是否需要將PCM raw data先丟到一個buffer,
: : 等待累積到一定程度以後再丟去player播放?
: 是
: : 2. 如果需要一個buffer來處理read/write,那麼這個buffer大小應該要多大比較好?
: : 這種buffer management有沒有iOS版本的範例可以參考?
: https://github.com/michaeltyson/TPCircularBuffer
: : 3. didRecieveData是否能設定每次收下來都固定大小而不是浮動的?
: 不行
: : 4. 是否改用NSThread會比dispatch queue好?
: 不會
: : 5. 這種情況改用OpenAL會不會比較快....但是OpenAL好像都拿來作同時播放多個音效?
: 不會
: : 感謝各位看到最後<(_ _)>
: 你的問題應該是在產生太多AudioQueue了,變成下面這種狀況
: receive data-> decode -> create AudioQueue -> play
: ↑ ↓
: L_______________________________________↲
: 應該是要這樣才合理 (buffer big enough)
: create AudioQueue -> receive data -> decode -> add to buffer --> play
: ^ |
: L________________________↲
謝謝您的回覆,在看過幾個範例後出現另外一個問題
用objective-c寫的AudioQueue可能會長成下面這樣:
AudioQueueNewOutput(&dataformat, BufferCallback, self, nil, nil, 0, &queue);
static void BufferCallback(void *inUserData,
AudioQueueRef inAQ,
AudioQueueBufferRef buffer){
MyPlayer *player = (MyPlayer *)inUserData;
[player dosomething];
}
在AudioQueueNewOutput傳入的inUserData是self
並且在BufferCallback的地方將inUserData再轉型成class
可是如果有開ARC的話,AudioQueueNewOuput中
class轉型成void*需要加前置__bridge
(__birdge void*)self
BufferCallback中,void*轉型成class也需要加前置__bridge
(__bridge MyPlayer *)inUserData
我這樣加是編譯得過
但是運行到BufferCallback的轉型就...出現EXC_BAD_ACCESS
我是直接試這篇文章的的playAudio:
http://www.cnblogs.com/xuanyuanchen/archive/2012/04/17/2450169.html
請問是否因為哪邊Memory management出問題? 還是ARC需要作其他的處理呢?
謝謝<(_ _)>
--
※ 發信站: 批踢踢實業坊(ptt.cc)
◆ From: 61.216.168.86
→ reon:如果程式本身不是用ARC寫 我是建議compiler 加參數去build 05/10 00:17
→ reon:不要用refactor去轉成ARC..將單檔用-fno-objc-arc去build 05/10 00:19
→ chris1000:感謝您的建議,請問加了-fno-objc-arc後編譯仍然有錯誤 05/10 09:23
→ chris1000:可是可以執行,這樣是正常的嗎? 05/10 09:23
→ chris1000:另外這個程式即使把arc關掉,執行還是有問題 05/10 09:24
→ chris1000:看來真的是程式本身的memory management有問題... 05/10 09:24
→ reon:也有可能是framewok沒加或是Other Linker Flag要加-lstdc++ 05/10 19:31
推 reon:沒po error code有些難猜 05/10 19:33
→ chris1000:同樣的code新增一個檔案重寫, xcode就沒有錯誤提示了orz 05/11 00:33