正如在
previous question中讨论的那样,我已经构建了一个原型(使用MVC Web API,NAudio和NAudio.Lame),在将其转换为mp3之后流式传输实时低质量音频.源流是PCM:8K,16位,单声道,我正在使用html5的音频标签.
在Chrome和IE11上,在从浏览器听到音频之前有15-34秒的延迟(高延迟),据我所知,这对我们的最终用户来说是不可接受的.理想情况下,延迟不会超过5秒.即使在我的音频标签中使用preload =“none”属性,也会发生延迟.
仔细观察这个问题,似乎两个浏览器在收到~32K音频数据之前不会开始播放音频.考虑到这一点,我可以通过更改Lame的MP3’比特率’设置来影响延迟.但是,如果我减少延迟(通过向浏览器发送相同长度的音频的更多数据),我将在稍后介绍音频丢失.
例子:
>如果我使用Lame的V0编码,延迟将近34秒,这需要几乎0.5 MB的源音频.
>如果我使用Lame的ABR_32编码,我可以将延迟减少到10-15秒,但我会在整个听力会话中遇到暂停和辍学.
问题:
>任何想法如何最小化启动延迟(延迟)?
>我是否应该继续调查各种Lame’预设’以期选择“正确”的预设?
>可能是MP3不是直播的最佳格式吗?
>切换到Ogg / Vorbis(或Ogg / OPUS)会有帮助吗?
>我们是否需要放弃HTML5的音频标签并使用Flash或Java小程序?
谢谢.
解决方法
您无法减少延迟,因为您无法控制浏览器代码和缓冲大小. HTML5规范没有强制执行任何约束,因此我没有看到任何改进的原因.
但是,您可以使用webaudio API实现一个解决方案(非常简单),您可以自己处理流式传输.
如果您可以将MP3的块分割为固定大小(以便事先知道每个MP3块大小,或者至少在接收时知道),那么您可以使用20行代码进行实时流式传输.块大小将是您的延迟.
关键是使用AudioContext :: decodeAudioData.
// Fix up prefixing window.AudioContext = window.AudioContext || window.webkitAudioContext; var context = new AudioContext(); var offset = 0; var byteOffset = 0; var minDecodeSize = 16384; // This is your chunk size var request = new XMLHttpRequest(); request.onprogress = function(evt) { if (request.response) { var size = request.response.length - byteOffset; if (size < minDecodeSize) return; // In Chrome,XHR stream mode gives text,not ArrayBuffer. // If in Firefox,you can get an ArrayBuffer as is var buf; if (request.response instanceof ArrayBuffer) buf = request.response; else { ab = new ArrayBuffer(size); buf = new Uint8Array(ab); for (var i = 0; i < size; i++) buf[i] = request.response.charCodeAt(i + byteOffset) & 0xff; } byteOffset = request.response.length; context.decodeAudioData(ab,function(buffer) { playSound(buffer); },onError); } }; request.open('GET',url,true); request.responseType = expectedType; // 'stream' in chrome,'moz-chunked-arraybuffer' in firefox,'ms-stream' in IE request.overrideMimeType('text/plain; charset=x-user-defined'); request.send(null); function playSound(buffer) { var source = context.createBufferSource(); // creates a sound source source.buffer = buffer; // tell the source which sound to play source.connect(context.destination); // connect the source to the context's destination (the speakers) source.start(offset); // play the source now // note: on older systems,may have to use deprecated noteOn(time); offset += buffer.duration; }