我有一个RawImage,其中填充了屏幕截图的数据:
RawImage mRawImage;
直到知道我使用SWT创建图像并保存它:
PaletteData paletteData = new PaletteData( mRawImage.getRedMask(),mRawImage.getGreenMask(),mRawImage.getBlueMask()); ImageData imageData = new ImageData( mRawImage.width,mRawImage.height,mRawImage.bpp,paletteData,1,mRawImage.data); ImageLoader s = new ImageLoader(); s.data = new ImageData[] {imageData}; s.save("temp.jpg",SWT.IMAGE_JPEG);
>你能提出一种方法将这些图像序列转换为视频和
然后播放视频?
我发现NanoHTTPD可以用于流媒体,但我怎样才能将图像转换并压缩为视频?
>你相信我能用ffmpeg做到这一点吗?
我找到了一个很好的Tutorial用于使用FFMPEG和video4linux2流式传输网络摄像头.
是否可以将RawImage中的字节发送到FFMPEG以转换为实时视频流?
实际代码:
$ffmpeg -f video4linux2 -i /dev/video0 http://78.47.18.19:8090/cam1.ffm
将其替换为类似于:
$ffmpeg -f video4linux2 -i **<add here java stream>** http://78.47.18.19:8090/cam1.ffm
有什么建议?
谢谢
PS:我期待一个解决方案,它可以帮助我将图像转换为压缩视频,然后通过网络流式传输视频,以便使用HTML5或Flash Player播放
解决方法
1)在设备本身上捕获,编码和流
要么
2)从服务器捕获设备,编码和流
我不知道你的所有要求,但我认为选项2是要走的路.您将获得更好的性能和更广泛的工具,以实现您的最终目标.
捕获
几乎完全按照您描述的方式捕获JPEG图像.除了为每个索引添加一个索引,以便你有FILE1.JPG FILE2.JPG FILE3.JPG FILE4.jpg等.
现在,根据您的要求,在某个时间间隔将这些图像上传到服务器.
编码
使用mencode设置有损压缩率,如下所示:
mencoder“./*.jpg”-mf fps = 5 -o yourvideo.avi -ovc lavc -lavcopts vcodec = msmpeg4v2:vbitrate = 800
完成后,您可以使用ffmpeg创建MP4,如下所示:
ffmpeg -r 5 -b 1800 -i %01d.jpg yourvideo.mp4
流
现在为了通过网络流式传输mp4,我会设置一个网页,如:
http://myserver/androidStream
这会加载动态写入的M3U播放列表,以便始终指向要流式传输的最新视频.根据您使用的播放器,您可以将M3U播放列表指向将加载下一个视频的“下一个”M3U播放列表.您可能还希望根据您的要求查看替代播放列表格式,如ASX或PLS.
见:http://en.wikipedia.org/wiki/Advanced_Stream_Redirector和
http://en.wikipedia.org/wiki/PLS_(file_format)作为其他非M3U播放列表格式的示例.
使用上面的一般步骤,您将拥有一个系统,其中设备以每分钟n个图像的速率捕获图像,然后将这些图像上载到服务器进行编码.一旦这些图像被编码,您可以通过引用文件直接流式传输电影,或者您可以设置M3U类型的播放列表,这将允许播放器在可用时从“当前”视频移动到“下一个”视频.