视频/音频帧作为OpenCore的输入

我无法使用MediaPlayer / VideoView使RTSP在Android中运行。所以我创建了一个与RTSP服务器交互的客户端,我已经成功地做到了这一点。 我能够从Android中的RTSP服务器(MySpace)获取视频/音频帧。现在我想玩框架。我搜索过OpenCore API来播放帧,但没有得到任何API。 我的调查: 有一个类PlayerDriver.c 它创建了两个接收器,一个音频和其他视频。
handleSetVideoSurface
handleSetAudioSink
创建了两个类型为
PVPlayerDataSinkPVMFNode
的对象。我怀疑这个类有一种方法可以将流作为输入,但我没有得到这个类的定义。 你能否建议我有什么课我需要研究一下?     
已邀请:
PVPlayerDataSinkPVMFNode在external / opencore / engines / player / include / pv_datasinkpvmfnode.h中定义。但我认为这不是你所需要的。 PlayerDriver类正在使用此类来配置视频输出,即要显示的表面。输入仍然是流URL或文件。     

要回复问题请先登录注册