我正在尝试构建可以从双方流式传输视频的移动应用程序(即视频通话之类的东西)。
我研究了 webrtc,但还没有为移动原生应用程序做好准备,无论如何 webrtc 所做的是允许浏览器直接捕获相机和音频,而不需要插件等。但是在原生移动应用程序中捕获相机和音频是'这是一个问题,基本上需要非常低的延迟和双传输层。在许多文章和地方,我读到了关于在 websockets 上使用 webrtc。
所以我想我可以使用 websockets 流式传输视频。是正确的还是我遗漏了什么?
我知道 webrtc 是直接客户端到客户端还有一个区别......而 websocket 将是客户端-服务器-客户端,无论如何要避免它。这意味着它的延迟条款。
你错过了什么。
webRTC 在移动设备上运行良好。在 webrtc.org 的引用代码 (appRTCDEMO) 中有适用于 iOS 和 android 的示例/白色客户端,以及多个应用程序。最后一个被宣布是出现在
从流中获取视频和音频流是 媒体 API 而不是 webRTC API(getusermedia)。
webRTC 是真正的 p2p 连接(RTCPeerConnection:传输和防火墙穿越)和等式的媒体引擎(编码、打包、加密),正是您所寻找的。p>
webSockets 只是一种传输机制。它不处理您必须在应用程序级别实现的防火墙/nat 遍历、媒体处理和打包/分 block 。
就信令而言,webRTC并没有指定/强加任何协议(protocol),看似常见的做法是建立一个信令服务器。该应用程序通常使用 Web 套接字或 XHR 或其他方式连接到该服务器以进行原始握手/调用设置。许多应用程序通过使用 socket.io 等库来抽象这一点。
关于android - Websockets 上的视频流,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24094410/
欢迎光临 OStack程序员社区-中国程序员成长平台 (https://ostack.cn/) | Powered by Discuz! X3.4 |