实时传输协议(RTP)定义了用于通过IP网络传送音频和视频的标准化分组格式。
使用 FFMPEG 从 RTP 流 (PCAP) 解码 G.729
我有包含 RTP 数据的 pcap 文件,而 RTP 数据又是 G.729 编解码器的音频。有没有办法通过将其推入 FFMPEG 来解码该流?这可能意味着我必须提取 RTP pa...
我们正在尝试在Android平台上播放视频流,没有 成功。 使用VideoView,我们可以播放youtube移动视频(例如 这个网址工作得很好: rtsp://v3.cache7.c.yout...
我的 React Native (Expo) 应用程序正在将原始 RTP 字节流接收到 UDP 套接字中。如何将数据显示为视频? 这是我之前问题的后续问题,现在有了更准确的短语......
我使用 pyvoip 2.0.0-dev(因为它支持 OPTIONS 请求和摘要身份验证)。我有这个音频文件,当我的脚本在电话上使用 write_audio 方法时,我只听到噪音。是否与...有关
如何将网页从服务器端直播到 YouTube 和 Facebook,并为流提供 WebRTC 输出?
我们需要从服务器端记录和流式传输网页,有人可以推荐我一个解决方案吗? 我们想要直播 YouTube 和 Facebook 页面并播放...
我有一个 RTP 流套接字,从三星网络摄像机接收 JPEG 流。 我不太了解 JPEG 格式的工作原理,但我确实知道传入的 JFIF 或 JPEG 流给了我...
我有一个文件,其中包含封装在 UDP/IP 数据包中的一系列 RTP 数据包。我想将此文件转换为 WAV 或 AU 文件,并被告知 ffmpeg 可以完成这项工作。然而该工具确实...
我使用 sip.js 进行 webrtc 测试。我想从 rtcp 获得一些信息。 我尝试使用 getStatus() API,但我想要另一边的 rtcp 数据包。因为 getStatus() 无法计算...
使用 AsterNET.ARI 我可以使用 ExternalMedia 从 asterisk 公开音频流。 设想: 开始通话并调用 Stasis App 创建将流发送到 ...
我正在尝试从一台 PC 录制麦克风并将其通过 RTP 发送到本地网络上的笔记本电脑,并从另一台 PC 录制视频并将其发送到同一台笔记本电脑,同样通过 RTP。这部分还算
我需要构建我的 udp 视频流包的接收方以在浏览器中显示来自我的 gstreamer udpsink 的视频,唯一缺少的是从我的 rtp pac 中提取 h264 视频...
我对流媒体一无所知,所以不要苛刻地评判我。 该程序从 TCP 流接收字节,处理它们并添加到字节数组。该数组包含原始 H264 帧。 如果他们是...
在 Gstreamer 上使用 PTP 协议通过无线网络传输音频
我希望你一切都好。 我有 8 台客户端 PC 和 1 台主 PC 使用 RTP 数据包通过网络传输音频。最初,我还需要同步这些 PC 以避免漂移。我...
从 Android 应用程序使用 Gstreamer Rust 插件
我想在 Android 应用程序中使用 gst-plugins-rs(特别是 rtpav1depay)。 我正在使用 gstreamer 网站 (1.22) 提供的标准二进制文件和 cerbero 编译版本 (1.23 with RUST
我正在尝试对音频 RTP 传输进行一些测试,以了解它们的技术限制。这个想法是为了防止这种传输中的 DAF 效应,我假设延迟低于 ...
我使用以下 GStreamer 命令在一台设备(NXP imx6q)上捕获音频并通过 RTP 发送,另一台设备(NXP imx6q)接收音频流并播放它。 # 捕获 gst-launch-1.0
是否可以在运行完第一个位置.wav 文件后更改管道位置文件路径? 我尝试了以下但没有奏效: 元素来源 = ElementFactory.make(&q...
通过 rtp 解码 H.264 视频的问题(最终单元之间的未知字节)
我正在尝试解决通过从 HIK IP 摄像机接收的 RTSP 解码 H.264 的问题。 有效载荷结构:STAP-A SPS、PPS 和 SEI 像下面这样同时传输。 18 00 17 67 42 00 1E...
Freeswitch支持从传入的3PCC INVITE生成SRTP提议?
我在Node.js中使用Freeswitch ESL(Event Socket Library)当我从一个经典的sip端点接收到SIP.js的邀请时,SDP内容是普通的RTP。我需要能够将RTP端点连接到 ...