Gstreamer H264 UDP -> WebRTC 重流
作者:Arjan 提问时间:3/8/2022
我有一台 Ricoh THETA Z1 360 度相机,可以输出 4K 360 度流。我正在使用他们自己的视频流来检索视频流并将其放入 Gstreamer。我使用以下管道将视频流接收器到网络上的另一台...
WebRTC 问答列表
作者:Arjan 提问时间:3/8/2022
我有一台 Ricoh THETA Z1 360 度相机,可以输出 4K 360 度流。我正在使用他们自己的视频流来检索视频流并将其放入 Gstreamer。我使用以下管道将视频流接收器到网络上的另一台...
作者:eirikrye 提问时间:12/12/2013
我有一个来自 navigator.getUserMedia 的 MediaStreamSource,它连接到一个 GainNode,而 GainNode 又连接到一个 ScriptProcessorN...
作者:Etohimself 提问时间:2/13/2023
我正在使用 WebRTC 构建视频聊天应用程序。基本上,用户通过 Node.js 套接字服务器交换 SDP 和 ICE 候选。用户最初交换虚拟视频和音频轨道,然后在用户切换音频和视频时替换轨道。用户可...
作者:charanelgile 提问时间:5/24/2023
这里是新手程序员。 在正在进行的工作评估的小型项目上需要一些帮助。 该项目是一个使用 JavaScript、Socket.IO 和 WebRTC 概念的视频聊天应用程序。 该 socket.id 被...
作者:user3211705 提问时间:10/19/2023
我有一个React Native应用程序,我必须根据通过WebRTC获得的音频显示矢量声波,如下图所示。 尝试以下代码发送音轨以显示声波。 import React, { useEffect, u...
作者:Neobyte 提问时间:7/3/2023
我有一个电子应用程序,它通过 WebRTC 成功地屏幕共享桌面。 不幸的是,当屏幕共享计算机具有多个监视器时,对生成流的 getUserMedia 的调用似乎将流的整体分辨率缩小为单个屏幕的数据。 ...
作者:Ijaz Ahmed 提问时间:7/16/2023
我想使用 Puppeteersharp 来实现 --fake-audio-capture 以使用音频文件作为我的麦克风输入。 我希望它每当它激活麦克风时,它都会从该音频文件中获取该音频文件(本地保存...
作者:clément Baille 提问时间:7/19/2023
我目前正在做一个 Flutter 项目,我正在尝试使用 Flutter 建立点对点音频和视频连接。 我已经成功实现了提供/应答系统,并且两台设备都能够共享流 ID。但是,我遇到了视频保持黑色且不显示...
作者:Jochen 提问时间:7/20/2023
我已经设置了一个 iOS 广播扩展,音频数据以 .processSampleBufferCMSampleBuffer 我通过 Websocket 连接将此数据发送到配置了 .MimeType: we...
作者:Eren TURKOGLU 提问时间:10/3/2023
我会让我的相机 Google Nest Cam Battery(新)直播。为此,我使用WebRTC。这是 Google Nest Cam 支持的协议。它适用于 android、PC,但不适用于 iPh...