我以前从未尝试过 webrtc。我有一个使用 Firebase 制作的应用程序。现在我正在尝试在其中添加语音通话功能。
因此尝试搜索一些教程,大多数都在使用 PubNub 或者大多数教程都是基于网络应用程序。
我看到了这个 stackoverflow 线程,知道可以通过 Firebase 来使用 webrtc。
在尝试了一些教程之后,我编写了这段代码,
PeerConnectionFactory.initializeAndroidGlobals(this,false,true,true);
PeerConnectionFactory peerConnectionFactory = new PeerConnectionFactory();
AudioSource audioSource = peerConnectionFactory.createAudioSource(new MediaConstraints());
AudioTrack audioTrack = peerConnectionFactory.createAudioTrack("4444",audioSource);
audioTrack.setEnabled(true);
MediaStream mediaStream = peerConnectionFactory.createLocalMediaStream("4444");
mediaStream.addTrack(audioTrack);
但是我很困惑如何使用 Firebase 与其他设备共享流。需要帮助:(
AFAIK 我认为
Firebase
目前不支持语音通话。
另一方面
((Web 实时通信)是一个免费的开源项目,它通过简单的应用程序编程接口 (API) 为 Web 浏览器和移动应用程序提供实时通信 (RTC)。WebRTC
基本上,您需要的是一个
Socket
,用于使用 SignallingServer
发出信号,并使用 PeerConnection
在两个客户端之间建立连接。
下面是一些可以开始的链接。
示例中还提供了SignallingServer
实现。您将需要 NODE.JS
来运行它。 WebRTC
真是太神奇了。
如果您想将
Firebase
用作SignallingServer
,则可以使用它。但我认为这会产生开销,而简单的 Socket
就可以工作。