Unity:实时视频流

问题描述 投票:11回答:1

我正在尝试将实时视频从一个应用流式传输到另一个应用,目前我有2个应用。 app 1是服务器/发送者,app 2是客户端/接收者。在app 1中,我成功将视频字节发送到客户端。在客户端,我也收到了所有的字节。我使用套接字和TCP。我面临的问题是,当我收到视频字节并将它们分配给原始图像纹理时,纹理上的图像看起来放大太多并且它是如此像素化。

更新的图像

enter image description here

这就是我流enter image description here

这就是我在客户端得到的。 This is what i see on the rawimage when i receive the bytes

这是第一个问题,但我目前正在测试从桌面到另一个,我的目标是将IPAD流式传输到桌面,当我这样做时它很慢并且它会在ipad和桌面上杀死应用程序。

我到目前为止尝试了一些故障

1:我认为这是发生的,因为我有2种不同的分辨率,因为我从ipad流到桌面

2:纹理图像太大,我输出它并返回630.我尝试使用Unity Texture2D.resize调整大小但我得到一个灰色纹理,因为该函数将像素设置为未识别

3:我使用其他库来调整纹理大小,我确实得到了我想要的东西,但在12帧之后,rawimage开始在视频和“?”之间闪烁。纹理那么多然后它冻结在两个应用程序(iPad和桌面)

4:我相信我正在阅读纹理的方式导致问题,因为我使用Setpixels和Getpixels函数,它们很重。

我的代码:服务器/发件人方:

using UnityEngine;
using System.Collections;
using System.IO;
using UnityEngine.UI;
using System;
using System.Text;
using System.Net;
using System.Net.Sockets;
using System.Threading;
using System.Collections.Generic;

public class Connecting : MonoBehaviour
{
WebCamTexture webCam;
public RawImage myImage;
Texture2D currentTexture;

private TcpListener listner;
private const int port = 8010;
private bool stop = false;

private List<TcpClient> clients = new List<TcpClient>();

private void Start()
{
    // Open the Camera on the desired device, in my case IPAD pro
    webCam = new WebCamTexture();
    // Get all devices , front and back camera
    webCam.deviceName = WebCamTexture.devices[WebCamTexture.devices.Length - 1].name;

    // request the lowest width and heigh possible
    webCam.requestedHeight = 10;
    webCam.requestedWidth = 10;


    webCam.Play();

    /
    currentTexture = new Texture2D(webCam.width, webCam.height);

    // Connect to the server
    listner = new TcpListener(port);

    listner.Start();

    // Create Seperate thread for requesting from client 
    Loom.RunAsync(() => {

        while (!stop)
        {
            // Wait for client approval
            var client = listner.AcceptTcpClient();
            // We are connected
            clients.Add(client);


            Loom.RunAsync(() =>
            {
                while (!stop)
                {

                    var stremReader = client.GetStream();

                    if (stremReader.CanRead)
                    {
                        // we need storage for data
                        using (var messageData = new MemoryStream())
                        {
                            Byte[] buffer = new Byte[client.ReceiveBufferSize];


                            while (stremReader.DataAvailable)
                            {
                                int bytesRead = stremReader.Read(buffer, 0, buffer.Length);

                                if (bytesRead == 0)
                                    break;

                                // Writes to the data storage
                                messageData.Write(buffer, 0, bytesRead);

                            }

                            if (messageData.Length > 0)
                            {
                                // send pngImage
                                SendPng(client);

                            }

                        }
                    }
                }
            });
        }

    });



}

private void Update()
{
    myImage.texture = webCam;
}


// Read video pixels and send them to the client
private void SendPng (TcpClient client)
{
    Loom.QueueOnMainThread(() =>
    {
        // Get the webcame texture pixels   
        currentTexture.SetPixels(webCam.GetPixels());
        var pngBytes = currentTexture.EncodeToPNG();


        // Want to Write 
        var stream = client.GetStream();

        // Write the image bytes
        stream.Write(pngBytes, 0, pngBytes.Length);

        // send it 
        stream.Flush();

    });
}

// stop everything
private void OnApplicationQuit()
{
    webCam.Stop();
    stop = true;
    listner.Stop();

    foreach (TcpClient c in clients)
        c.Close();
}



}

客户/接收方

using UnityEngine;
using System.Collections;
using UnityEngine.UI;
using System.Net.Sockets; 
using System.Net;
using System.IO;

public class reciver : MonoBehaviour
{

public RawImage image;

const int port = 8010;

public string IP = "";

TcpClient client;


Texture2D tex;

// Use this for initialization
void Start()
{

    client = new TcpClient();

    // connect to server

    Loom.RunAsync(() => {
        Debug.LogWarning("Connecting to server...");
        // if on desktop
        client.Connect(IPAddress.Loopback, port);

        // if using the IPAD
        //client.Connect(IPAddress.Parse(IP), port);
        Debug.LogWarning("Connected!");




    });

}

float lastTimeRequestedTex = 0;
// Update is called once per frame
void Update()
{

    //if (Time.time - lastTimeRequestedTex < 0.1f)
    //  return;

    lastTimeRequestedTex = Time.time;


    if (!client.Connected)
        return;


    // Send 1 byte to server 
    var serverStream = client.GetStream();

    // request the texture from the server 
    if (serverStream.CanWrite)
    {   
        // Texture request
        // send request
        serverStream.WriteByte(byte.MaxValue);
        serverStream.Flush();
        Debug.Log("Succesfully send 1 byte");
    }


    if (serverStream.CanRead)
    {

        // Read the bytes 
        using (var writer = new MemoryStream())
        {
            var readBuffer = new byte[client.ReceiveBufferSize];


            while (serverStream.DataAvailable)
            {

                int numberOfBytesRead = serverStream.Read(readBuffer, 0, readBuffer.Length);
                if (numberOfBytesRead <= 0)
                {
                    break;
                }

                writer.Write(readBuffer, 0, numberOfBytesRead);


            }

            if (writer.Length > 0)
            {
                // got whole data in writer
                // Get the bytes and apply them to the texture
                var tex = new Texture2D(0, 0);
                tex.LoadImage(writer.ToArray());
                Debug.Log(tex.width + tex.height);
                image.texture = tex;


            }   
        }
    }
}

void OnApplicationQuit()
{
    Debug.LogWarning("OnApplicationQuit");
    client.Close();
}
}
c# sockets unity3d streaming
1个回答
17
投票

我运行了你的代码,它有时会工作并且有时会失败(大约90%的时间)。它在我的电脑上以5 FPS运行。这在移动设备上无法发挥,我相信你的目标是iPad。

您的代码中几乎没有问题,但它们是非常严重的问题。


1.加载前没有完全接收到您的图像。

这就是为什么你的图像看起来很奇怪。

使用套接字时人们犯的最大错误就是假设你发送的所有内容都会被立即收到。这不是真的。这就是您的客户编码方式。请阅读this

这是我在答案中使用的方法:

A.获取Texture2D字节数组。

B.发送字节数组长度。不是字节数组而是长度。

C.客户将首先阅读长度。

D.客户端将使用该长度读取整个纹理数据/像素直到完成。

E.将接收到的字节转换为数组。

您可以查看private int readImageByteSize(int size)private void readFrameByteArray(int size)函数,了解如何读取所有字节。

当然,您还必须知道首先发送的数据长度。长度保存在int数据类型中。

最大int值是2,147,483,647,这是10数字长。因此,我首先发送的数组的数组长度为15作为协议。这也是客户端必须遵守的规则。

它现在如何工作:

Texture2D读取字节数组,读取该数组的长度,将其发送到客户端。客户端遵循一个规则,即第一个15字节只是长度。然后,客户端将读取15字节,将其转换回长度,然后在循环中使用该长度从服务器读取完整的Texture2D

长度转换使用void byteLengthToFrameByteArray(int byteLength, byte[] fullBytes)int frameByteArrayToByteLength(byte[] frameBytesLength)函数完成。看看那些了解它们的人。


2.在主线程中执行套接字操作。

这就是为什么FPS在我的电脑上是5的原因。

不要这样做,因为这会使你的帧速率低,就像它已经。我已经回答了很多这样的问题,但不会深入,因为看起来你知道自己在做什么,并试图使用Thread,但做错了。

A.当你这样做时,你正在读取主要的Thread:在serverStream.Read(readBuffer, 0, readBuffer.Length);函数中的Update

你应该在里面做到这一点

Loom.RunAsync(() =>
{ //your red code });

B.当你使用SendPng发送数据时,你在stream.Write(pngBytes, 0, pngBytes.Length);函数中犯了同样的错误

Loom.QueueOnMainThread(() =>
{});

你在Loom.QueueOnMainThread内所做的任何事情都将在主要的Thread完成。

你应该在另一个Thread.Loom.RunAsync(() =>{});发送


最后,qazxsw poi已经过时了。这没有引起任何问题,但在您的服务器代码中使用qazxsw poi应该收听nay IP。

在完成所有这些修复后,最终的FPS在我的计算机上超过listner = new TcpListener(port);。下面的代码可以改进很多。我会把它留给你做。

您可以使用listner = new TcpListener(IPAddress.Any, port);查看每个班级中发生变化的事情。

服务器:

50

客户:

online code compare
© www.soinside.com 2019 - 2024. All rights reserved.