基于 WebRTC 实现自定义编码分辨率发送

2020年若是问什么技术领域最火?毫无疑问:音视频。2020年远程办公和在线教育的强势发展,都离不开音视频的身影,视频会议、在线教学、娱乐直播等都是音视频的典型应用场景。算法

更加丰富的使用场景更须要咱们考虑如何提供更多的可配置能力项,好比分辨率、帧率、码率等,以实现更好的用户体验。本文将主要从“分辨率”展开具体分享。微信

如何实现自定义编码分辨率

咱们先来看看“分辨率”的定义。分辨率:是度量图像内像素数据量多少的一个参数,是衡量一帧图像或视频质量的关键指标。分辨率越高,图像体积(字节数)越大,画质越好。对于一个YUV i420 格式、分辨率 1080p 的视频流来讲,一帧图像的体积为 1920x1080x1.5x8/1024/1024≈23.73Mbit,帧率 30,则 1s 的大小是 30x23.73≈711.9Mbit。可见数据量之大,对码率要求之高,因此在实际传输过程当中就须要对视频进行压缩编码。所以,视频采集设备采集出的原始数据分辨率咱们称采集分辨率,实际送进编码器的数据分辨率咱们就称之为编码分辨率并发

视频画面是否清晰、比例是否合适,这些都会直接影响用户体验。摄像头采集分辨率的选择是有限的,有时咱们想要的分辨率并不能直接经过摄像头采集到。那么,根据场景配置合适编码分辨率的能力就相当重要了。如何将采集到的视频转换成咱们想要的编码分辨率去发送?这就是咱们今天的主要分享的内容。ide

WebRTC 是 Google 开源的,功能强大的实时音视频项目,市面上大多开发者都是基于 WebRTC 构建实时音视频通讯的解决方案。在 WebRTC 中各个模块都有很好的抽象解耦处理, 对咱们进行二次开发很是友好。在咱们构建实时音视频通讯解决方案时,须要去了解和学习 WebRTC 的设计思想及代码模块,并具有二次开发和扩展的能力。本文咱们基于 WebRTC Release 72 版本,聊聊如何实现自定义编码分辨率。源码分析

首先,咱们思考下面几个问题:学习

  • 视频数据从采集到编码发送,其 Pipeline 是怎样的?
  • 怎么根据设置的编码分辨率选择合适的采集分辨率?
  • 怎么能获得想要的编码分辨率?

本文内容也将从以上三点展开具体分享。编码

视频数据的 Pipeline

首先,咱们来了解一下视频数据的 Pipeline。视频数据由 VideoCapturer 产生,VideoCapturer 采集数据后通过 VideoAdapter 处理,而后经由 VideoSource 的 VideoBroadcaster 分发给注册的 VideoSink ,VideoSink 即编码器 Encoder Sink 和本地预览 Preview Sink。spa

对视频分辨率来讲,流程是:将想要的分辨率设置给 VideoCapturer,VideoCapturer 选择合适的分辨率去采集,原始的采集分辨率数据再通过 VideoAdapter 计算,不符合预期后再进行缩放裁剪获得编码分辨率的视频数据,将数据再送进编码器编码后发送。设计

1.png

这里就有两个关键性问题:code

  • VideoCapturer 如何选择合适的采集分辨率?
  • VideoAdapter 如何将采集分辨率转换成编码分辨率?

如何选择合适的采集分辨率

采集分辨率的选择

WebRTC 中对视频采集抽象出一个 Base 类:videocapturer.cc,咱们把抽象称为 VideoCapturer,在 VideoCapturer 中设置参数属性,好比视频分辨率、帧率、支持的像素格式等,VideoCapturer 将根据设置的参数,计算出最佳的采集格式,再用这个采集格式去调用各个平台的 VDM(Video Device Module,视频硬件设备模块)。具体的设置以下:

代码摘自 WebRTC 中 src/media/base/videocapturer.h

VideoCapturer.h
bool GetBestCaptureFormat(const VideoFormat& desired, VideoFormat* best_format);//内部遍历设备支持的全部采集格式调用GetFormatDistance()计算出每一个格式的distance,选出distance最小的那个格式
int64_t GetFormatDistance(const VideoFormat& desired, const VideoFormat& supported);//根据算法计算出设备支持的格式与咱们想要的采集格式的差距,distance为0即恰好知足咱们的设置
void SetSupportedFormats(const std::vector<VideoFormat>& formats);//设置采集设备支持的格式fps,resolution,NV12, I420,MJPEG等

根据设置的参数,有时 GetBestCaptureFormat() 并不能获得比较符合咱们设置的采集格式,由于不一样的设备采集能力不一样,iOS、Android、PC、Mac 原生的摄像采集和外置 USB 摄像采集对分辨率的支持是不一样的,尤为外置 USB 摄像采集能力良莠不齐。所以,咱们须要对 GetFormatDistance() 稍做调整以知足咱们的需求,下面咱们就来聊聊具体应该如何进行代码调整以知足需求。

选择策略源码分析

咱们先分析一下 GetFormatDistance() 的源码,摘取部分代码:

代码摘自 WebRTC 中 src/media/base/videocapturer.cc

// Get the distance between the supported and desired formats.
int64_t VideoCapturer::GetFormatDistance(const VideoFormat& desired,
                                         const VideoFormat& supported) {
  //....省略部分代码
  // Check resolution and fps.
  int desired_width = desired.width;//编码分辨率宽
  int desired_height = desired.height;//编码分辨率高
  int64_t delta_w = supported.width - desired_width;//宽的差
  
  float supported_fps = VideoFormat::IntervalToFpsFloat(supported.interval);//采集设备支持的帧率
  float delta_fps = supported_fps - VideoFormat::IntervalToFpsFloat(desired.interval);//帧率差
  int64_t aspect_h = desired_width
                         ? supported.width * desired_height / desired_width
                         : desired_height;//计算出设置的宽高比的高,采集设备的分辨率支持通常宽>高
  int64_t delta_h = supported.height - aspect_h;//高的差
  int64_t delta_fourcc;//设置的支持像素格式优先顺序,好比优先设置了NV12,一样分辨率和帧率的状况优先使用NV12格式采集
  
  //....省略部分降级策略代码,主要针对设备支持的分辨率和帧率不知足设置后的降级策略
  
  int64_t distance = 0;
  distance |=
      (delta_w << 28) | (delta_h << 16) | (delta_fps << 8) | delta_fourcc;

  return distance;
}

2.png

咱们主要关注 Distance 这个参数。Distance 是 WebRTC 中的概念,它是设置的采集格式与设备支持的采集格式按照必定算法策略计算出的差值,差值越小表明设备支持的采集格式与设置想要的格式越接近,为 0 即恰好匹配。

Distance 由四部分组成 delta_w,delta_h,delta_fps,delta_fourcc,其中 delta_w(分辨率宽) 权重最重,delta_h(分辨率高) 其次,delta_fps(帧率) 再次,delta_fourcc(像素格式) 最后。这样致使的问题是宽的比重过高, 高的比重过低,没法匹配到比较精确支持的分辨率。

Example:

以 iPhone xs Max 800x800 fps:10 为例,咱们摘取部分采集格式的 distance, 原生的 GetFormatDistance() 的算法是不知足需求的,想要的是 800x800,能够从下图看出结果 Best 是960x540,不符合预期:

Supported NV12 192x144x10 distance 489635708928
Supported NV12 352x288x10 distance 360789835776
Supported NV12 480x360x10 distance 257721630720
Supported NV12 640x480x10 distance 128880476160
Supported NV12 960x540x10 distance 43032248320
Supported NV12 1024x768x10 distance 60179873792
Supported NV12 1280x720x10 distance 128959119360
Supported NV12 1440x1080x10 distance 171869470720
Supported NV12 1920x1080x10 distance 300812861440
Supported NV12 1920x1440x10 distance 300742082560
Supported NV12 3088x2316x10 distance 614332104704
Best NV12 960x540x10 distance 43032248320

选择策略调整

为了获取咱们想要的分辨率,按照咱们分析,须要明确调整 GetFormatDisctance() 的算法,将分辨率的权重调整为最高,帧率其次,在没有指定像素格式的状况下,像素格式最后,那么修改状况以下:

int64_t VideoCapturer::GetFormatDistance(const VideoFormat& desired,
const VideoFormat& supported) {
 //....省略部分代码
  // Check resolution and fps.
int desired_width = desired.width; //编码分辨率宽
int desired_height = desired.height; //编码分辨率高
  int64_t delta_w = supported.width - desired_width;
  int64_t delta_h = supported.height - desired_height;
  int64_t delta_fps = supported.framerate() - desired.framerate();
  distance = std::abs(delta_w) + std::abs(delta_h);
  //....省略降级策略, 好比设置了1080p,可是摄像采集设备最高支持720p,须要降级
  distance = (distance << 16 | std::abs(delta_fps) << 8 | delta_fourcc);
return distance;
}

3.png

修改后:Distance 由三部分组成分辨率 (delta_w+delta_h),帧率 delta_fps,像素 delta_fourcc,其中 (delta_w+delta_h) 比重最高,delta_fps 其次,delta_fourcc 最后。

Example:

仍是以 iPhone xs Max 800x800 fps:10 为例,咱们摘取部分采集格式的 Distance, GetFormatDistance() 修改后, 咱们想要的是 800x800, 选择的 Best 是1440x1080, 咱们能够经过缩放裁剪获得 800x800, 符合预期(对分辨率要求不是特别精确的状况下,能够调整降级策略,选择1024x768):

Supported NV12 192x144x10 distance 828375040
Supported NV12 352x288x10 distance 629145600
Supported NV12 480x360x10 distance 498073600
Supported NV12 640x480x10 distance 314572800
Supported NV12 960x540x10 distance 275251200
Supported NV12 1024x768x10 distance 167772160
Supported NV12 1280x720x10 distance 367001600
Supported NV12 1440x1080x10 distance 60293120
Supported NV12 1920x1080x10 distance 91750400
Supported NV12 1920x1440x10 distance 115343360
Supported NV12 3088x2316x10 distance 249298944
Best NV12 1440x1080x10 distance 60293120

如何实现采集分辨率到编码分辨率

视频数据采集完成后,会通过 VideoAdapter (WebRTC中的抽象) 处理再分发到对应的 Sink (WebRTC中的抽象)。咱们在 VideoAdapter 中稍做调整以计算出缩放裁剪所需的参数,再把视频数据用 LibYUV 缩放再裁剪到编码分辨率(为了尽量保留多的画面图像信息,先用缩放处理,宽高比不一致时再裁剪多余的像素信息)。这里咱们重点分析两个问题:

  • 仍是选用上面的例子,咱们想要的分辨率为 800x800 ,可是咱们获得的最佳采集分辨率为 1440x1080,那么,如何从 1440x1080 采集分辨率获得设置的编码分辨率 800x800 呢?
  • 在视频数据从 VideoCapture 流到 VideoSink 的过程当中会通过 VideoAdapter 的处理,VideoAdapter 具体作了哪些事呢?

下面咱们就这两个问题展开具体的分析,咱们先了解一下 VideoAdapter 是什么。

VideoAdapter 介绍

WebRTC 中对 VideoAdapter 是这样描述的:

VideoAdapter adapts an input video frame to an output frame based on the specified input and output formats. The adaptation includes dropping frames to reduce frame rate and scaling frames.VideoAdapter is
thread safe.

咱们能够理解为:VideoAdapter 是数据输入输出控制的模块,能够对帧率、分辨率作对应的帧率控制和分辨率降级。在 VQC(Video Quality Control)视频质量控制模块里,经过对 VideoAdapter 的配置,能够作到在低带宽、高 CPU 状况下对帧率进行动态降帧,对分辨率进行动态缩放,以保证视频的流畅性,从而提升用户体验。

摘自 src/media/base/videoadapter.h

VideoAdapter.h
bool AdaptFrameResolution(int in_width,
int in_height,
                            int64_t in_timestamp_ns,
int* cropped_width,
int* cropped_height,
int* out_width,
int* out_height);
void OnOutputFormatRequest(
const absl::optional<std::pair<int, int>>& target_aspect_ratio,
const absl::optional<int>& max_pixel_count,
const absl::optional<int>& max_fps);
void OnOutputFormatRequest(const absl::optional<VideoFormat>& format);

VideoAdapter 源码分析

VideoAdapter 中根据设置的 desried_format,调用 AdaptFrameResolution(),能够计算出采集分辨率到编码分辨率应该缩放和裁剪的 cropped_width, cropped_height, out_width, out_height 参数, WebRTC 原生的 adaptFrameResolution 是根据计算像素面积计算缩放参数,而不能获得精确的宽&高:

摘自src/media/base/videoadapter.cc

bool VideoAdapter::AdaptFrameResolution(int in_width,
int in_height,
                                        int64_t in_timestamp_ns,
int* cropped_width,
int* cropped_height,
int* out_width,
int* out_height) {
//.....省略部分代码
// Calculate how the input should be cropped.
if (!target_aspect_ratio || target_aspect_ratio->first <= 0 ||
        target_aspect_ratio->second <= 0) {
      *cropped_width = in_width;
      *cropped_height = in_height;
    } else {
const float requested_aspect =
          target_aspect_ratio->first /
static_cast<float>(target_aspect_ratio->second);
      *cropped_width =
          std::min(in_width, static_cast<int>(in_height * requested_aspect));
      *cropped_height =
          std::min(in_height, static_cast<int>(in_width / requested_aspect));
    }
const Fraction scale;//vqc 缩放系数 ....省略代码
    // Calculate final output size.
    *out_width = *cropped_width / scale.denominator * scale.numerator;
    *out_height = *cropped_height / scale.denominator * scale.numerator;
 }

Example:

以 iPhone xs Max 800x800 fps:10 为例,设置编码分辨率为 800x800,采集分辨率是 1440x1080,根据原生的算法,计算获得的新的分辨率为 720x720, 不符合预期。

VideoAdapter 调整

VideoAdapter 是 VQC(视频质量控制模块)中对视频质量作调整的重要部分,VQC 之因此能够完成帧率控制、分辨率缩放等操做,主要依赖于 VideoAdapter,所以修改须要考虑对 VQC 的影响。

为了能精确得到想要的分辨率,且不影响 VQC 模块对分辨率的控制,咱们对 AdaptFrameResolution() 作如下调整:

bool VideoAdapter::AdaptFrameResolution(int in_width,
int in_height,
                                        int64_t in_timestamp_ns,
int* cropped_width,
int* cropped_height,
int* out_width,
int* out_height) {
  //....省略部分代码
bool in_more =
        (static_cast<float>(in_width) / static_cast<float>(in_height)) >=
        (static_cast<float>(desired_width_) /
static_cast<float>(desired_height_));
if (in_more) {
        *cropped_height = in_height;
        *cropped_width = *cropped_height * desired_width_ / desired_height_;
    } else {
      *cropped_width = in_width;
      *cropped_height = *cropped_width * desired_height_ / desired_width_;
    }
    *out_width = desired_width_;
    *out_height = desired_height_;
    //....省略部分代码
return true;
}

Example:

一样以 iPhone xs Max 800x800 fps:10 为例,设置编码分辨率为 800x800,采集分辨率是 1440x1080,根据调整后的算法,计算获得的编码分辨率为 800x800, 符合预期。

总结

本文主要介绍了基于 WebRTC 如何实现编码分辨率的配置。当咱们要对视频编码分辨率进行修改时,就须要去了解视频数据的采集、传递、处理、编码等整个流程,这里也再对今天分享几个关键步骤进行概括,当咱们要实现自定义编码分辨率发送时:

  • 首先,设置想要的编码分辨率;
  • 修改 VideoCapturer.cc,根据编码分辨率选择合适的采集分辨率;
  • 修改 VideoAdapter.cc,计算出采集分辨率缩放和裁剪到编码分辨率所需的参数;
  • 根据缩放和裁剪参数使用 libyuv 将原始数据缩放裁剪到编码分辨率;
  • 再将新数据送进编码器编码并发送;
  • 最后,Done。

同理咱们也能够依据这种思路去作一些其余的调整。以上就是本文的所有介绍,咱们也会持续分享更多音视频相关的技术实现,也欢迎留言与咱们交流相关的技术。

5G 时代已经来临,音视频的应用领域会愈来愈宽泛,一切大有可为。

做者介绍

何敬敬,网易云信客户端音视频工程师,负责云信音视频跨平台 SDK 的研发工做。以前从事在线教育领域的音视频工做,对构建实时音视频解决方案和使用场景有必定的理解,喜欢钻研和解决复杂技术问题。

更多技术干货,欢迎关注【网易智企技术+】微信公众号