直播流程

1.采集视频、音频前端

*1.1 采集视频、音频编码框架 *nginx

*1.2 视频、音频硬件设备 *git

· CCD :图像传感器:用于图像采集和处理的过程,把图像转换成电信号。github

· 拾音器 :声音传感器:用于声音采集和处理的过程,把声音转换成电信号。web

· 音频采样数据 :通常都是PCM格式算法

· 视频采样数据 : 通常都是 YUV ,或 RGB 格式,采集到的原始音视频的体积是很是大的,须要通过压缩技术处理来提升传输效率编程

2.视频处理(美颜,水印)缓存

· 视频处理原理 :由于视频最终也是经过GPU,一帧一帧渲染到屏幕上的,因此咱们能够利用OpenGL ES,对视频帧进行各类加工,从而视频各类不一样的效果,就好像一个水龙头流出的水,通过若干节管道,而后流向不一样的目标服务器

o 如今的各类美颜和视频添加特效的app都是利用GPUImage这个框架实现的,.网络

*视频处理框架 *

· GPUImage : GPUImage是一个基于OpenGL ES的一个强大的图像/视频处理框架,封装好了各类滤镜同时也能够编写自定义的滤镜,其自己内置了多达120多种常见的滤镜效果。

· OpenGL :OpenGL(全写Open Graphics Library)是个定义了一个跨编程语言、跨平台的编程接口的规格,它用于三维图象(二维的亦可)。OpenGL是个专业的图形程序接口,是一个功能强大,调用方便的底层图形库。

· OpenGL ES :OpenGL ES (OpenGL for Embedded Systems) 是 OpenGL三维图形 API 的子集,针对手机、PDA和游戏主机等嵌入式设备而设计。

3.视频编码解码

*3.1 视频编码框架 *

· FFmpeg :是一个跨平台的开源视频框架,能实现如视频编码,解码,转码,串流,播放等丰富的功能。其支持的视频格式以及播放协议很是丰富,几乎包含了全部音视频编解码、封装格式以及播放协议。

o -Libswresample:能够对音频进行重采样,rematrixing以及转换采样格式等操做。

o -Libavcodec:提供了一个通用的编解码框架,包含了许多视频,音频,字幕流等编码/解码器。

o -Libavformat:用于对视频进行封装/解封装。

o -Libavutil:包含一些共用的函数,如随机数生成,数据结构,数学运算等。

o -Libpostproc:用于进行视频的一些后期处理。

o -Libswscale:用于视频图像缩放,颜色空间转换等。

o -Libavfilter:提供滤镜功能。

· X264 :把视频原数据YUV编码压缩成H.264格式

*3.2 视频编码技术 *

· 视频压缩编码标准:对视频进行压缩(视频编码)或者解压缩(视频解码)的编码技术 ,好比 MPEG , H.264 ,这些视频编码技术是压缩编码视频的

o 主要做用 :是将视频像素数据压缩成为视频码流,从而下降视频的数据量。若是视频不通过压缩编码的话,体积一般是很是大的,一部电影可能就要上百G的空间。

o 注意 :最影响视频质量的是其视频编码数据和音频编码数据,跟封装格式没有多大关系

· MPEG :一种视频压缩方式,它采用了帧间压缩,仅存储连续帧之间有差异的地方,从而达到较大的压缩比

· H.264/AVC :一种视频压缩方式,采用事先预测和与MPEG中的P-B帧同样的帧预测方法压缩,它能够根据须要产生适合网络状况传输的视频流,还有更高的压缩比,有更好的图象质量

o 注意1 :若是是从单个画面清晰度比较,MPEG4有优点;从动做连贯性上的清晰度,H.264有优点

o 注意2 :因为264的算法更加复杂,程序实现烦琐,运行它须要更多的处理器和内存资源。所以,运行264对系统要求是比较高的。

o 注意3 :因为264的实现更加灵活,它把一些实现留给了厂商本身去实现,虽然这样给实现带来了不少好处,可是不一样产品之间互通成了很大的问题,形成了经过A公司的编码器编出的数据,必须经过A公司的解码器去解这样尴尬的事情

· H.265/HEVC :一种视频压缩方式,基于H.264,保留原来的某些技术,同时对一些相关的技术加以改进,以改善码流、编码质量、延时和算法复杂度之间的关系,达到最优化设置。

o H.265 是一种更为高效的编码标准,可以在同等画质效果下将内容的体积压缩得更小,传输时更快更省带宽

o I帧 :(关键帧)保留一副完整的画面,解码时只须要本帧数据就能够完成(由于包含完整画面)

· P帧 :(差异帧)保留这一帧跟以前帧的差异,解码时须要用以前缓存的画面叠加上本帧定义的差异,生成最终画面。(P帧没有完整画面数据,只有与前一帧的画面差异的数据)

· B帧 :(双向差异帧)保留的是本帧与先后帧的差异,解码B帧,不只要取得以前的缓存画面,还要解码以后的画面,经过先后画面的与本帧数据的叠加取得最终的画面。B帧压缩率高,可是解码时CPU会比较累

· 帧内(Intraframe)压缩 :当压缩一帧图像时,仅考虑本帧的数据而不考虑相邻帧之间的冗余信息,帧内通常采用有损压缩算法

· 帧间(Interframe)压缩 :时间压缩(Temporal compression),它经过比较时间轴上不一样帧之间的数据进行压缩。帧间压缩通常是无损的

· muxing(合成):将视频流、音频流甚至是字幕流封装到一个文件中( 容器格式(FLV,TS) ),做为一个信号进行传输。

*3.3 音频编码技术 *

· AAC , mp3 :这些属于音频编码技术,压缩音频用

*3.4码率控制 *

· 多码率 :观众所处的网络状况是很是复杂的,有多是WiFi,有可能4G、3G、甚至2G,那么怎么知足多方需求呢?多搞几条线路,根据当前网络环境自定义码率。

o 列如:经常看见视频播放软件中的1024,720,高清,标清,流畅等,指的就是各类码率。

*3.5 视频封装格式 *

· TS : 一种流媒体封装格式,流媒体封装有一个好处,就是不须要加载索 引再播放,大大减小了首次载入的延迟,若是片子比较长,mp4文件的索引至关大,影响用户体验

o 为何要用TS :这是由于两个TS片断能够无缝拼接,播放器能连续播放

· FLV : 一种流媒体封装格式,因为它造成的文件极小、加载速度极快,使得网络观看视频文件成为可能,所以FLV格式成为了当今主流视频格式

4.推流

*4.1 数据传输框架 *

librtmp :用来传输RTMP协议格式的数据

*4.2 流媒体数据传输协议 *

· RTMP :实时消息传输协议,Adobe Systems公司为Flash播放器和服务器之间音频、视频和数据传输开发的开放协议,由于是开放协议因此均可以使用了。

o RTMP协议用于对象、视频、音频的传输。

o 这个协议创建在TCP协议或者轮询HTTP协议之上。

o RTMP协议就像一个用来装数据包的容器,这些数据能够是FLV中的视音频数据。一个单一的链接能够经过不一样的通道传输多路网络流,这些通道中的包都是按照固定大小的包传输的

chunk :消息包

5.流媒体服务器

*5.1经常使用服务器 *

· SRS :一款国人开发的优秀开源流媒体服务器系统

· BMS :也是一款流媒体服务器系统,但不开源,是SRS的商业版,比SRS功能更多

· nginx :免费开源web服务器,经常使用来配置流媒体服务器。

*5.2数据分发 *

· CDN :(Content Delivery Network),即内容分发网络,将网站的内容发布到最接近用户的网络”边缘”,使用户能够就近取得所需的内容,解决 Internet网络拥挤的情况,提升用户访问网站的响应速度.

o CDN :代理服务器,至关于一个中介。

o CDN工做原理:好比请求流媒体数据

§ 1.上传流媒体数据到服务器(源站)

§ 2.源站存储流媒体数据

§ 3.客户端播放流媒体,向CDN请求编码后的流媒体数据

§ 4.CDN的服务器响应请求,若节点上没有该流媒体数据存在,则向源站继续请求流媒体数据;若节点上已经缓存了该视频文件,则跳到第6步。

§ 5.源站响应CDN的请求,将流媒体分发到相应的CDN节点上

§ 6.CDN将流媒体数据发送到客户端

· 回源:当有用户访问某一个URL的时候,若是被解析到的那个CDN节点没有缓存响应的内容,或者是缓存已经到期,就会回源站去获取搜索。若是没有人访问,那么CDN节点不会主动去源站拿.

· 带宽 :在固定的时间可传输的数据总量,

o 好比64位、800MHz的前端总线,它的数据传输率就等于64bit×800MHz÷8(Byte)=6.4GB/s

· 负载均衡 : 由多台服务器以对称的方式组成一个服务器集合,每台服务器都具备等价的地位,均可以单独对外提供服务而无须其余服务器的辅助.

o 经过某种负载分担技术,将外部发送来的请求均匀分配到对称结构中的某一台服务器上,而接收到请求的服务器独立地回应客户的请求。

o 均衡负载可以平均分配客户请求到服务器列阵,籍此提供快速获取重要数据,解决大量并发访问服务问题。

o 这种群集技术能够用最少的投资得到接近于大型主机的性能。

· QoS(带宽管理) :限制每个组群的带宽,让有限的带宽发挥最大的效用

6.拉流

· 直播协议选择:

即时性要求较高或有互动需求的能够采用 RTMP , RTSP

对于有回放或跨平台需求的,推荐使用 HLS

· 直播协议对比 :

 

· HLS :由Apple公司定义的用于实时流传输的协议,HLS基于HTTP协议实现,传输内容包括两部分,一是M3U8描述文件,二是TS媒体文件。可实现流媒体的直播和点播,主要应用在iOS系统

o HLS是以点播的技术方式来实现直播

o HLS是自适应码率流播,客户端会根据网络情况自动选择不一样码率的视频流,条件容许的状况下使用高码率,网络繁忙的时候使用低码率,而且自动在两者间随意切

换。这对移动设备网络情况不稳定的状况下保障流畅播放很是有帮助。

o 实现方法是服务器端提供多码率视频流,而且在列表文件中注明,播放器根据播放进度和下载速度自动调整。

· HLS与RTMP对比 :HLS主要是延时比较大,RTMP主要优点在于延时低

o HLS协议的小切片方式会生成大量的文件,存储或处理这些文件会形成大量资源浪费

o 相比使用RTSP协议的好处在于,一旦切分完成,以后的分发过程彻底不须要额外使用任何专门软件,普通的网络服务器便可,大大下降了CDN边缘服务器的配置要求,可使用任何现成的CDN,而通常服务器不多支持RTSP。

· HTTP-FLV :基于HTTP协议流式的传输媒体内容。

o 相对于RTMP,HTTP更简单和广为人知,内容延迟一样能够作到1~3秒,打开速度更快,由于HTTP自己没有复杂的状态交互。因此从延迟角度来看,HTTP-FLV要优于RTMP。

· RTSP :实时流传输协议,定义了一对多应用程序如何有效地经过IP网络传送多媒体数据.

· RTP :实时传输协议,RTP是创建在UDP协议上的,常与RTCP一块儿使用,其自己并无提供按时发送机制或其它服务质量(QoS)保证,它依赖于低层服务去实现这一过程。

· RTCP :RTP的配套协议,主要功能是为RTP所提供的服务质量(QoS)提供反馈,收集相关媒体链接的统计信息,例如传输字节数,传输分组数,丢失分组数,单向和双向网络延迟等等。

7.解码

*7.1 解封装 *

· demuxing(分离):从视频流、音频流,字幕流合成的文件( 容器格式(FLV,TS) )中,分解出视频、音频或字幕,各自进行解码。

*7.2 音频编码框架 *

· fdk_aac :音频编码解码框架,PCM音频数据和AAC音频数据互转

*7.3 解码介绍 *

· 硬解码:用GPU来解码,减小CPU运算

o 优势:播放流畅、低功耗,解码速度快,

*    缺点:兼容很差

· 软解码:用CPU来解码

o 优势:兼容好

*    缺点:加大CPU负担,耗电增长、没有硬解码流畅,解码速度相对慢

8.播放

· ijkplayer :一个基于FFmpeg的开源Android/iOS视频播放器

o API易于集成;

o 编译配置可裁剪,方便控制安装包大小;

o 支持硬件加速解码,更加省电

o 简单易用,指定拉流URL,自动解码播放.

9.聊天互动

· IM :(InstantMessaging)即时通信:是一个实时通讯系统,容许两人或多人使用网络实时的传递文字消息、文件、语音与视频交流.

o IM 在直播系统中的主要做用是实现观众与主播、观众与观众之间的文字互动.

*第三方SDK *

· 腾讯云 :腾讯提供的即时通信SDK,可做为直播的聊天室

· 融云 :一个比较经常使用的即时通信SDK,可做为直播的聊天室--------------------- 做者:deng_wei_csdn 来源:CSDN 原文:https://blog.csdn.net/github_37855556/article/details/73467698