[Sigcom13]Developing a Predictive Model of Quality of Experience for Internet Video

第一次讲组会的ppt,话说这篇论文断断续续的也准备了一个月的。主要是相关的知识比较多,还是花了挺大功夫去补知识的,尽管在讲的时候,还是感觉自己讲的不怎么好。

对于关键的几个点还是没有重点的想清楚。论文的学习,就是分析它的二叉树的过程,越来越觉得老师说的这句话很对了。

论文到达每个问题的决策点的时候,都有充分的理由的,如果这个地方理解解释的不清楚,或者不充分,那么就有我们改进,进一步去做的地方。

整体的二叉树或者说n叉树的结构,将会是我们很好的一个借鉴的地方。

另外,我猛然发现自己演讲的时候,经常会语塞,或者说词穷。   经常会有无法与言语表达自己的想法的时候,脑子一直在转,但是却始终无法找到合适的表达。

真是囧。

因此说,此次论文presentation需要总结的话,有以下几点,下次应当进一步改进的:

1、学习论文之前,总体浏览,搜集所有需要补充的知识,并一次性补充好。否则,到了需要的时候再看,就会有点力不从心,或者容易分神,很难把握住论文整体的思路;

2、论文二叉树的每个决策点,都应当仔细推敲。 其实,一篇论文来说,需要仔细推敲的就是两个点,决策点和具体实现。  一般具体实现都不会有问题,关键是分析决策点;

3、解决词穷的问题。额。。这个问题,の,应当多看文学名著么,还是该把成语词典过一遍?  好吧,多看百家讲坛吧。= =这个最囧了。


ok。心路历程完成之后,就是本篇论文的正文内容,随后会附上相关的参考资料。 以供后期需要的时候,进一步学习。

Reference


====================================================================================================================================

1、将从以下几个模块来介绍本篇论文。



首先是为什么要做qoe。
互联网视频企业的盈利模式有两种:
    付费点播 和 广告。


通过这两种模式,你看得越多,时间越长,盈利就越多。
那么如何让视频对用户有吸附力呢?
就是提高 qoe

2、那么提高qoe有哪些challenge呢?

首先,时代的改变,使得用户的需求提高,评估qoe的工业标准也变化了。
视频质量的标准变了, 用户体验的标准也变了。(由主观评分,变成客观的观看数据)


视频质量的几个标准解释一下:
平均比特率:理解成高清、中清、低清视频。
join time:就是视频载入时间。
缓冲比例: 缓冲占所有用户观看的比例。
缓冲频率: 每次播放的缓冲次数。

由于这些变化,导致如下3个方面的挑战,但其中最关键的问题,是最后一个:


首先:视频质量之间存在相互的影响关系。

(高清视频 导致载入时间变长,高清视频导致更频繁的 缓冲)


其次:利用视频质量推测用户参与度时,他们之间的关系非线性。

(并不是视频越高清用户吸附力越大,网络状况等因素会降低体验;缓冲频率到达一定程度,用户都会离开。)


最后、也是最为重要的:混淆条件影响视频质量之间,视频与用户参与度之间的关系。

(不同类型的视频有不同影响,数据中看出,点播服务的用户可以忍受更长时间的载入时间;使用无线网络的用户,可以忍受更多次数的缓冲)


3、为了解决以上challenge,该如何做呢?

首先,比较当前的不同方法,可以总结出一个好的视频qoe系统应当具有的特性:(这块没有很好的理解。
以用户参与为核心进行分析; 预测结果具有可操作性。


那么,对于以用户为核心分析的预测模型,应当解决以下问题。
    能够处理视频质量之间依赖关系;
    能够处理混淆条件,提高预测准确率。


作者通过实现比较不同的算法,发现在不处理混淆条件的情况下,决策树的准确率最高,而且可解释性强。

那么如何处理混淆条件,提高进一步提高准确率呢? 这里就是作者关键的地方,和其他不一样的地方。

首先是辨认混淆条件,作者在列举所有的混淆条件之后,利用三种方法,依次筛选出能够影响准确率的混淆条件。


【1】通过计算信息增益,筛选混淆条件中,对用户参与度和视频质量影响大的部分。

不同的视频类型,用户直接的参与度有很大差别;    不同的视频类型,影响用户对载入时间,视频清晰程度的忍耐度。


【2】比较不同条件下的compact 决策树。

那么为什么要构造compact呢? 直观的比较,构造compact之后,能够获得更为直观的数据分布,如下面的图。
这个时候只要把exception剪枝就可以获得high-level的观测,从而发现不同。


那么如何构造呢?
算法是这样的。比如右边的决策树,还有上面的数据分布图,数字对应决策树分类的叶子节点。


首先,从A1点出发,递归寻找high-level的规则。

该算法通过卡方测试来评估规则significant。
计算两个条件下的卡方测试的值,0表示该规则对于当前所有数据分布独立,是sig的。
因此确定推导圆圈的为high-level规则。
另一个,因为是叶子节点,也作为high-level规则。


接着,从A2点出发,寻找Exception。

寻找Exception有三个条件,当前节点的主要分类与前面不一样。
比如到4号A1点,是圆圈,直接不考虑,继续递归寻找。
来到7号A1点,主要分类方块;接着计算卡方测试,为0,符合;
计算该节点下不同类别的方块数,方块2,圆圈1. 满足当前分类 >= 前述分类+1的条件。因此此点为sub-rule。


这个时候的叶子节点不再作为rule判定条件,如果与前述分类一样,则去掉;不一样,设置为exception。


之后的处理类似。


接着就按照如图的标记,去掉多余的部分,得到compact 决策树。


这是实际处理之后,不同视频类型的compact 决策树结构,接着又筛选点一部分混淆条件。


【3】直接统计不同混淆条件下的数据图,直观的看,来找出有明显误差的。

最终统计如图。


因此可以看出,本论文中,核心的创新点,就是compact决策树部分,利用high-level的结构差异,来找出混淆条件,提高决策树预测准确率。


接下来是解决混淆条件。论文对比了两种方法。
一种: 直接将混淆条件作为特征属性之一,在决策树中进行建模;
另一种: 根据不同混淆条件,分别构造决策树;最终结果就是不同决策树的集合。
最后测试效果是这样的。


第二种效果要好。


4、最后就是对可操作性的证明以及评估。

作者直接简单的枚举所有可能的参数配置,比如不同的CDN、 bitrate等, 观测最终qoe 预测的结果。
直到调试出最佳的方法。
接着喝其他方法比较,smart qoe效果比较好。就这样。

谢谢。

郑重声明:本站内容如果来自互联网及其他传播媒体,其版权均属原媒体及文章作者所有。转载目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。