目前鲜有对用户生成性学习资源质量评价的相关研究。现有的研究主要集中在对用户生成内容的质量评价上。赵宇翔和朱庆华等选取视频类UGC内容为研究对象,在对现状进行考察的基础上,提出了一套多层次、多维度、多方法的UGC质量测评框架。该框架分为三个层次:对象层、维度层和测度层。对象层主要研究具体的应用情境;维度层主要考察信息资源质量在多维度上的描述与表现;测度层主要考虑具体的测度方法和技术。同时,赵宇翔和朱庆华还提出了自动监测、同行评议及用户评价三种评价方法[3]。Toon D P等人通过对YouTube中用户的推荐和评价来考察用户生成视频内容的质量,并进行了实证检验[4]。Simon O等人利用内容自身所附加的标签来协助评价用户生成内容的质量,取得了较好的实证效果[5]。Zwol R V等人使用关键字及其对应的链接描述来研究网页内容的质量,研究结果表明:搜索后被点击的次数越高则网页内容的质量越高[6]。Agichtein E等人则首次提出对用户生成内容的属性进行分级,建立基于社区的用户交互模型,综合内容本身、用户对内容的交互行为和用户对内容浏览的统计属性三个方面来对内容质量进行评价[7]。以上研究主要用到了用户评价法、层析分析法、网络计量法(Web挖掘方法)等方法。从现有质量评价研究来看,存在的主要问题包括指标体系不够完善、指标设计不够合理、评价对象不够清晰和实践操作性不强等[8]:
1.指标体系不够完善
从现有的评价指标设计来看,能够全面反映信息资源尤其是用户生成性学习资源全部特征的指标体系很少。在已有的相关评价指标体系中,要么只能支持定性的分析,要么只能支持定量的评价,很难发现能同时兼顾二者的评价指标体系。除此之外,在现有的指标体系中定性指标数量一般较多,而能用于定量测评的指标相应较少。
2.指标设计不够合理
在已有文献的相关评价指标中,存在着指标重复的现象,有些指标虽然字面表达不同,但其实质内容往往相同或相近。另外,有些指标在文字描述上过于晦涩,让人感觉难以理解。整体而言,评价指标的设计不够合理,最普遍的两种情况是指标重复和对指标的描述指向不清。(www.xing528.com)
3.评价对象不够清晰
从当前的评价指标来看,很多指标仅仅只能评价普通网页或信息文档的质量,并不适用于对用户生成的资源内容进行评价。有些指标适用于评价专业学术性内容;有些仅适用于评价娱乐性或商业性内容;有的仅能评价单个文档,而不能评价信息资源的合集(如资源库等)。但指标体系本身并没有对指标的特殊指向和评价层次进行明确区分。
4.实践操作性不强
实践操作性不强主要体现在评价的指标和方法层面,比如有些指标看起来设计得很合理,但在具体评测和使用时往往会出现实用性不强的问题,缺乏相应的实践操作参照性。同时对于具体的评价方法也缺乏相应的操作说明和指导。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。