可是,过度依赖于论文查重的弊端也是尤为突出的,论文的质量实质上并不是由重复率多少判断的,重复率与原创性也非简单的对应关系。已有的论文检测系统的工作原理大致相同,全部都是将论文区分开分解后,与数据库中的内容开展匹配度检测,说白了重复率是以文本重复的多少为条件的。
可是,在绝大多数论文中,相同总数的文本对学术创新的价值是不一样的。例如200个字的一句话,可能是此篇文章中最精粹的见解,也很有可能只是一段作为例子或反驳的引用文献。现今的检测系统对于此事不能作出精确区别,更难以开展智能化的权重计算处理。有的论文作者着重于考察重要事件的年代或重要文献,一定要在大批量引用原始文献或先人看法的前提上,根据认真分析才可以获得正确的结果,最后的结果很有可能仅仅寥寥无几数据,但在学术史上却具有突破性意义,如果把那样的论文交给查重系统评价,十有八九会因为高重复率而被误杀。反过来,有的论文看上去全篇新话,事实上很有可能既欠缺对本论题学术史的必需回望,也并没有和有关研究成果的有效勾连,那样的论文纵然被检测系统绿灯放行,对推动学术进步又有什么用处呢?
更关键的是,过度依赖论文查重的心态造成 了降重技巧盛行。而这些降重的奇招,无非替换近义词,修改词序,把直接引用文献转为间接引语,绕着弯儿说话等文本杂耍,也只能导致某种虚报的原创性,并不能真的提升论文的质量。如同用白纸糊着了墙壁的烂洞,表层光鲜亮丽,事实上一触即溃并且遮盖了内在的问题。
《论文查重的作用》