在此背景下,瑞士联邦政府科技文化中心、Frontiers 和中国科学院文献情报中心于5月10日在瑞士驻华大使馆共同举办了中瑞科研诚信研讨会。来自瑞中两国的多位机构代表分享交流了关于科研诚信的最佳实践案例与学术洞察,并共同展望了未来双方在科研诚信方面的合作。
本次中瑞科研诚信研讨会也促成瑞士联邦政府科技文化中心发布《中瑞科研诚信白皮书》,旨在与大家分享两国科研诚信的现状与最新发展,并探讨相关领域国际合作的可能性。
白皮书内容要点
图书馆 – 以文献计量学审查可信文献资源
瑞士和中国机构图书馆都使用文献计量学和科学计量学,即使用统计和大数据来处理与出版相关的数据,保障研究的可靠性。通过这些方法,还能观测到该领域的总体趋势:例如哪些机构和研究领域有更多的不端案例,哪种类型的不端行为最常见。
学术期刊 – 以技术检测学术不端行为
期刊有助于维护研究诚信标准,并确保已发表的研究报告透明且准确。期刊出版商越来越多地使用技术手段来辅助检测学术不端行为。例如由Frontiers开发的人工智能审查助理(AIRA)不仅使用人工智能来检测人眼难以识别的图像复制问题,还能发现同行评审操纵痕迹。虽然科技可以大幅提高检测学术欺诈的效率,但人工判断仍然至关重要。相关技术应该与以人为本的方法结合使用,以确保判断的准确性与完整性。
大学和研究机构 – 向新一代研究人员传授科研诚信的价值
大学和研究机构在促进研究诚信和培养下一代研究人员方面发挥着至关重要的作用。瑞士和中国的许多大学都编写了关于学术不端行为和道德问题规范的教材,涵盖从现代科学的伦理问题到举报不当行为的具体规定。可以说,教育和培训是机构内部、机构之间形成对科研诚信共同和标准化认知强有力的工具。
人工智能注定将改变当前的研究生态,其发展也凸显了对研究生态监管的必要性。然而,目前人工智能辅助研究和人工智能造假之间的界限并不清晰。例如,ChatGPT 可以生成虚构的文本,但也可以润色研究人员撰写的现有文本;同样,生命科学领域的研究人员经常使用数据创建方法辅助研究,并改进研究中的统计推断。
目前情况下,类似 ChatGPT 的生成性人工智能还没有对科学研究实践造成实质性的损害,而更多被视为一种积极的辅助工具。即便如此,未来如果越来越多的研究人员使用人工智能生成名义上的实验结果和图像,这一举措或还是将威胁到公众对科学的信任。因此,为了确保科研诚信,人工智能在研究中的使用以及相关法规的制定将是至关重要的一步。
瑞中两国在科研诚信问题上表现出了极大的合作意愿,期望建立合作平台以促进最佳实践交流,以此推动科研诚信进程。随着科研诚信的概念不断发展,我们对以人为本的理解也在不断变化,保持多国间的经验交流是非常重要的。人们也希望在处理科研不端行为方面建立更多的跨部门和跨国界合作。例如最近出版伦理委员会(COPE)和国际科学、技术和医学出版商协会(STM)出版了一份联合报告,为学术不端证据收集提供了详细的指导,旨在帮助编辑和出版商应对常见的造假案件。该报告是出版商、编辑和研究人员之间跨学科合作的结果,也证明了在解决科研诚信问题方面跨界合作的巨大潜力。
想要了解更多相关内容,
欢迎阅读完整版《中瑞科研诚信白皮书》:
瑞士驻华大使馆
研讨会所有演讲嘉宾
Alberto Lazari 起草本白皮书
————END————