

以创促学,以学带赛:生成式人工智能的伦理风险与化解路径
发布时间:2024-07-08 16:51:03 作者:耿晓喆
在数字化时代的背景下,人工智能(AI)技术以其前所未有的速度和规模重构了人类社会的结构和运行模式。自2022年11月30日OpenAI发布ChatGPT以来,生成式人工智能(AIGC)受到全球科技产业的广泛关注。2023年4月11日,国家互联网信息办公室发布的《生成式人工智能服务管理办法(征求意见稿)》指出,生成式人工智能是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。然而,随着AIGC技术的不断发展和更迭,其潜在风险逐渐暴露于公众视野中。一方面,AIGC在优化资源配置,提升生产力等方面展现出巨大潜力,但是也在人机关系等方面,对于传统伦理框架造成严重挑战,引发人们对于技术失控、超级情感、道德失范的忧虑,数据沼泽、算法黑箱、信息孤岛,无不凸显了技术伦理的紧迫性。另一方面,市场机制、自由竞争、道德脱嵌,使得AIGC技术在互联网应用中的伦理风险难以得到有效遏制,例如,虚拟偶像的高度仿真、AI换脸技术对个人隐私和肖像权的侵犯、复活死者所引发的伦理争议等,进一步加剧了风险的累积与扩散。基于此,南京林业大学人文社会科学学院卫欣教授成立了“媒介伦理与网络生态文明”课题组,旨在为数字技术面临的伦理风险问题提供科学、有效的解决方案。AIGC的风险不仅触及技术伦理的边界,更直接影响每个人的日常生活。一方面,在AIGC技术日益融入日常生活之际,如何在鼓励技术进步与创新的同时,建立一套既能适应技术快速迭代要求,又能有效管控风险的伦理框架,已然迫在眉睫。另一方面,在肯定AIGC技术带来巨大经济利益的同时,需警醒其潜在的负面影响及犯罪行为,并积极构建相应的法律体系,以确保其不偏离增进人类福祉的初衷。因此,不仅要在理论层面探讨AIGC伦理的复杂性,还需在实践中探索和实施具体可行的治理方案。践行“以人为本、智能向善、造福人类”的理念,以确保AIGC技术始终在符合道德与法律的轨道上稳健前行。积极回应社会的关切是大学的使命与担当。南京林业大学人文社会科学学院高度重视科研成果的转化与应用,打造了一只理论与实践相结合的科研团队,并鼓励学生参与“挑战杯”“互联网+”等学科竞赛,旨在为相关领域贡献新的理论成果与学术视角。本研究结合了理论探讨与实证研究两部分,以“青年群体”(15-34岁)作为调研对象,开展全方位、多层次的调查研究。深入剖析AIGC技术的核心特征及其所引发的伦理风险,并寻求切实有效的化解策略,从而可以更好地为政府及相关部门提供具有针对性的解决方案,为数字技术的可持续发展与网络空间的和谐、健康、稳定贡献力量。
(张北辰)