自ChatGPT-4上线之后,人工智能技术创新浪潮再度掀起,如果说之前还有观点质疑当下并非规制人工智能技术的最佳时机,那么ChatGPT-4所展现出的高度智能化功能使得这些质疑观点逐渐消散。正如过去各类信息技术发展规律,生成式人工智能技术在不断进行创新的同时,也正在扩大社会风险的波及范围和损害程度。尤其是在网络信息内容生态领域,人工智能技术能够根据用户提出的具体需求,在短时间内生成海量文本信息、图片信息乃至视频信息,一旦这些生成信息在网上传播,网络空间将不得不面对新一轮的信息浪潮的冲击。一方面,生成类信息具有典型的同质性特征,加之平台以用户偏好推送相关信息,这使得用户可以获取的信息内容、信息类型均有所衰减;另一方面,人工智能技术所生成的信息越发贴合人类的表达逻辑,这使得一般用户无法轻易辨别信息内容的真伪。当然,人工智能的技术风险远不止于此。例如,在科研教学领域,人工智能技术能够成为学生自主学习的辅导工具,但过度依赖人工智能技术完成课程作业或文献撰写,从长远来看只会削弱学生批判意识和独立学习能力。在网络安全领域,人工智能技术已经能够为部分代码片段编写提供辅助指导和查漏补缺功能,这无疑会降低恶意代码编写的技术门槛与时间成本,进而导致网络安全态势的恶化。

事实上,人工智能技术所引发的诸多社会风险问题早已不再是理论空想,在当下的社会生活中,已经存在滥用人工智能技术进行违法犯罪活动的事件。在今年4月侦破的一起利用人工智能发布网络虚假信息的犯罪活动,犯罪嫌疑人为了规避平台的信息内容审核机制,利用ChatGPT对新闻素材进行修改编辑,上传至平台非法获利。无论是专家学者预估的社会风险,还是现实生活已经发生的犯罪活动,无不说明当下人工智能技术需要规范治理。国家互联网信息办公室也在4月发布了《生成式人工智能服务管理办法(征求意见稿)》,用于指引和规范生成式人工智能技术的应用活动。

然而,这远远不足以规制潜在的技术滥用风险,传统的治理理念和治理工具在人工智能技术治理领域正在逐渐失效。其中的原因正是技术服务提供者无法完全控制用户的使用行为,作为技术工具的人工智能应用,其输出结果是否合理合法,在很大程度上取决于用户所输入的问题和需求。更重要的是,对于部分海外人工智能服务提供者而言,国内立法难以在域外予以适用,非法使用者利用境外技术服务从事违法活动,监管者往往难以在事前阶段就予以预防。继续僵化沿用“危险制造者承担责任”的治理逻辑只会适得其反,既会限制人工智能技术的创新应用,也会浪费既有的社会治理资源。因此,根据技术创新应用实践特征,适时调整治理理念和治理方式越来越重要。

在治理理念层面,首先需要明确的是,人工智能技术治理应当秉要执本,优先预防和规制核心的技术滥用风险。在人工智能技术引发的诸多社会风险中,危害性最大的风险类型当属网络信息内容生态风险。AI换脸、AIGC生成仿真照片等信息服务内容正在重新塑造网络信息内容生态,这些服务所生成的信息内容“半真半假”,这使得用户更加难以在信息大爆炸时代辨别信息真伪。同样的,平台运营者乃至监管机构也需要花费更多的时间和精力去一一核对这些信息的可靠性与真实性。而人工智能技术所引发的数据安全、网络安全、算法歧视等风险类型本质上并没有超出现有的技术风险治理框架,数据安全法、网络安全法和《互联网信息服务算法推荐管理规定》等法律法规对此均有提及,并且监管机构和平台也能够采取技术手段实现高效的事前监管效果。进一步而言,人工智能技术治理活动应当分阶段、分重点,在不同的技术创新发展阶段,技术风险的类型、特征具有不同特点,倘若“眉毛胡子一把抓”,显然无法从根本上规制技术风险,只会让技术风险危害性逐步加深。因此,在现阶段人工智能技术治理的首要任务应当是全面预防和治理滥用人工智能生成违法信息内容,保障网络信息生态安全。

在治理方式层面,监管机构、平台运营者、技术研发者以及用户应当共同参与到人工智能技术治理活动中,以网络信息生态安全为基本导向,细化多元主体共治的基本内容,避免陷入单一主体承担责任的治理误区。对于技术研发者而言,应当将技术研发与安全评估同步实施、同步进行,在相关信息服务商业化应用之前,进行算法安全风险评估、科技伦理审查,重点对生成内容的合法性和可控性进行评估和调整。对于平台运营者而言,应当严格落实网络实名制的基本要求,在用户注册和使用时,提醒用户合理使用人工智能信息技术服务。同时,平台运营者应当定期更新优化信息内容审核机制,一方面以关键词、图片自动化识别等方式屏蔽、删除明显违法的网络信息内容,另一方面要求用户在上传人工智能生成信息时进行标注和说明,用以提示其他用户该信息内容的来源和产生方式。对于监管而言,应当适时调整监管模式,除了社会公众举报投诉等传统方式之外,还可以充分利用监管技术,以人工智能监管技术辅助识别可能涉嫌违法违规的人工智能生成信息。此外,还需要根据技术创新发展趋势,周期性调整人工智能技术重点监管事项,重视科技伦理审查机制的灵活性,引导人工智能产业良性发展。对于用户而言,应当合理使用人工智能信息服务,树立法治观念,充分认识到发布网络虚假信息可能承担的法律责任;也需要保持警惕意识,不轻信非正规来源的网络信息,理性发布网络评论信息。

人工智能技术治理难以“毕其功于一役”,需要在技术创新发展的进程中抓住技术风险的主要内容和作用方式,适时调整和更新治理理念和治理方式,方能消解人工智能技术滥用所导致的社会危害性。

声明:本站为非盈利性赞助网站,本站所有软件来自互联网,版权属原著所有,如有需要请购买正版。如有侵权,敬请来信联系我们,我们立即删除。