成剑文 朱婷婷
中央经济工作会议提出,要“发展数字经济,加快推动人工智能发展”。中共湖南省委十二届五次全会强调,要积极培育发展新一代信息技术及人工智能等战略性新兴产业。生成式人工智能(AIGC)最早可追溯到20世纪50年代,但直到2014年生成式对抗网络模型被提出,才开始实质性发展。它是指基于生成式对抗网络、大型预训练模型等人工智能的技术方法,其核心思想是利用人工智能算法生成具有一定创意和质量的内容。2022年11月,以ChatGPT为代表的生成式人工智能的崛起,拓展了信息产业新赛道。百度、阿里、商汤等纷纷下场AIGC赛道,发布自己的大模型产品,引发“百模大战”。在消费端,生成式人工智能可生成海量的内容产品,提升用户体验;在产业端,生成式人工智能可带动信息安全、集成电路、工业软件等产业发展,促进信息产业的优化升级和结构调整,是助力数字经济高质量发展的新引擎。近年来,湖南相关高校及科研院所加大知识推理、人机交互、智能计算、人机协同、深度学习模型框架与算法等生成式人工智能核心技术的研发,不断丰富生成式人工智能应用场景。中联重科、三一重工等企业积极研发智能化无人驾驶挖掘机、矿用自卸车、隧道施工装备等,蓝思科技、湘邮科技、长沙海格等企业则加大了智能终端、智能可穿戴设备技术、图像识别、语音识别、智能搜索等技术的应用。
生成式人工智能在释放巨大应用价值和潜能的同时,也带来了数据泄露、隐私保护、侵权归责、科技伦理、算法歧视等多方面风险和挑战。鉴于此,应紧跟生成式人工智能更新迭代脚步,为其规范应用“把方向”“划底线”“分好工”,以确保其被科学、合理、适度使用,推进信息产业健康发展。
为生成式人工智能的规范应用“把方向”。推动我省生成式人工智能规范应用、可持续发展,既要发挥监管手段的作用,也要注重加强国际交流与合作。一方面,创新监管模式。相关职能部门应摆脱传统监管思维和监管方式,尽可能弥合技术快速发展与监管滞后之间的矛盾,密切关注生成式人工智能技术的最新进展和趋势,加强与技术领域的联系,共同探讨规范生成式人工智能应用的可行路径。针对技术潜在风险做好充分准备,以把握战略主动。另一方面,向国际社会取好“发展经”。立足于全球化思维,鼓励政府相关部门、研究机构、学者以及企业家等积极参与国际交流与合作,对生成式人工智能的潜能和风险加深理解、加大前瞻性研究,探索形成具有全球共识的生成式人工智能的治理框架和标准规范。
为生成式人工智能的规范应用“划底线”。生成式人工智能的创新应用究竟会对谁、产生何种类型或何种程度的风险,并不能完全预知。只有在应用中不断探索治理方法,才能使其在合乎科学伦理的轨道上运行发展。一是明确生成式人工智能的应用范围。综合考虑具体应用需求、技术能力、伦理规范以及社会责任等多方面要求和限制,对生成式人工智能技术的应用场景提出明确的“负面清单”,将技术应用范围控制在政策目标体系之内。二是强化数据安全和隐私保护。在深入理解生成式人工智能技术逻辑的基础上,加大研发与之适配的数字安全防控技术,对可能发生的技术风险进行监控和及时预警。还应从数据生命周期视角,在数据采集、数据存储、数据使用、数据管理等各个环节建立健全相应的制度规范,以有效应对生成式人工智能应用可能带来的数据安全问题。三是完善责任机制。“负责任创新”已成为当前科技发展的重要理念,应围绕生成式人工智能的研发者、提供者和消费者等不同主体,聚焦责任界定、侵权行为、违规处置、争议解决等方面,构建一套合乎逻辑又契合发展需要的责任共担机制。
为生成式人工智能的规范应用“分好工”。规范生成式人工智能应用是一项复杂的系统性工程,需要探索建立政府、科技企业、行业协会以及社会公众协同发力的合作机制。政府应发挥主导作用,健全相关法律法规和技术标准,推动强化各部门之间的协同治理;科技企业应秉承对用户负责原则,加强伦理自律,建立针对生成式人工智能运行全生命周期的风险评估机制,自觉承担数字应用的社会责任,避免技术滥用和侵犯用户权益;行业协会应在法律法规指引下制定行业规范和行业标准,明确生成式人工智能的使用边界,厘清从业者责任与义务,构建严密的风险防御体系。此外,应激发社会公众积极参与对生成式人工智能应用的评价与监督,及时发现并消除潜在风险。
【作者分别系湖南城市学院信息与电子工程学院副教授,中国社会科学院大学政府管理学院博士生。本文为湖南省社会科学成果评审委员会项目“无人驾驶汽车运行数据的政府规制研究”(XSP2023GLC015)研究成果】