向玉乔 卢明涛
近期,ChatGPT在世界范围内吸引了众多眼球,可谓掀起了一场不小的风暴。3月16日,百度在北京总部召开新闻发布会,主题围绕新一代大语言模型、生成式AI产品“文心一言”,也引发了各方强烈关注。两款自然语言驱动工具以强大的信息检索能力、超强的文本生成能力,获得公众青睐,尤其是ChatGPT引发席卷全球的体验浪潮。但应用方面,ChatGPT面世不久就在很多国家高校、企业、政府部门遭到禁用。出现这种局面的原因,显然是出于伦理方面的担忧,而非技术方面的考虑。
伦理尊严是人的基本尊严,多是指人在生物学意义上的尊严,即人的生命形式所享有的、区别于物和其他生命形式的一种特殊的尊贵和庄严。它基于人的道德本性、道德人格、道德身份和道德价值而挺立,是人类最看重的部分。人因为具有伦理尊严而具有高贵性,也因为伦理尊严而受到他人尊重,伦理尊严是人的根和魂。
进入人工智能时代之后,人工智能技术产品(人工智能体)与人类的伦理关系问题以前所未有的方式凸显出来。ChatGPT出场不久,就在世界范围内引发了各种伦理问题的担忧。有些中小学生利用它完成作业,得到老师高度评价;有些大学生利用它撰写学术论文,得到了杂志编辑好评;有些企业员工利用它撰写工作方案,竟然得到了经理的表扬……总而言之,ChatGPT简直就是“人”,几乎能够完成人类的大部分语言智能工作。
如不加限制地大规模投入使用,ChatGPT之类的人工智能产品至少会引发三个伦理问题。一是可能让人类变得懒惰。长期以来,人类一直将勤奋劳动、学习和工作视为具有道德价值的活动。特别是进入现代社会以后,人类以劳动、学习和工作为荣的道德价值观念得到了极大增强,大部分人在劳动、学习和工作中追求人生价值。如不加制约,ChatGPT一类的人工智能产品客观上可能导致越来越多的人变得懒惰。二是引发更多学术不端的行为。ChatGPT是一种算法能力很强的人工智能体,在全新检索、交互服务、网络内容、数据处理等方面具有更强的整合或聚合能力。教育界和学术界普遍认为,它所能做的整合或“聚合”工作,类似人们的抄袭、洗稿、作弊行为,必定会扰乱人类社会的学术诚信体系,且难以进行强有力的伦理治理。三是导致信息茧房问题更加突出。互联网时代,无需花费太多力气和成本,轻轻点击手机屏幕就能召唤出包罗万象的信息和知识,通过与网友的交流互动即可对许多问题释疑解惑和深化认识。ChatGPT提供了一种更加高级的人机对话平台。人们越来越容易迷失自我,陷入信息茧房营造的环境中。信息茧房将加剧网络群体极化,从而削弱社会粘性。
一方面,人类需要科学技术。科学技术是推动人类社会发展的强大动力。人工智能技术的出现是人类在科学技术领域取得的重大进步。人工智能技术产品的不断推陈出新也确实给人类带来了值得肯定的福祉,因此应该推动应用。
另一方面,ChatGPT等类似产品的使用必须进行技术和伦理上的双重限制。一旦人工智能技术产品触碰到人类的伦理底线或红线,它们的使用就应该受到技术和伦理限制。这两种限制应该相互支持、相辅相成。其一,技术限制是伦理限制的必要条件,没有技术限制,伦理限制难以实现;其二,伦理限制也是技术限制的必要条件,没有伦理限制,技术限制必然沦为空话。如果这两种限制缺位,它使用的前景必然暗淡无光。
(作者分别系湖南师范大学道德文化研究中心教授,湖南师范大学道德文化研究中心在读博士)