第04版:要闻 上一版3  4下一版
 
版面导航

第01版
头版

第02版
要闻

第03版
要闻
 
标题导航
首页 | 版面导航 | 标题导航 |
2023年09月17日 星期日
3 上一篇  下一篇 4 放大 缩小 默认
大模型亟须“紧箍咒”

  湖南日报全媒体记者 王亮

  在计算领域,若论今年上半年哪类产品或者概念最火,非大模型莫属。

  9月16日,在2023世界计算大会“数据安全与合规治理”计算安全论坛上,西安电子科技大学教授王皓针对大模型郑重发声:“大模型很好,但也面临法律、道德、隐私等一系列问题,亟须做好监管。”

  以国外的ChatGPT、国内的文心一言为代表的通用大模型,是由人工智能技术驱动的自然语言处理工具,能够真正像人类一样来聊天、交流,完成撰写邮件、文案、代码、论文等复杂任务。目前,国内外众多网络科技公司纷纷推出了自己的通用大模型。

  “大模型作为人工智能发展到一定程度的产物,因为发展时间短,信息保护比较脆弱,容易导致信息泄露。”王皓介绍,“近期一些大模型被人通过特殊的表述和语言,获取了大量的手机IMEI码或者Windows激活密钥,造成安全风险。”

  信息泄露还不是最可怕的,“邪恶大模型”的出现,更让业内感到忧心忡忡。

  王皓介绍:“‘邪恶大模型’是别有用心的群体或个人,专为攻击性活动设计的人工智能对话机器人。它们可以根据简单提示,就创建出破解工具、钓鱼邮件,甚至恶意的攻击软件,进行一些危害个人或者社会的事情。”

  目前,全球范围都已意识到大模型迅速发展暴露出的问题。我国上半年出台了《生成式人工智能服务管理暂行办法》,欧洲、美国也颁布了一些初级的协议、权力法案,开始加强对大模型的约束。

  “立法是第一位的,要尽快厘定哪些领域属于违规、违法,并进行严厉打击。另一方面,继续加强研发,从技术进步的角度不断完善大模型。”王皓说道。

3 上一篇  下一篇 4 放大 缩小 默认
  © 版权所有 湖南日报报业集团 
copyright © 2008 VOC.COM.CN, Geo Info. All Rights Reserved
互联网新闻信息服务许可证:4312006003 经营许可证:湘ICP证010023 ICP备案号:湘ICP备10011883号