让人津津乐道的ChatGPT,显然成为了全国两会的热门话题之一,全国人大代表、科技部部长王志刚在部长通道表示,应用ChatGPT更需要注意科技伦理方面的趋利避害。 的确,科学技术是一把双刃剑,因为它既能通过促进经济和社会发展以造福于人类,同时也可能在一定条件下对人类的生存和发展带来消极后果。 那么,以ChatGPT为代表的人工智能有哪些害需要规避呢? 首先,所生成内容难辨真伪,加剧深度造假风险。人为使用语言技巧,可以规避程序自身的伦理限制,自动快速生成虚假信息文本。更为严峻的是,ChatGPT的高智能化生成内容看起来更具逻辑性,更有可信度,让普通用户难辨真假。比如,上月网络疯传一条关于杭州市政府3月1日取消限行的消息,后被证实是ChatGPT生成的文章被误传。由人工智能聊天机器人编撰的、带有明显目的性的信息一旦大量出现,极易影响公众认知,进而左右社会舆论。 本质上,ChatGPT是由人编写的算法生成的,不可避免地带有编写者或支持方的自我价值偏见。在人机交互过程中,普通受众通常会有意无意地将他们固有的偏见和情绪传递给智能机器人。因此,ChatGPT有学坏和失控的可能,传播不良导向。2月7日,微软推出由ChatGPT支持的新版必应(Bing)搜索引擎,在其上线48小时内,测试者很快发现这款聊天机器人的问题。它有时候会威胁用户,会固执己见,还会出现人身攻击、PUA网民、开黄腔、编造数据等失控现象,甚至还勾搭用户。 此外,ChatGPT在隐私保护、知识产权等方面存在风险。一旦通过ChatGPT接口平台,问一些涉及个人、企业等敏感信息的问题,这些信息便会暴露给接口公司,还会上传至OpenAl的服务器,存在暴露隐私的潜在风险。在知识产权方面,ChatGPT被广泛用于生成专业文档和代码,引发论文造假、知识产权侵犯及归属争议;非法使用方面,ChatGPT可能被用于辅助编写网络钓鱼代码、勒索软件等非法用途。从全球范围来看,美欧等法律领域均已关注到这一问题,在其正在研制或起草的规则中已涉及相关内容。 为规避人工智能带来的科学伦理风险,我国出台了《互联网信息服务算法推荐管理规定》《新一代人工智能治理原则发展负责任的人工智能》等规章制度,加快构建人工智能监管体系,防止人工智能被恶用。2022年9月,深圳、上海也先后发布了人工智能产业领域的规范条例。 目前,国内多家企业已相继宣布有ChatGPT相关业务布局,在今年的全国两会上,科技创新的号角再一次吹响。王志刚举了两个生动的例子:同样一种原理,在于做得好不好。比如发动机,大家都能做出发动机,但质量是有不同的。踢足球都是盘带、射门,但是要做到梅西那么好也不容易。ChatGPT要作人工智能场上的球王,最终要比拼的是靠科技伦理加持,让正确价值观注入,对人类文明发展起着进步的贡献。