数智周刊丨共筑隐私保护屏障 护航数字经济健康发展(林春霞等 中国经济时报)
数字经济的伦理重塑
编者按
人工智能相关技术大踏步向前,在引领科技浪潮呈现澎湃之势的同时,对个人隐私保护、诸多行业冲击、数字产权经营等的影响,犹如巨石落水,在历经一场绚烂波澜之后,涟漪仍在不断向外延扩散。这让各界开始认识到必须对科技进步背后的伦理问题加以重视,同时也在思考一道“必答题”:如何规范科技伦理、趋利避害?
数智前瞻
(林春霞)
近期,以ChatGPT为代表的人工智能技术(AI)在引起各界感叹新技术带来一系列革新的同时,也在开始关注科技伦理的规范问题,其中,加强人工智能应用中的个人信息等隐私保护成为焦点之一。
工业和信息化部近日对部分破解版APP违法违规收集个人信息问题高度重视,称将持续开展移动互联网应用程序(APP)侵害用户权益专项整治行动。此外,近日发布的《新时代的中国网络法治建设》白皮书也指出,伴随数字经济快速发展,非法收集、买卖、使用、泄露个人信息等违法行为日益增多,严重侵害了人民群众人身财产安全,影响了社会经济正常秩序。
准确认清监管不足
与企业利益驱使因素
近年来,关于个人信息保护的力度不断加大,并出台了《个人信息保护法》《电信和互联网用户个人信息保护规定》等有关法律法规。然而,用户个人信息泄露却屡禁不止,原因何在?
中国社会科学院信息化研究中心主任姜奇平在接受中国经济时报记者采访时认为,这背后有多方面原因,包括企业经营模式、监管缺失、技术手段被恶意利用等。同时,也存在网络信息监管力度不够、部门间协作不足、违法成本较低等因素。
“APP过度收集个人信息,实际上是人为造成更多信息泄露的潜在风险。”清华大学互联网产业研究院副院长刘大成在接受中国经济时报记者采访时表示,今后,个人生物特征要尽可能减少采集,特别是人脸识别、步态、指纹、虹膜、声纹等生物特征。
刘大成认为,手机里许多APP在利用人工智能的形式,特别是ChatGPT的商用让互联网技术快速迭代,也加剧了个人隐私数据泄露的风险。人工智能是在大数据和云计算,特别是在现有的算力和算法上高度聚集,AI内容生成的过程也会对用户决策、偏好进行窥探,同时通过推送不断进行校验。这本身就会涉及到个人隐私的保护与规范问题。因此,对个人而言,要尽可能避免被人工智能窥探自己的生物特征。
“要在法律规定上明确禁止收集生物特征进行生物验证的范围和界限,特别是明确企业未经授权不能进行相关信息采集或泄露。”刘大成说。
强监管靠全社会
共筑个人信息保护屏障
姜奇平认为,随着人工智能时代的到来,必须不断强化监管措施,同时,确保全社会共同筑起一道个人信息保护屏障。
姜奇平认为,一是加强法规建设。政府应加大对人工智能应用企业的监管力度,建立更加完善的法规体系强化个人信息保护;二是企业在开放人工智能技术应用过程中充分考虑隐私保护;三是加强用户教育,提高安全意识;四是依靠技术手段加强个人隐私保护,如采用区块链技术优化用户信息保护与安全;五是让个人信息的开发与利用,真正用到提高客户体验服务上,鼓励商业创新。
刘大成则认为,监管部门要不断加强对APP监管,通过分类分级保护制度,使数据安全整体得以提升。“在大数据和互联网时代,要认清每个人都是保护自己隐私的第一责任人。”刘大成表示,这需要个人、企业、社会和政府相互之间密切合作,共同来进行有效治理,共同防范个人隐私被过度使用或被不良使用。
当前,促进数字经济发展,不断强调加强个人隐私保护和监管恰逢其时。在姜奇平看来,加强对移动互联网APP的监管,规范APP开发、运营和服务的行为,推动企业加强自律,增强用户信息保护意识,有效增强监管部门的执法能力都是促进数字经济健康良性发展的必要手段。
在姜奇平看来,《新时代的中国网络法治建设》白皮书明确了互联网行业应该遵循的法律法规,特别是在知识产权、个人信息保护等方面,提出了一系列加强监管和执法的举措。这将有效净化网络市场,规范网络秩序,保护消费者的合法权益,营造一个公平竞争的环境。
“《新时代的中国网络法治建设》白皮书的发布是中国首次通过白皮书的方式,对海内外介绍中国网络法治建设情况,其所传递的积极信号在于,我国将继续深入推动网络法治建设,继而持续促进网络空间更加健康有序发展。”姜奇平表示,这也将为今后以人工智能为代表的互联网空间贯彻个人隐私保护要求,寻求规范有序健康良性发展形成警示。
数智访谈
须对规范数字产权经营及其伦理未雨绸缪
——访中国文化产业促进会副会长兼元宇宙文化产业分会会长陈少峰
(李海楠)
建设数字中国是数字时代推进中国式现代化的重要引擎,是构筑国家竞争新优势的有力支撑。其中,推动数字经济健康发展与数字中国建设目标息息相关。
中国文化产业促进会副会长兼元宇宙文化产业分会会长陈少峰认为,数字经济的核心是数字产权经营和元宇宙的跨界应用,涉及数字化和产业深度融合。由此衍生出的数字产权经营及其伦理规范问题,事关数字经济能否长远向好发展。他对中国经济时报记者表示,须从立法、行政角度,结合技术进步和实践应用,提早研究、未雨绸缪,强化数字产权经营保护,确保数字技术趋利避害地应用于数字经济各领域。
数字化带来产业机遇方兴未艾
“智能聊天机器人可以进一步衍生出虚拟人,从而酝酿出新一代互联网商业智能化应用。”陈少峰认为,当前,元宇宙和人工智能的融合应用高度吸睛,让全球劲刮“AI风潮”。
在陈少峰看来,元宇宙的跨界应用是数字技术综合应用及其与人工智能的融合应用,包括各领域、各行业都有与元宇宙的跨界应用潜力和机会。因此,用元宇宙视角审视未来的数字化十分必要。他强调,元宇宙是技术的集成体系,绝不简单等同于虚拟现实。今后各行业数字技术都会和元宇宙场景产生联系,因此应该深入思考数字化和产业间存在的微妙关系。
首先,应区分事业和产业区别看待数字化应用。陈少峰认为,除具体产业的数字化应用外,文博信息、资料、文化元素的数字化需要很大经费支持,而且预期产业收入不大,显然这需要国家层面加以考虑。
其次,数字化是一种技术应用,解决不了商业模式的缺失问题。“并不是大家热衷的东西都有好的商业模式。”陈少峰举例,比如很流行的数字藏品就没有商业模式,但包括数字艺术品在内的数字产权经营正在出现可以实现盈利的商业机会。
第三,有商业模式创新的数字化趋势不可逆转。陈少峰认为,商业模式形成应以能否带来社会、管理、经济效益提升为标尺,比如,智慧文旅和智慧城市建设是否带来了地方税收的增加和城市管理效能的提升等,反之一旦企业通过数字化改造徒增经营成本,则难出现新的商业模式。
第四,数据的共享和使用。比如,在大数据分析后,涉及到国家安全等敏感信息的加以隐蔽,剩余数据可经过分析处理后,遴选出对于经济社会发展有用的内容加以公开,让更多组织、企业充分使用资源,降低数据采集带来的重复劳动和相应费用,避免在数字经济潮流下的盲目决策和发展。
明确数字产权边界,让科技与伦理和平共处
数字经济广泛存在于社会生活的方方面面。比照工业社会资本与劳动之间的对立关系延伸看去,数字经济链条上的劳动者或许正在或即将遭遇更为隐蔽和异化的不对等。在数字经济背景下,重塑科技与伦理二者间的关系,亟须立法与实践尽快衔接,提升适配度。
“数字经济围绕数字产权交易进行,这也让相应的权责规范日益迫切。”陈少峰认为,应先认清现阶段数字产权的类型,包括物权、版权(专利权、著作权等)、特殊权益或者特殊产权(如粉丝量)、特定使用权(如微信公众号或者抖音账号)、新型经营权(如视频主播电商经营)。
新特征的产权类型也带来了更为复杂的数字产权结构。陈少峰介绍,现阶段依托大型平台产生出的个人账号、公众号及其积累的内容,并不能直接定性为数字产权,但其影响力却真实存在,比如拥有动辄百万、千万粉丝量的带货主播,其拥有的产权与平台之间的关系并不对等,随时可能面临被拉黑、禁言的处理。
“此外,对于人工智能技术应用对数据内容重新标签重组后生成的内容推荐,平台要善用算法避免推荐不良信息。”陈少峰认为,对于新生事物,实践中往往因实践先行出现行政在先、立法在后的问题。他建议,“要评估行政手段和措施对于数字经济的发展,让数字经济平台上积累的数字产权得到应有的良性保护,这就需要从长远谋划规范和立法,标本兼治解决数字产权保护和利益冲突问题。”
明晰了产权边界,数字产权经营必定迸发惊人力量。“让巨额数字资产转化成实际价值,需要对所有权、经营权进行明确,一旦实现可交易,将对于税收和增值收益带来巨大的促进。”陈少峰认为,未来,数字产权有潜力成长为经济发展和产业发展的最大领域之一,数字资产的交易规模也将取代房地产交易。
在陈少峰看来,数字经济以交易为基础,必须形成一级市场和二级市场,交易范围、交易频率、平台主体等均可限定,但总原则应该以“极大活跃交易”为特征。他强调,要确保内容监管与市场监管一致,避免内容监管过严和市场监管过宽,同时对事业单位和国企以及民营主体监管一视同仁。
“数字产权经营涉及确权、估值、交易、法律服务、交易平台、新型网红经纪服务(涉及明星经纪和带货服务)等。”陈少峰提醒,随着数字经济快速发展,未来我们还会面临真人与数字人、虚拟人的产权归属,数字人创造的作品版权归属以及由此产生的经济收益确权,机器人是否需要缴纳所得税等问题。
数智讲堂
人工智能伦理问题及趋利避害思考
(阮诗玮)
目前,ChatGPT类的大语言模型人工智能技术及产品(以下简称“ChatGPT类技术”)风生水起,带来已知伦理风险主要有以下几个方面。
一是AI抄袭风险。ChatGPT类技术以海量信息为食,再按照需求,模仿人类思维模式,加工、整理、输出相关信息。可将这一过程理解为高水平的“洗稿”过程,且其规避“查重”的能力也会越来越强。未来任何需要输出文字信息的领域,如科研、新闻、行政、广告等都可能遭遇到无处不在的ChatGPT抄袭风险,造成更多学术不端、创意剽窃、知识产权侵犯等情况。
二是信息泄露风险。ChatGPT类技术“吃”信息并不挑食,包括个人隐私信息、政府敏感信息、公司商业机密等。这会带来其智能化水平越来越高。未来将不得不在提升AI能力和保护数据安全之间作出平衡、取舍。
三是未成年人保护风险。ChatGPT类技术可作为能力高度进化的搜索引擎,具备超强的信息检索与整合能力。这让未成年人又多了一个通过网络获取不良信息的超级利器。要提醒的是,对于学习能力很强的青少年而言,欺骗ChatGPT从而获取不良信息不会是太困难的事情。
四是价值观渗透风险。和之前所有的网络技术、产品一样,ChatGPT类技术本身并没有价值观取向,但开发、训练、维护它的个人和组织,很容易植入某种想传达的价值观,通过“夹带私货”达成“不可告人的目的”。
五是劳动者失业风险。ChatGPT类技术作为人类研发的技术,核心功能肯定是要服务人类,给社会带来便利。但是和所有的技术进步一样,ChatGPT的大规模应用势必会使现有的一部分人类工作岗位被机器(AI)替代。和工业化时代以来机器主要替代体力劳动者不同,ChatGPT将会替代掉相当一部分脑力工作者,即我们俗称的“白领”。
六是恶意改造风险。ChatGPT类技术投放市场后,每个人都是它的“训练师”。这意味着如果有意向ChatGPT这个“不谙世事”的“小朋友”投喂不良信息,它就很有可能被培养成“不良青年”。
针对以上伦理风险,笔者从以下六点加以思考和建议。
一是关于应对AI抄袭风险。建议在开发ChatGPT类工具时,同步开发反抄袭工具,以保护原创者权益,方便其被抄袭时进行维权。此外,还要形成各类严肃文献借助Chat?GPT类技术生成内容时主动进行标注的规范性要求。
二是关于应对信息泄露。根本上还是要加强信息安全管理,比如给互联网上的各类信息、数据加上AI容易识别的标签,让ChatGPT类技术及其产品清楚地知道到自己“吃”进去的信息哪些是不能公开的隐私、机密、争议信息,以便生成内容时尽可能规避。
三是关于保护未成年人。必须像现在的视频类APP一样,要求ChatGPT开发针对未成年人的绿色版。这个绿色版可以直接开放给所有网民使用。对于更强大、开放的全功能版,可以像管理网游一样,要求使用者提供自己已成年的相关证明。
四是关于应对价值观渗透风险。这方面最重要的还是要加强我国自有的ChatGPT类产品研发,最大限度地减少此类产品的“进口”依赖。只有自主产品占了绝对上风,所倡导的价值观才能在此类产品输出的内容中体现出压倒性的优势。可对提供产品和服务的企业从“根子”上进行依法管理,让企业主体主动规避渗透风险。
五是关于应对劳动者失业风险。ChatGPT类技术的出现、发展、应用将进一步解放人类,使人类从更多繁重、重复的智力劳动中解脱出来,对人类社会利大于弊。我们要尽快调整、适应。ChatGPT类技术广泛使用后的时代,在培养人才时就须考虑是否会被ChatGPT替代等因素,就像培养技工时要考虑智能制造技术带来的影响一样。
六是关于应对恶意改造风险。全面完善与AI相关的技术伦理标准,强制要求AI类产品必须具备符合公序良俗的基本是非判断。同时引导开发者加强ChatGPT类技术对恶意信息的识别能力,使其对恶意信息产生“排异”反应,主动拒绝“食用”,不将其作为自己成长进化的“原料”。
ChatGPT类技术目前还处于爆发前夜,仍在快速迭代之中,未来有着无限可能。对于AI类技术以及机器人相关技术,必须不遗余力确保技术应用符合人类共通的伦理标准,服务个人发展、服从国家规范、造福全人类,这点不能偏离。
(作者系福建省政协副主席,民盟中央常委、福建省委会主委)