中网资讯

当前位置:主页 > 中网资讯 > 新闻 >
生成式人工智能进入合规发展阶段
浏览: 发布日期:2023-08-22

  8月15日,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局公布的《生成式人工智能服务管理暂行办法》(以下简称《办法》)正式施行,有望促进生成式人工智能健康发展和规范应用。

  “生成式人工智能技术快速发展,为经济社会发展带来新机遇的同时,也产生了传播虚假信息、侵害个人信息权益、数据安全和偏见歧视等问题。”文渊智库研究员王超接受记者采访时表示,《办法》的正式实施,是促进生成式人工智能健康发展的要求,也是防范生成式人工智能服务风险的需要。

  监管不搞“一刀切”

  生成式人工智能是指具有文本、图片、音频、视频等内容生成能力的模型及相关技术,自去年底起在各行各业大规模落地应用,在提升效率的同时也乱象丛生。

  新壹科技CEO雷涛告诉记者,与判别型人工智能风险主要集中在算法的歧视和滥用上不同,生成型人工智能存在更多知识产权争议和更复杂的数据风险,同时滥用生成内容在技术上可能会给监管带来更多挑战。“特别是随着大模型的不断迭代,其生成内容的真实性、偏向性与原创性在技术上越来越难以判别,也给监管造成较大压力。”

  在教育行业,生成式人工智能大多在辅助教学、自动批改作业、优化教育资源以及个性化学习和兴趣激发上具有智能、提效的作用。即便如此,但iEnglish智能英语学习解决方案技术研发负责人贾先好认为,这些应用带来的版权、作弊,以及数据与隐私安全风险等系列问题,也需要引起足够的重视。他表示,《办法》明确了提供和使用生成式人工智能服务应当遵守相关法律法规和伦理规范,对于保障人工智能的安全、可靠和透明使用具有重要意义。“《办法》的正式施行,标志着我国对生成式人工智能的管理进入了新的阶段。”

  《办法》提出坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管。

  雷涛认为,这种包容审慎和分类分级的监管明确供应商主体责任,在创新和有效监管之间取得了平衡。“《办法》符合对人工智能进行分级、分类管理的趋势,实现了监管科学化、精细化,避免了‘一刀切’式的监管措施抑制人工智能技术创新。”

  产业应该积极应对

  生成式人工智能大规模落地应用,大模型居功至伟。日前发布的《中国人工智能大模型地图研究报告》显示,我国人工智能大模型产品已经发布超百余个。

  基于大模型研发应用全产业链,数据及安全便成为重中之重。《办法》明确,生成式人工智能服务提供者应当依法开展预训练、优化训练等训练数据处理活动,使用具有合法来源的数据和基础模型;采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性。此外,还明确了数据标注的相关要求。

  显然,这些规定让此前在数据采集、加工和应用方面呈野蛮式发展的厂商压力倍增。雷涛认为,这种阵痛是短暂且必须的,虽然当前生成式人工智能依然是一个辅助人类创作的技术工具,但不可否认的是其巨大潜能以及广阔的应用场景,产业链上的企业都应是立足于自身做好研发追赶,而绝非回避。“《办法》的施行,将有助于明确企业技术拓展和使用的边界,新技术、新场景只有在合理的规范体系下,才能不断推动行业进步,进而形成良性的行业生态。”

  “作为全球范围内较早关注生成式人工智能服务治理的规范性文件,《办法》为生成式人工智能服务划定了底线,提供了方向。”王超提醒,产业相关企业应该以积极开放的态度面对《办法》的施行,并结合自身优势、探索生成式人工智能技术的创新应用场景,不断完善自身的应用生态体系。