刘鹏教授在《经济日报》发表署名文章

    2024-01-05 11:47
    浏览:4624

      1月3日,,,,中央直属党报《经济日报》在10智库版发表刘鹏教授署名文章《探索共享与监管动态平衡》。。刘鹏教授与多位专家在该版面共同探讨了“如何推动人工智能安全发展”这一话题。。。。

     

      相关链接:

      ● 刘鹏教授文章链接:

      https://proapi.jingjiribao.cn/detail.html?id=500124

      ● 其他专家智库圆桌讨论文章链接:

      

     

     

    以下为刘鹏教授文章全文:

     

      以ChatGPT为代表的生成式人工智能掀起新一轮热潮。。。与此同时,,数据泄露、、隐私窃取、、算法歧视等数字安全风险不断显现,,,迫切需要寻找共享与监管并重的动态平衡范式,,,,守住人工智能时代的数字安全底线。。。。

     

      纵观全球,,,,中国、、美国和欧盟作为探索数字安全和数字治理的先行者,,无论是技术创新还是立法规范都走在世界前列,,同时也存在差异。。在相同点方面,,,,均高度重视算法治理,,,将算法安全嵌套在数据安全中,,实行数据与算法协同治理;在差异性方面,,,,虽然同样强调个人隐私安全,,美国以鼓励创新为核心,,,,更注重数据自由流动,,倾向于以行业自律进行治理。。。。欧盟注重个人隐私保护和立法,,探索和引入人工智能监管沙盒机制,,,,并发布首部人工智能监管法案。。这些经验做法,,,,对我国数字安全治理具有一定参考价值。。

     

      我国加快推动人工智能发展,,,需形成政府、、、企业、、、社会组织和个人合力,,在协同数据和算法治理、、、、保障生成式人工智能安全等方面实现重点突破。。

     

      第一,,,,启动国家人工智能数据和算法工程。。建立安全标准,,分门别类对数据和算法进行管理,,,,提升数据互操作性以及算法透明度,,,改变过去个人或企业单打独斗的局面。。

     

      自动检索风险指标。。。。开发针对人工智能应用网络的早期预警系统,,,对网络资源进行常规监控和过滤,,对于不符合政策要求的危险因素、、劣质数据和不良信息,,,及时清除或屏蔽。。。通过该预警系统自动检索关键风险指标,,,,及时补救,,防止再出现类似安全漏洞。。。

     

      甄别人工智能生成内容。。。。从源头上,,为人工智能生成内容打上标记。。。深度合成服务提供者提供深度合成服务,,,,可能导致公众混淆或者误认的,,应在生成或编辑的信息内容的合理位置、、、区域进行显著标识,,,向公众提示深度合成情况。。

     

      加大人工智能生成内容检测工具开发和优化。。目前针对人工智能生成的图像、、、文本等已出现相应检测工具,,,,用于区分人工智能生成的内容和人类创造的内容,,,,但准确率不高。。亟需加大对数据、、、、算法、、、模型的研究,,开发精准的生成式人工智能检测工具,,,真正实现“以AI测AI”。。。

     

      加强人工智能数据共享。。。数据、、、算法、、算力是驱动人工智能发展的“三驾马车”,,,,其中数据是人工智能发展的养料,,例如仅GPT-4的训练数据集就包含约13万亿个词元。。。。如果缺乏足够的数据,,,,人工智能发展无异于“无米之炊”。。。

     

      推动中文数据集共享。。。由于语言特点、、、获取成本、、开源程度以及数据集质量要求等原因,,,相较于英文数据,,,,目前中文数据集规模较小。。。。基于中文的人工智能开发,,,,可通过国家人工智能数据工程汇总高质量中文数据集,,,并促进数据分类分级有序共享,,,使安全性和服务质量得到大幅提升。。。。

     

      第二,,,,加强生成式人工智能监管。。。。推进全球沟通和探讨,,通过网络数据安全管理、、个人信息保护、、、数据审计等法律法规进一步完善生成式人工智能监管。。。。统筹数据安全与算法治理,,,,针对金融、、、医疗等不同行业领域以及算法歧视、、、、算法黑箱等问题,,,开展多层次和精细化监管。。。。开展多模态智能分析,,,在大模型领域引入文本、、图像、、语音等,,,,在训练和应用过程中细化对不同元素的监管,,,通过功能模块设计,,及时发现问题并防范风险。。

     

      切实保障数据安全。。使用生成式人工智能产品过程中,,,,也在同步收集用户数据和信息,,,可能引发潜在隐私安全问题。。。。对此,,应扩大安全使用指南宣传。。。例如,,不主动分享敏感信息、、关闭聊天记录等,,,基于专门的云服务运行,,从访问控制、、、、数据加密、、、、网络连接等方面加强保护。。对于数据敏感度较高的用户,,,,通过敏感信息过滤一体机进行识别筛选,,,,可有效避免大模型产品在提供服务时产生不可控信息。。

     

      构建特定知识库。。。。基于特定知识库提供人工智能服务,,,可在一定程度上避免虚假错误信息,,提升准确性和安全性。。。。建议借助大模型训练推理一体机,,,,通过本地化训练和推理,,,,在保护用户数据隐私的前提下构建特定知识库。。。

     

      第三,,,,在国际层面,,积极与联合国及主要国家沟通交流,,,达成全球规避人工智能风险共识,,推动对所有大型人工智能科研项目实施备案和风险评估制度。。在国家层面,,,,组织专家团队潜心进行人工智能风险评估和研究相关立法,,加强网络安全关键技术研发,,加快人工智能安全技术创新,,提升网络安全产业综合竞争力。。。。

     

      (作者系中国大数据应用联盟人工智能专家委员会主任)


    站点地图