顶级科技领袖联合倡议:暂停“超级智能”关键研发 启动全球治理对话

发布于:2025-10-26 15:24:23 阅读:65

  近日,来自全球多家科技企业、高校与投资机构的多位顶尖领袖发布联合倡议,呼吁在建立健全国际治理机制前,暂停“超级智能”(指可能超越人类综合能力的人工智能系统)关键环节的研发与部署。倡议指出,当前技术发展速度与配套监管、伦理审查和安全保障能力之间存在明显脱节,若不及时采取协调行动,可能带来不可逆转的社会、经济与安全风险。

 image.png

  倡议书在阐述理由时强调,超级智能一旦出现,不仅可能改变劳动力结构、信息传播与治理模式,还可能在缺乏透明度与可控性的情况下引发系统性风险。倡议呼吁国际社会、企业与科研机构共同承担责任,采取务实且可验证的暂缓措施,为制定全球统一的安全标准和监督机制争取时间。


  倡议提出的主要建议包括:


  暂停在未建立国际安全评估与认证体系前,继续推进可能立即产生不可控后果的关键研发与大规模部署;


  建立独立的第三方安全评估与审计机制,对高风险模型的训练过程、数据来源与测试结果实施常态化监督;


  推动跨国、跨部门的对话平台,尽快形成包容性治理框架,明确技术分类、风险分级与监管边界;


  加强对基础研究中伦理与社会影响的资助,鼓励将更多资源投入人工智能安全、可解释性与对抗性防护研究;


  提高产业透明度,建立研发与部署的注册与备案制度,增强公众与政策制定者的知情权与参与度。


  倡议同时呼吁,相关政策应在尊重创新与技术发展利益的同时,优先保障公共安全与社会稳定,避免出现“技术先行、监管滞后”的局面。倡议发起方表示,已将建议提交给多国监管机构、国际组织与主要研究机构,期望在更广泛的层面展开讨论并推动落地方案。


  多位与会专家在书面声明中指出,暂缓并不等于阻碍创新,而是为“有序创新”争取必要时间,确保技术进步与社会治理相辅相成。一位不具名的与会代表表示:“我们不是要阻止人工智能发展,而是要确保发展不会带来不可逆的风险,给全球社会留下修正的机会和制度保障。”


  对此,部分国际监管部门与学术机构已表示关注并表示将密切评估相关建议的可行性;部分企业则表示愿意参与有关对话并探索可行的自律措施。观察人士认为,本次联合倡议的影响力在于将技术发展的问题从单一企业或国家层面上升到全球公共议题,有助于推动国际社会在人工智能治理上实现更为协调的共识。


二维码

版权声明

版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件至举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。

标签:

相关文章