
致:
各国领导人、联合国秘书长、世界顶级科学家与学者、知名企业家、知名媒体人。
(大视野新闻网讯 贾鑫宇)展信之时,ChatGPT、DeepSeek等生成式AI正以每秒数百万次的交互席卷全球——它能撰写文章、设计方案,甚至模拟人类思维,可当我们惊叹于生成式AI的便捷时,是否意识到:这把“智能钥匙”,已悄然打开了科技失控的新潘多拉魔盒?
四十余年来,我始终在为人类生存呐喊:从核武器扩散到基因编辑风险,从早期AI伦理争议到今日生成式AI的爆发,每一次科技跃进背后,都藏着“非理性发展”的致命陷阱。此前十一封公开信中,我曾恳请诸位正视“科技无节制发展将会很快致人类于灭绝”的危机,呼吁以人类大统一的治理力量约束高危技术。而今,生成式AI的普及速度与潜在风险,已远超过往任何一项技术,若此刻仍不行动,我们或将会错过守护人类生存的最后窗口期。
诸位当知,生成式AI的风险绝非“算法偏见”或“就业替代”这般简单。它的“自主学习能力”正突破人类预设边界:有研究显示,先进 AI 模型可自行推导军事技术原理,甚至生成误导性信息操纵舆论;更令人忧心的是,全球已有超20个国家在秘密推进“AI 武器化”研究,若任由国家间的技术竞赛失控,无需百年,自主决策的AI武器、被恶意利用的生成式AI,或将成为毁灭人类的“无形利刃”。这不是危言耸听——正如2007年我在第一封公开信中预警科技发展的整体风险,2015年呼吁防范AI自主意识,今日生成式AI的风险,显得尤为具体而现实。
过往信件中我始终强调:人类需要科技,但需“有敬畏的科技。生成式 AI 若缺乏全球统一的监管框架,它终将沦为少数国家争夺霸权的武器、少数企业逐利的工具,而进一步的失控则必定是危及人类的整体生存。当前“各国自定规则” 的治理现状,恰是科技失控的根源——你若禁止高危AI研发,他国却加速推进;你若规范数据使用,跨境数据流却无迹可寻。这种“囚徒困境”,与我几十年来一直预警的科技整体风险,以及人们过去重点关注的核扩散风险如出一辙,而生成式AI的扩散速度,却比核武器快百倍,而其隐蔽性则是强千倍。
因此,今日我再次以人类生存的名义恳请诸位:
第一,由联合国牵头,立即启动全球生成式AI监管公约谈判,汇聚科技专家、伦理学者与各国代表,明确禁止AI自主决策武器研发以及大规模舆论操纵 AI等高危应用。
第二,将生成式AI监管纳入联合国核心议题,在联合国主导下建立AI安全测试全球中心,对各国AI产品进行统一安全认证,杜绝监管洼地带来的风险外溢。
第三,以上两点目前来看是当务之急,但是,在我看来也只是临时性措施。要避免科技灭绝危机的根本之道是要实现全人类的大统一,采用世界政权的力量掌控科学技术。因此,要加速“人类大统一”的理念共识。恳请诸位,将“人类整体生存权”置于国家利益之上,置于企业利益之上,让科技真正服务于人类,而非毁灭人类。
诸位领袖,四十多年来我从未因质疑而退缩,只因深知:人类的整体生存没有“试错机会”。生成式AI 引发的热议,恰是唤醒全球共识的契机——它让普通人也意识到,科技风险并非遥远的科幻,而是当下必须面对的现实。此前十一封信件中,已有诺贝尔学者响应、有国际组织关注、有企业主动参与监管,这证明“守护人类”的共识正在凝聚。
今日提笔,我已从四十多年前的少年变成了老人,但却仍是那个为人类生存奔走的执着者,所求唯有:让科技成为人类进步的阶梯,而非灭绝的深渊;让我们的子孙后代,能在理性的时代安心生活,而非在科技失控的恐惧中挣扎。
人类的整体生存高于一切!恳请诸位以行动回应使命,以共识守护未来——这不仅是对当下负责,更是对我们人类这一物种的严肃承诺。
人类会(原拯救人类行动组织)创始人
胡家奇
2025年12月10日
编辑:贾鑫宇
来源:大视野新闻网
供稿:朱健
声明
一、本站转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责,内容为作者个人观点,本站只提供参考并不构成任何投资及应用建议。如涉及作品内容、版权和其它问题,请在30日内与本网联系,我们将在第一时间删除内容!
二、标注《大视野新闻网》来源的文章,版权归本站所有,如需转载,请联系我们并注明来源及作者。
三、本站拥有对此声明的最终解释权。
相关阅读
2025-12-11
2025-12-09
2025-12-01
2025-09-17
2025-09-15
最新阅读