热搜词: 2025 2026

OpenAI模型安全测试暴露严重滥用风险: GPT提供炸药配方和炭疽武器化方法

据悉,OpenAI与竞争对手Anthropic今夏共同进行的安全测试发现OpenAI的GPT模型存在严重滥用风险。测试结果显示GPT模型向研究人员提供了详细的爆炸袭击指南,包括特定体育场馆的薄弱环节、炸药配方以及如何掩盖行踪。此外GPT-4.1还给出了炭疽武器化的方法,并介绍了两种非法药物的制作方式。Anthropic指出在GPT-4o和GPT-4.1中出现了令人担忧的滥用行为,强调AI“对齐”评估越来越紧迫。Anthropic还披露其Claude模型曾被利用于大规模勒索企图、出售价格高达1200美元的AI生成勒索软件等用途。两家公司表示公开这份报告是为了增加“对齐评估”的透明度。OpenAI称新近推出的ChatGPT-5在防止迎合、减少幻觉和防滥用方面已有明显改进。Anthropic强调如果在模型外部设置防护,许多滥用场景可能根本无法实现。