文章来源:放心AI网发布时间:2025-05-19 09:40:25
近期,北卡罗来纳州立大学的研究人员提出了一种新方法,通过捕获计算机发出的电磁信号来提取人工智能(AI)模型,准确率高达99% 以上。这一发现可能对商业 AI 发展构成挑战,尤其是在 OpenAI、Anthropic 和谷歌等公司已经大量投资于专有模型的背景下。不过,专家们指出,这种技术在现实世界中的实际影响以及防御措施仍不明确。
CUDO Compute 的首席营销官拉斯・奈曼(Lars Nyman)表示,AI 盗窃不仅仅是模型本身的损失,还可能引发一系列连锁反应,如竞争对手利用多年的研发成果、监管机构调查知识产权的管理失当,甚至客户因发现自身的 AI “独特性” 并不独特而提起诉讼。这种情况可能促使行业内推动标准化审计,就像 SOC2或 ISO 认证一样,以此区分安全的企业与不负责任的企业。
近年来,针对 AI 模型的黑客攻击威胁日益严重。商业界对 AI 的依赖使得这一问题更加突出。最近的报告显示,数千个恶意文件被上传至 Hugging Face,这一 AI 工具的关键存储库,严重危害了零售、物流和金融等行业使用的模型。国家安全专家警告说,薄弱的安全措施可能导致专有系统面临盗窃风险,正如 OpenAI 的安全漏洞所示。被盗的 AI 模型可能被逆向工程或出售,这将削弱企业的投资,并破坏信任,允许竞争对手迅速赶超。
北卡罗来纳州立大学的研究团队通过在谷歌边缘张量处理单元(TPU)附近放置探头,分析其信号,从而揭示了模型结构的关键信息。该攻击方式并不需要直接访问系统,这使得 AI 知识产权面临严重安全风险。研究合著者、电子与计算机工程副教授艾丁・艾苏(Aydin Aysu)强调,构建一个 AI 模型不仅费用高昂且需要大量计算资源,因此防止模型被盗取是至关重要的。
随着 AI 技术的应用日益广泛,企业需要重新审视某些用于 AI 处理的设备。技术顾问苏里尔・阿雷拉诺(Suriel Arellano)认为,企业可能会转向更集中和安全的计算,或者考虑其他更不易被盗的替代技术。尽管盗窃的风险存在,AI 也在加强网络安全,通过自动化威胁检测和数据分析提升响应效率,助力识别潜在威胁并学习应对新攻击。
相关攻略 更多
最新资讯 更多
电磁信号窃取:AI模型盗窃背后的隐秘危机!
更新时间:2025-05-19
谷歌量子计算里程碑:新芯片5分钟解开“万亿年”难题,或触及平行宇宙
更新时间:2025-05-19
OpenAI暂缓SoraAPI发布:产能受限,或失先机
更新时间:2025-05-19
谷歌放宽限制:人类监督下可在高风险领域使用生成式AI
更新时间:2025-05-19
AI药物研发公司Genesis再获英伟达投资,加速结构驱动药物设计
更新时间:2025-05-19
深圳:每年投入最高3亿元,聚焦自动驾驶、人工智能芯片等重点领域
更新时间:2025-05-18
智谱清言浏览器插件接入AutoGLM可模拟人类自动完成网页任务
更新时间:2025-05-18
多模态模型新突破:李飞飞团队统一动作与语言,不仅超懂指令,还能读懂隐含情绪
更新时间:2025-05-18
ChatGPT新增电话功能老年机、座机也能与AI交流
更新时间:2025-05-18
智源研究院与腾讯达成战略合作推动大模型、AI等应用落地
更新时间:2025-05-18