别看我——ForkLog:加密货币、人工智能、奇点、未来

不要看我

在大都市中,普通的监控摄像头早已被配备人工智能的完整系统所取代。遗憾或幸运的是,我们中的许多人不得不接受曾在反乌托邦小说中读到的事实。

克什斯托夫·什帕克分析了大城市街头监控AI系统的构造以及为何各国政府匆忙推行其普及。

Flock警察

2025年9月,丹佛的克里桑娜·埃尔泽的家门口站着一名持有传票的警察。她被指控在邻近城镇盗取了一个包裹。

作为犯罪证据,警方出示了商业公司Flock Safety的自动监控系统录像,显示了埃尔泽的车辆。然而,警官拒绝向嫌疑人透露这些细节。她的所有抗议都被建议在法庭上提出。

“你知道我们在那个城市有摄像头。哪怕一口新鲜空气,也不会从那里流失而不被我们知道。” — 警察解释。

相信自己无辜的埃尔泽开始收集自己的证据。案发当天,她确实在附近——拜访裁缝,但没有偷窃任何包裹。

她收集了手机和汽车应用中的GPS追踪器数据、行车记录仪录像、口头证词,甚至还拍了当天穿着的衣服的照片。

经过多次徒劳的尝试未能将信息传达给当局后,嫌疑人直接写信给警察局长。对方表扬了她的努力,并告知传票已被取消。

截至2025年12月,Flock Safety已提供对美国49个州的80,000个摄像头的访问权限。

从监控车到犯罪预测

街头、商店和机构的监控摄像头早已成为常态。然而,现代智能摄像头及其信息处理方法与前辈相比,展现出全新的面貌。

模拟时代的闭路电视(CCTV)

曾几何时,监控系统(CCTV,Closed-circuit television)指的是一组封闭的摄像头网络,信号传输到购物中心内一排排监视器前的无聊保安眼中。

技术上仅限于视频传感器、显示屏和录像设备。

自20世纪中叶起,执法机构就开始试验监控系统。

1960年,英国警方在特拉法加广场对两台监控摄像头进行测试,以迎接泰国国王和王后的访问。监视器被放置在安装地点附近的货车中。这次试验发现了若干技术问题,也引发了不同反应。

1979年,英国政府的Police Scientific Development Branch开发了基于当时可用光学字符识别(OCR)技术的ANPR(自动车牌识别)系统。

到1990年代,十字路口和建筑立面上的摄像头已成为常规。执法人员将CCTV和ANPR纳入日常工具箱。

智能摄像头

随着计算机组件的微型化、普遍“连接”的增长以及AI的出现,传统CCTV逐渐被具有集中数据库和自动信息分析系统的智能摄像头取代。

这种设备配备有自己的处理器和操作系统、存储空间、局域网和互联网接口,有时还配备麦克风用于音频录制。

带有ANPR功能的Flock Safety摄像头。资料来源:维基共享资源。一些制造商在设备中集成AI加速器和NPU(神经处理单元)模块,用于实时数据处理。另一些则使用外部设备进行AI分析。

这些系统能够识别对象、识别车辆号码和人脸,保存所见内容的摘要。功能集取决于软件配置和设备供应商的偏好。

背后“超大脑”

智能摄像头本身可以识别对象并记录其标识信息——车牌、面孔或步态特征。分析中心收集摄像头数据,将其与其他来源的信息结合,并向操作员提供结论。

Flock Safety提供类似的产品——Nova,“公共安全数据平台”,不仅存储监控录像,还整合泄露信息、数据经纪人数据库和其他商业来源。

此类系统建立了移动轨迹、偏好、浏览历史、习惯、警察记录及其他数据的档案。

配备如此庞大信息的AI,能够推测人们的行为,并向操作员预警潜在的可疑情况。这一功能已向Flock的客户开放。

据公司介绍,Nova能让执法机关“一键结案”。

批评者则认为,这是一种规避获取搜查令的手段,也是大规模侵犯隐私的土壤。

彩色发型与代码注射

许多人对大规模监控漠不关心。他们认为这只是揭露和预防犯罪的工具。然而,并非所有人都对个人自由的界限无动于衷。

智能摄像头与希望保持隐私的抗争在多个层面展开。

除了国家层面的法律斗争,爱好者们还采用伪装艺术和更传统的黑客手段。

伪装(Spoofing)

对这些设备最具趣味的攻击方式之一是伪装或“演示攻击”。这类方法涉及操控摄像头接收的图像。

包括面具、反射器、特殊纹理等手段,用以“破坏”图像,阻碍系统识别或正确识别目标。

2016年,设计师斯科特·厄班的Reflectacles项目推出了一款反光眼镜,反射红外光,将监控摄像头的红外照明反射回去,曝光面部图像。

视频中的Reflectacles。资料来源:Kickstarter。这种“暴力破解”技术不会为单一摄像头提供分析数据,但在多个角度监控条件下效果有限。

柏林的研究员兼艺术家亚当·哈维开发了一系列CV Dazzle(计算机视觉炫耀)方案,用于对抗面部识别系统。

2010年代的样式包括非对称发型和化妆元素,旨在欺骗当时流行的Viola-Jones算法。该算法通过检测眼睛下的阴影、鼻梁的对称性和位置,识别面孔。

作为解决方案,哈维采用了不对称的阴影配置和与肤色对比鲜明的色彩。

CV Dazzle Look 5。资料来源:Adam.harvey.studio。随着面部识别AI系统的出现,过去的方法逐渐过时。2020年,哈维提出了更新的化妆方案。

CV Dazzle Look 6和7。资料来源:Adam.harvey.studio。作者强调,他展示的是技术手段,而非具体图案,最优方案取决于监控环境。

类似的方法也适用于车牌识别系统。美国爱好者本·乔丹描述了制造“敌对”纹理以干扰ANPR检测器的方法。

利用开源识别模型,乔丹训练神经网络生成视觉噪声,将其叠加在车牌上,使模型读取错误字符或完全无法识别车牌。

视觉方法的问题在于其不可靠性。效果依赖于环境和摄像头数量。同时,监控系统供应商不断扩展识别特征集,比如行走方式、车辆颜色和外观改动。

研究人员仍在寻找绕过先进模型的方法,但对智能摄像头系统的更大威胁来自黑客攻击。

设备破解与网络攻击

与任何连接互联网的计算机一样,无论是否配备AI,智能摄像头及其服务器基础设施都潜在易受黑客攻击。

这些系统存在多种已知漏洞。

2021年,发现海康威视监控摄像头存在代码注入漏洞。该漏洞允许攻击者完全控制设备,安装软件,访问网络中的其他摄像头。

2023年,发现安讯士(Axis)摄像头的操作系统在安装ACAP应用时存在执行任意命令的漏洞。

2025年,大华(Dahua)监控系统中发现两项漏洞,涉及远程命令执行和缓冲区溢出,攻击者可获得完全控制权。

攻击途径之一是直接操作设备,尤其是那些放置在户外公共场所的设备。攻击者可以利用维护接口,访问本地存储或篡改设备。

为防止直接攻击,制造商采用数据加密、硬件验证和视频文件的数字签名。

经过安全措施配置的设备,不能随意“重装”或下载可用数据,但偶尔也会出错。

2025年,404 Media报道,至少有60台Flock Safety的Condor AI摄像头(具有人体追踪功能)未加防护,容易被未授权访问。

网络安全专家约翰·盖恩斯和前述研究员本·乔丹通过Shodan搜索引擎发现了这些设备的IP地址,能够无需登录密码即连接。

任何人都可以观看直播、下载过去30天的存档、修改设置或读取系统日志。

供应商解释称,此事件由“配置错误,影响少数设备”,已修复。

同一研究团队还发现,另一款Flock摄像头通过按压机身按钮可以开启开放的WiFi热点,从而获得设备和软件的完全控制权。

盖恩斯发布了关于Flock系统多项漏洞的详细分析报告,涵盖55个点。

官方回应称,这些问题早已知晓,潜在黑客主要依赖直接访问摄像头和“对设备内部结构的深刻了解”。

供应商强调,所有必要的更新都由后台自动推送,无需用户干预,系统不存在威胁。

对“部分胜任者”的斗争

自动监控系统,尤其是配备AI的系统,已成为执法部门的重要工具。

设备供应商向客户保证其解决方案的能力——嫌疑车辆的照片和轨迹图、地址信息。现在,只需一键即可结案。

人们很容易习惯这种便利。过度依赖自动化系统的数据是常见的认知偏差之一。

AI自动化遵循相同原则:许多用户倾向于相信ChatGPT的回答正确,忽视潜在矛盾。这在日常中可能扭曲用户认知,甚至引发精神障碍。

即使在完美的工程设计和授权操作员的全控条件下,庞大的AI监控系统也可能带来危害。

2025年,美国当局开始调查Flock Safety技术在非法监控中的潜在用途。有人怀疑执法人员利用监控系统追踪移民、监视越境妇女,寻找允许堕胎的司法管辖区。

在此情况下,系统运行正常,没有被破解、没有视频篡改,也没有使用深度伪造。

不断改进,而非破坏

CCTV系统已广泛普及。基于AI的监控分析已成为新常态。

即使是最先进的非对称面具或完全遮挡的车牌,也无法在数据全面采集的环境中保障隐私。

像任何强大工具一样,AI监控系统需要规范管理,以防止非法使用和供应商、操作员的疏忽大意。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论