特别感谢Balvi志愿者、Paul Dylan-Ennis、pcaversaccio、vectorized、Bruce Xu和Luozhu Zhang的讨论和反馈。
最近,我越来越关注改善以太坊生态系统中的隐私状况。隐私是去中心化的重要保障:谁掌握信息,谁就拥有权力,因此我们需要避免信息的集中控制。当现实世界中的人们对中心化运营的技术基础设施表示担忧时,这种担忧有时是关于运营者意外更改规则或取消平台用户,但同样多的是关于数据收集。虽然加密货币空间起源于像Chaumian Ecash这样的项目,它将数字金融隐私的保护置于中心位置,但最近它却低估了隐私,原因最终是错误的:在ZK-SNARKs之前,我们没有办法以去中心化的方式提供隐私,因此我们对其轻描淡写,转而专注于当时我们可以提供的其他保障。
然而,今天隐私已无法再被忽视。人工智能大大增强了集中式数据收集和分析的能力,同时也大大扩展了我们自愿分享的数据范围。在未来,像脑机接口这样的新技术带来了更多挑战:我们可能真的是在谈论AI读取我们的思想。与此同时,我们拥有比1990年代的密码朋克所能想象的更强大的隐私保护工具:高效的零知识证明(ZK-SNARKs)可以保护我们的身份,同时揭示足够的信息证明我们是可信的,全同态加密(FHE)可以让我们在不查看数据的情况下进行计算,混淆技术可能很快提供更多选择。
隐私不是与世隔绝,而是共同站立
在这个时候,值得退一步重新审视这个问题:我们为什么要隐私?每个人的答案都不同。在这篇文章中,我将给出我自己的答案,并将其分为三部分:
在2000年代初,类似David Brin在1998年出版的《透明社会》一书所表达的观点曾广为流传:技术将使世界各地的信息更加透明,虽然这会带来一些负面影响并需要适应,但总体来说,这是件非常好的事,而且我们可以通过确保人民也能监视(或更确切地说,”监视“)政府来实现公平。1999年,Sun Microsystems的CEO Scott McNealy著名地喊道:“隐私已经死了,接受它吧!”这种心态在Facebook的早期构思和发展中也很常见,该平台禁止使用化名身份。我个人记得在2015年深圳的华为活动上,曾听到一位(西方)演讲者随口提到“隐私已经结束”,那时这种心态仍在尾声阶段。
《透明社会》代表了“隐私已死”意识形态中最光辉灿烂的一面:它承诺通过透明的力量保持政府的问责,而不是压迫个体和少数群体,从而创造一个更好、更公正、更公平的世界。然而,回头看,这种方法显然是那个时代的产物,写于全球合作与和平的热情高峰期,以及“历史的终结”之时,并依赖于一些过于乐观的人性假设。主要有以下几点:
今天,没有哪个主要国家广泛认为第一个假设是正确的,而许多国家普遍认为它是错误的。在第二个方面,文化宽容度也在迅速退步——仅仅在Twitter上搜索诸如“欺凌是好事”这样的词组,就能发现一丝证据,当然,更多的例子也很容易找到。
我个人不幸地定期遭遇“透明社会”的负面影响,因为我在外面所做的每一件事都有可能在意外情况下成为公众媒体的故事。
最严重的一次是,有人在清迈拍下我用电脑工作的一段一分钟视频,并将其发布到小红书上,结果立刻获得了数千个点赞和转发。当然,我的处境远非普通人的常态——但这一直是隐私问题的核心所在:对生活处境较为正常的人来说,隐私的需求较少;而对那些生活状况偏离常态的人来说,无论偏离方向如何,隐私的需求都更大。而一旦你将所有可能影响隐私的偏离情况加总起来,真正需要隐私的人数其实非常多——而你永远不知道自己什么时候会成为其中之一。这也是隐私常被低估的一大原因:它不仅关乎你当前的处境和信息,还关乎那些“未知的未知”——这些信息未来会发生什么变化,以及它们将如何影响你,都是不可预知的。
来自企业定价机制的隐私问题,在今天仍然是个相对小众的关注点,即便是在 AI 倡导者之间也是如此。但随着 AI 分析工具的兴起,这一问题很可能会越来越突出:企业对你的了解越多,它就越能向你提供一个最能榨取你支付意愿的个性化价格。
我可以用一句话来表达我对隐私即自由的基本观点:
隐私赋予你以符合自身目标和需求的方式生活的自由,而无需在每一个行为上都小心权衡“私人游戏”(你的自身需求)与“公共游戏”(各种人——通过社交媒体连锁反应、商业激励、政治、制度等机制介入后——会如何看待并回应你的行为)。
没有隐私,一切都变成了“别人(包括机器人)会怎么看我”的持续拉锯战——无论是有权势者、公司、同辈,还是现在与未来的人。而有了隐私,我们就能维持一种平衡。如今,这种平衡正在迅速被侵蚀,尤其是在物理世界中;而现代技术资本主义的默认路径,是不断侵蚀这种平衡,以追求那些无需明确向用户收费、却能最大化价值提取的商业模式(即便是极其敏感的领域,比如我们的大脑)。因此,我们必须反向推动这种趋势,更加明确地支持隐私,尤其是在我们最有能力实践的领域:数字世界。
有一个常见的回应是:上述所描述的隐私劣势,大多是因为公众过度了解我们私人生活所导致的,就算涉及权力滥用,也主要是企业、老板和政客知道得太多的问题。但如果我们不让公众、企业、老板和政客掌握这些数据,而是只让一小部分经过严格训练和审查的执法人员访问街头监控、网络电缆和聊天应用上的数据,同时设置严格的问责机制,确保其他人无法接触这些信息,不就没问题了吗?
这是一个广泛但隐性的观点,因此需要明确回应。即便以高标准、善意地执行,这种策略本身也具有不稳定性,原因有以下几点:
对个体来说,如果数据被收集了,他们无法预知未来是否会被滥用。最安全的做法是:尽可能不集中收集这些数据。数据应尽可能由用户自己掌握,并通过加密手段在不泄露隐私的前提下实现有用的统计汇总。
认为“政府有权凭借法院授权访问一切数据”是理所当然的观点,忽略了一个关键事实:历史上,通过法院授权可获取的信息量远小于今天——即便在最强隐私保护措施全面实施的网络环境中,政府可获取的数据也远超以往。19 世纪时,绝大多数对话只是口头发生一次,从未被记录。因此,所谓“信息走向黑暗”的道德恐慌其实是违反历史的:无论是对话还是财务交易,完全私人、不可追溯的状态才是数千年来的常态。
1950 年的一场普通对话:整段谈话中一个字都没有被记录、监听、依法截取、AI 分析,或以任何形式被任何人看到,除了正在对话的当事人。
另一个必须尽量减少集中数据收集的重要原因是,全球通信和经济活动中有很大一部分本质上是跨国的。如果所有人都在同一个国家,那么“政府应有权访问数据”这一观点至少在逻辑上是连贯的。但如果人们身处不同国家呢?原则上你可以尝试构建一个复杂机制,将每个人的数据映射到某个对其负有管辖权的合法访问实体上——但即使如此,你仍然要面对大量涉及多方数据的边缘案例。而且,就算这种机制理论上可行,它也不是现实中可能自动形成的结果。政府后门的现实默认结果是:数据集中于少数几个掌握主流应用的中心法域,这些法域因控制应用而掌握全球数据,本质上形成了技术霸权。强隐私,才是最稳定的替代方案。
一个多世纪以来,人们早已认识到民主制度得以运作的一个关键技术要素是秘密投票:没有人知道你投给了谁,而且即使你愿意,你也无法向他人证明你投给了谁。如果秘密投票不是默认机制,选民将不可避免地受到各种额外激励的干扰,比如贿赂、事后承诺的回报、社会压力、威胁等。
可以用一个简单的数学逻辑说明这些额外激励会如何彻底破坏民主:在一次有 N 人参与的选举中,你左右结果的概率大约只有 1/N,因此有关候选人优劣的考虑本质上都会被 N 稀释。但“边缘博弈”(例如选民贿赂、胁迫、社会压力)直接作用于你的行为(即你投谁),而不是整个投票的结果,所以不会被 N 稀释。因此,除非对边缘博弈加以严格限制,它们将默认主导整个过程,使得选民无法基于政策优劣做出理性判断。
这种情况不仅适用于国家层面的民主理论,几乎所有的公司或政府中的委托-代理问题也都会面临同样的风险:
所有这些情境中,核心问题是一样的:如果代理人选择诚信行事,他们只能分得其决定为组织带来效益中的一小部分;但如果他们选择参与边缘博弈,他们将能获得该行为所带来的全部利益。因此,即使是在今天,我们仍然在依赖大量的道德自律来维系制度的正常运作,以防整个社会陷入一层又一层的边缘博弈循环之中。如果隐私进一步被削弱,这些边缘博弈的激励将变得更强大,而维系社会运行所需的道德自律将达到几乎无法承受的程度。
社会系统能否被重新设计,从而避免这个问题?遗憾的是,博弈论几乎明确表示这是不可能的(唯一的例外是彻底的独裁)。在以个体选择为核心的博弈论版本中——也就是假设每个参与者独立决策,且不考虑代理人结盟互利的可能性时——机制设计者拥有极大的空间来“设计”博弈机制,以实现各种特定结果。实际上,数学上已经证明,任何博弈至少存在一个稳定的纳什均衡,因此这类博弈是可以被系统分析的。但在允许代理人结盟合作(即“勾结”)的博弈论版本中,也就是所谓的合作博弈论,我们可以证明存在大量博弈根本没有任何稳定结果(即“核心)”为空)。在这些博弈中,无论当前的状态如何,总有某个联盟可以从偏离现状中获利。
如果我们认真对待这些数学原理,就会得出一个结论:建立稳定社会结构的唯一方式,就是限制参与者之间的协作程度——而这就意味着需要强隐私(包括可否认性)。即使不从数学推理出发,只要观察现实世界,或至少思考前文提到的一些委托代理场景在被“副本游戏”占据后会变成什么样,也能得出相同结论。
这也进一步说明了为何政府“后门”是危险的。如果每个人都能无限制地与他人就一切事情进行协调,结果就是混乱。而如果只有少数人能做到这一点,仅因为他们拥有对信息的特权访问权,结果则是他们将主导一切。如果某个政党拥有另一个政党通信内容的后门访问权限,那就极可能终结多党制的可行性。
另一个高度依赖“限制串通”才能正常运作的社会秩序,是知识与文化活动。知识与文化活动本质上是一种出于内在动机、服务公共利益的任务:很难通过外在激励机制去直接引导人们做出对社会有益的正向贡献,因为这些活动本身就在探讨什么才是“有益的行为”。我们可以建立一些粗略的商业或社会激励体系,引导方向接近正确,但它们仍需依赖大量内在动机来补充。而这也意味着,这类活动极易被错配的外部激励(特别是社交压力与强制行为等副本游戏)所扰乱。为了限制这些错配激励的影响,隐私再一次成为必要条件。
想象一个没有公钥加密和对称加密的世界。在这个世界中,远距离安全传递消息会变得非常困难——不是不可能,但确实很难。这会极大地阻碍国际合作,导致更多交流只能依赖线下、面对面的方式进行。这样的世界将更加贫穷,也更加不平等。
我认为,我们今天的处境,正好就像相对于一个假想中的未来世界——在那个世界中,更强大的加密形式被广泛使用,尤其是可编程加密技术,并辅以更强大的全栈安全机制和形式化验证,以确保这些加密技术的正确使用,从而提供强有力的保障。
埃及神协议:三种强大且高度通用的构建,可以让我们在保护数据隐私的同时对数据进行计算。
一个很好的例子来源于医疗保健。如果你和任何在长寿、抗疫或其他健康领域工作的人交谈,他们都会普遍告诉你,未来的治疗和预防将是个性化的,而有效的应对高度依赖于高质量的数据,包括关于个人的数据和关于环境的数据。有效保护人们免受空气传播疾病的侵害需要了解哪里空气质量更高或更低,以及哪些区域在任何时候都有病原体的出现。最先进的长寿诊所都会根据关于你身体、食物偏好和生活方式的数据,提供定制的建议和治疗。
然而,所有这些同时也带来了巨大的隐私风险。我个人知道一个事件,某个空气监测器被发给了一名员工,并且该监测器会将数据“上报”给公司,收集的数据足以确定该员工何时进行性生活。正因为有这样的情况,我预计默认情况下,许多最有价值的数据将根本不会被收集,正是因为人们担心隐私后果。即使数据被收集,它通常也不会广泛共享或提供给研究人员——部分是出于商业原因,但更多的原因是涉及到隐私问题。
同样的模式在其他领域也有重复。我们自己行为中有大量的信息存在于我们写的文件、通过各种应用发送的消息以及在社交媒体上的各种行动中,这些都可以用来更有效地预测和提供我们日常生活中所需的东西。我们如何与物理环境互动,也有大量非医疗相关的信息。今天,我们缺乏有效使用这些信息的工具,而不导致反乌托邦式的隐私噩梦。明天,我们可能会拥有这些工具。
解决这些挑战的最佳方法是使用强加密技术,它可以让我们在不带来负面后果的情况下分享数据。包括个人数据在内的数据访问需求,在人工智能时代只会变得更加重要,因为能够基于我们偏好的高保真度近似值本地训练和运行“数字双胞胎”,从而代我们做出决策,具有很大的价值。最终,这也将涉及使用脑-机接口(BCI)技术,读取我们大脑的高带宽输入。为了避免这一切导致高度集中的全球霸权,我们需要确保在尊重强隐私的前提下进行这一切。可编程加密技术是最值得信赖的解决方案。
我的AirValent空气质量监测器。想象一下这样的设备,它收集空气质量数据,将汇总统计信息公开在一个开放数据地图上,并通过奖励你提供的数据——同时使用可编程加密技术来避免泄露你的个人位置信息,并验证数据的真实性。
可编程加密技术,如零知识证明,非常强大,因为它们就像信息流的乐高积木。它们可以精确控制谁能看到哪些信息,并且通常更重要的是,控制哪些信息根本不可以被看到。例如,我可以证明我拥有一张加拿大护照,显示我已满18岁,而不透露任何关于我个人的其他信息。这使得各种有趣的组合成为可能。我可以举几个例子:
台湾的消息检查器应用程序,用户可以选择打开或关闭多个过滤器,从上到下依次为:URL检查、加密货币地址检查、谣言检查。
最近,ChatGPT宣布将开始将你的过往对话作为上下文输入AI,以供未来对话使用。这一趋势不可避免地会朝这个方向发展:AI回顾你的过往对话并从中提取见解,根本上是非常有用的。在不久的将来,我们可能会看到一些AI产品对隐私进行更深层次的侵犯:被动收集你的互联网浏览模式、电子邮件和聊天记录、生物特征数据等。
理论上,你的数据应该对你保持私密。实际上,这似乎并非总是如此。
“哇!ChatGPT 有一个 bug,导致其他人提问的问题推送给我!这真是一个巨大的隐私泄露。我提了一个问题,发生了错误,然后点击‘重试’生成了一个我绝对不会提的问题并回答了它。”
隐私保护在此情况下可能正常工作,而 AI 在此情况下产生了一个 Bruce 根本没有提过的问题并回答了它,但我们无法验证。类似地,也无法验证我们的对话是否被用来进行训练。
这一切都令人深感担忧。更令人不安的是明确的 AI 监控用例,其中(物理和数字)数据正在大规模收集和分析,且没有人们的同意。面部识别已经帮助专制政权大规模打压政治异见。最令人担忧的是 AI 数据收集和分析的最终前沿:人类大脑。
原则上,大脑-计算机接口技术具有极大的潜力,可以提升人类潜能。以 Noland Arbaugh 的故事为例,他是 Neuralink 去年开始的首位病人:
这个实验设备让 Arbaugh(现在 30 岁)感到更独立。在此之前,使用口杆需要有人将他摆放正位。如果他掉了口杆,还需要别人捡起来。而且他不能长时间使用口杆,否则会得伤口。有了 Neuralink 设备,他几乎能完全控制计算机。他可以随时上网、玩游戏,Neuralink 还表示他已经创下了使用 BCI 控制光标的人的纪录。
如今,这些设备足够强大,能够赋能伤者和病人。明天,它们将足够强大,给予完全健康的人与计算机合作的机会,并能进行心灵感应式交流(!!),这种效率对我们来说似乎是不可想象的。但实际上,解读大脑信号以实现这种通信的能力需要 AI。
随着这些趋势的交汇,可能会出现一个黑暗的未来,我们会有硅基超级代理,可以吸收并分析每个人的信息,包括他们如何写作、行动和思考。但也有一个更光明的未来,在这个未来里,我们可以在保护隐私的同时,享受这些技术的好处。
这可以通过几种技术的组合来实现:
2008年,自由主义哲学家David Friedman写了一本名为《Future Imperfect》的书,书中他描绘了一系列关于新技术可能带来的社会变化的草图,其中并非所有变化都对他有利(或对我们有利)。在其中的一部分内容中,他描述了一个潜在的未来,我们将在其中看到隐私与监控之间复杂的互动,数字隐私的增长与现实世界监控的增长相互制衡:
如果墙上有一只视频蚊子在看我打字,那么对我的电子邮件使用强加密是没有意义的。因此,在透明的社会中实现强隐私需要某种方式来保护我与虚拟空间之间的接口……一种低技术解决方案是戴着罩子打字。一种高技术解决方案是建立一种大脑与机器之间的连接,避免通过手指——或者任何外部观察者可见的其他东西。24
现实空间的透明性与虚拟空间隐私之间的冲突同样存在……我的口袋计算机使用你的公钥加密我的信息并将其传输到你的口袋计算机,后者解密信息并通过你的VR眼镜显示它。为了确保没有人从你肩膀上窥视眼镜,护目镜不是通过屏幕显示图像,而是通过使用微型激光将图像写在你的视网膜上。幸运的话,你眼球的内部仍然是私密空间。
我们可能最终会生活在一个物理行为完全公开、信息交易完全私密的世界里。这有一些吸引人的特点。私人公民仍然可以利用强隐私雇佣杀手,但雇佣杀手的费用可能比他们愿意支付的还要高,因为在一个充分透明的世界里,所有的谋杀都会被侦测到。每个杀手完成一个任务后会直接入狱。
这些技术与数据处理之间的互动又如何呢?一方面,正是现代数据处理使得透明社会成为如此巨大的威胁——没有数据处理,这些录像不重要,因为没有人能够在每天生产的数百万英里视频中找到他们想要的特定六英寸录像。另一方面,支持强隐私的技术为在拥有现代数据处理的世界中恢复隐私提供了可能,通过确保有关交易的信息从未泄露给除你以外的任何人。
这样的世界可能会是所有可能世界中最好的:如果一切顺利,我们将看到一个未来,物理暴力极少,但同时保留我们在线上的自由,并确保政治、民间、文化和知识过程的基本运作,这些过程依赖于某种程度的信息透明度限制,以保持其持续运作。
即使它不是理想的,它也比那个物理与数字隐私彻底消失的版本要好,最终包括我们自己思想的隐私,在2050年代中期,我们会看到一些思考文章论述,理所当然地认为,无法思考不受合法监听的思想是不现实的,而对这些文章的回应将是链接到最近发生的一次事件,其中一家公司AI的LLM漏洞导致三千万人私密内心独白被泄露到整个互联网。
社会一直依赖于隐私与透明度之间的平衡。在某些情况下,我也支持对隐私的限制。举个与通常人们给出的论点完全无关的例子,我支持美国政府禁止合同中的非竞争条款,这主要不是因为它们对工人的直接影响,而是因为它们是迫使公司的隐性领域知识部分开源的方式。迫使公司比它们愿意的更开放是对隐私的限制——但我认为这是一个净受益的限制。但从宏观角度来看,未来技术最紧迫的风险是隐私将接近历史最低点,并且这种趋势将高度失衡,最有权力的个人和国家将获取关于每个人的大量数据,而其他人几乎一无所知。因此,支持每个人的隐私,并确保必要的工具是开源的、普及的、可靠的、安全的,是我们时代的重要挑战之一。
本文转载自 [Vitalik]。所有版权归原作者 [Vitalik] 所有。若对本次转载有异议,请联系 Gate Learn 团队,他们将及时处理。
免责声明:本文所表达的观点和意见仅代表作者个人观点,不构成任何投资建议。
本文的其他语言翻译由 Gate Learn 团队完成。除非另有说明,否则禁止复制、分发或抄袭翻译文章。
特别感谢Balvi志愿者、Paul Dylan-Ennis、pcaversaccio、vectorized、Bruce Xu和Luozhu Zhang的讨论和反馈。
最近,我越来越关注改善以太坊生态系统中的隐私状况。隐私是去中心化的重要保障:谁掌握信息,谁就拥有权力,因此我们需要避免信息的集中控制。当现实世界中的人们对中心化运营的技术基础设施表示担忧时,这种担忧有时是关于运营者意外更改规则或取消平台用户,但同样多的是关于数据收集。虽然加密货币空间起源于像Chaumian Ecash这样的项目,它将数字金融隐私的保护置于中心位置,但最近它却低估了隐私,原因最终是错误的:在ZK-SNARKs之前,我们没有办法以去中心化的方式提供隐私,因此我们对其轻描淡写,转而专注于当时我们可以提供的其他保障。
然而,今天隐私已无法再被忽视。人工智能大大增强了集中式数据收集和分析的能力,同时也大大扩展了我们自愿分享的数据范围。在未来,像脑机接口这样的新技术带来了更多挑战:我们可能真的是在谈论AI读取我们的思想。与此同时,我们拥有比1990年代的密码朋克所能想象的更强大的隐私保护工具:高效的零知识证明(ZK-SNARKs)可以保护我们的身份,同时揭示足够的信息证明我们是可信的,全同态加密(FHE)可以让我们在不查看数据的情况下进行计算,混淆技术可能很快提供更多选择。
隐私不是与世隔绝,而是共同站立
在这个时候,值得退一步重新审视这个问题:我们为什么要隐私?每个人的答案都不同。在这篇文章中,我将给出我自己的答案,并将其分为三部分:
在2000年代初,类似David Brin在1998年出版的《透明社会》一书所表达的观点曾广为流传:技术将使世界各地的信息更加透明,虽然这会带来一些负面影响并需要适应,但总体来说,这是件非常好的事,而且我们可以通过确保人民也能监视(或更确切地说,”监视“)政府来实现公平。1999年,Sun Microsystems的CEO Scott McNealy著名地喊道:“隐私已经死了,接受它吧!”这种心态在Facebook的早期构思和发展中也很常见,该平台禁止使用化名身份。我个人记得在2015年深圳的华为活动上,曾听到一位(西方)演讲者随口提到“隐私已经结束”,那时这种心态仍在尾声阶段。
《透明社会》代表了“隐私已死”意识形态中最光辉灿烂的一面:它承诺通过透明的力量保持政府的问责,而不是压迫个体和少数群体,从而创造一个更好、更公正、更公平的世界。然而,回头看,这种方法显然是那个时代的产物,写于全球合作与和平的热情高峰期,以及“历史的终结”之时,并依赖于一些过于乐观的人性假设。主要有以下几点:
今天,没有哪个主要国家广泛认为第一个假设是正确的,而许多国家普遍认为它是错误的。在第二个方面,文化宽容度也在迅速退步——仅仅在Twitter上搜索诸如“欺凌是好事”这样的词组,就能发现一丝证据,当然,更多的例子也很容易找到。
我个人不幸地定期遭遇“透明社会”的负面影响,因为我在外面所做的每一件事都有可能在意外情况下成为公众媒体的故事。
最严重的一次是,有人在清迈拍下我用电脑工作的一段一分钟视频,并将其发布到小红书上,结果立刻获得了数千个点赞和转发。当然,我的处境远非普通人的常态——但这一直是隐私问题的核心所在:对生活处境较为正常的人来说,隐私的需求较少;而对那些生活状况偏离常态的人来说,无论偏离方向如何,隐私的需求都更大。而一旦你将所有可能影响隐私的偏离情况加总起来,真正需要隐私的人数其实非常多——而你永远不知道自己什么时候会成为其中之一。这也是隐私常被低估的一大原因:它不仅关乎你当前的处境和信息,还关乎那些“未知的未知”——这些信息未来会发生什么变化,以及它们将如何影响你,都是不可预知的。
来自企业定价机制的隐私问题,在今天仍然是个相对小众的关注点,即便是在 AI 倡导者之间也是如此。但随着 AI 分析工具的兴起,这一问题很可能会越来越突出:企业对你的了解越多,它就越能向你提供一个最能榨取你支付意愿的个性化价格。
我可以用一句话来表达我对隐私即自由的基本观点:
隐私赋予你以符合自身目标和需求的方式生活的自由,而无需在每一个行为上都小心权衡“私人游戏”(你的自身需求)与“公共游戏”(各种人——通过社交媒体连锁反应、商业激励、政治、制度等机制介入后——会如何看待并回应你的行为)。
没有隐私,一切都变成了“别人(包括机器人)会怎么看我”的持续拉锯战——无论是有权势者、公司、同辈,还是现在与未来的人。而有了隐私,我们就能维持一种平衡。如今,这种平衡正在迅速被侵蚀,尤其是在物理世界中;而现代技术资本主义的默认路径,是不断侵蚀这种平衡,以追求那些无需明确向用户收费、却能最大化价值提取的商业模式(即便是极其敏感的领域,比如我们的大脑)。因此,我们必须反向推动这种趋势,更加明确地支持隐私,尤其是在我们最有能力实践的领域:数字世界。
有一个常见的回应是:上述所描述的隐私劣势,大多是因为公众过度了解我们私人生活所导致的,就算涉及权力滥用,也主要是企业、老板和政客知道得太多的问题。但如果我们不让公众、企业、老板和政客掌握这些数据,而是只让一小部分经过严格训练和审查的执法人员访问街头监控、网络电缆和聊天应用上的数据,同时设置严格的问责机制,确保其他人无法接触这些信息,不就没问题了吗?
这是一个广泛但隐性的观点,因此需要明确回应。即便以高标准、善意地执行,这种策略本身也具有不稳定性,原因有以下几点:
对个体来说,如果数据被收集了,他们无法预知未来是否会被滥用。最安全的做法是:尽可能不集中收集这些数据。数据应尽可能由用户自己掌握,并通过加密手段在不泄露隐私的前提下实现有用的统计汇总。
认为“政府有权凭借法院授权访问一切数据”是理所当然的观点,忽略了一个关键事实:历史上,通过法院授权可获取的信息量远小于今天——即便在最强隐私保护措施全面实施的网络环境中,政府可获取的数据也远超以往。19 世纪时,绝大多数对话只是口头发生一次,从未被记录。因此,所谓“信息走向黑暗”的道德恐慌其实是违反历史的:无论是对话还是财务交易,完全私人、不可追溯的状态才是数千年来的常态。
1950 年的一场普通对话:整段谈话中一个字都没有被记录、监听、依法截取、AI 分析,或以任何形式被任何人看到,除了正在对话的当事人。
另一个必须尽量减少集中数据收集的重要原因是,全球通信和经济活动中有很大一部分本质上是跨国的。如果所有人都在同一个国家,那么“政府应有权访问数据”这一观点至少在逻辑上是连贯的。但如果人们身处不同国家呢?原则上你可以尝试构建一个复杂机制,将每个人的数据映射到某个对其负有管辖权的合法访问实体上——但即使如此,你仍然要面对大量涉及多方数据的边缘案例。而且,就算这种机制理论上可行,它也不是现实中可能自动形成的结果。政府后门的现实默认结果是:数据集中于少数几个掌握主流应用的中心法域,这些法域因控制应用而掌握全球数据,本质上形成了技术霸权。强隐私,才是最稳定的替代方案。
一个多世纪以来,人们早已认识到民主制度得以运作的一个关键技术要素是秘密投票:没有人知道你投给了谁,而且即使你愿意,你也无法向他人证明你投给了谁。如果秘密投票不是默认机制,选民将不可避免地受到各种额外激励的干扰,比如贿赂、事后承诺的回报、社会压力、威胁等。
可以用一个简单的数学逻辑说明这些额外激励会如何彻底破坏民主:在一次有 N 人参与的选举中,你左右结果的概率大约只有 1/N,因此有关候选人优劣的考虑本质上都会被 N 稀释。但“边缘博弈”(例如选民贿赂、胁迫、社会压力)直接作用于你的行为(即你投谁),而不是整个投票的结果,所以不会被 N 稀释。因此,除非对边缘博弈加以严格限制,它们将默认主导整个过程,使得选民无法基于政策优劣做出理性判断。
这种情况不仅适用于国家层面的民主理论,几乎所有的公司或政府中的委托-代理问题也都会面临同样的风险:
所有这些情境中,核心问题是一样的:如果代理人选择诚信行事,他们只能分得其决定为组织带来效益中的一小部分;但如果他们选择参与边缘博弈,他们将能获得该行为所带来的全部利益。因此,即使是在今天,我们仍然在依赖大量的道德自律来维系制度的正常运作,以防整个社会陷入一层又一层的边缘博弈循环之中。如果隐私进一步被削弱,这些边缘博弈的激励将变得更强大,而维系社会运行所需的道德自律将达到几乎无法承受的程度。
社会系统能否被重新设计,从而避免这个问题?遗憾的是,博弈论几乎明确表示这是不可能的(唯一的例外是彻底的独裁)。在以个体选择为核心的博弈论版本中——也就是假设每个参与者独立决策,且不考虑代理人结盟互利的可能性时——机制设计者拥有极大的空间来“设计”博弈机制,以实现各种特定结果。实际上,数学上已经证明,任何博弈至少存在一个稳定的纳什均衡,因此这类博弈是可以被系统分析的。但在允许代理人结盟合作(即“勾结”)的博弈论版本中,也就是所谓的合作博弈论,我们可以证明存在大量博弈根本没有任何稳定结果(即“核心)”为空)。在这些博弈中,无论当前的状态如何,总有某个联盟可以从偏离现状中获利。
如果我们认真对待这些数学原理,就会得出一个结论:建立稳定社会结构的唯一方式,就是限制参与者之间的协作程度——而这就意味着需要强隐私(包括可否认性)。即使不从数学推理出发,只要观察现实世界,或至少思考前文提到的一些委托代理场景在被“副本游戏”占据后会变成什么样,也能得出相同结论。
这也进一步说明了为何政府“后门”是危险的。如果每个人都能无限制地与他人就一切事情进行协调,结果就是混乱。而如果只有少数人能做到这一点,仅因为他们拥有对信息的特权访问权,结果则是他们将主导一切。如果某个政党拥有另一个政党通信内容的后门访问权限,那就极可能终结多党制的可行性。
另一个高度依赖“限制串通”才能正常运作的社会秩序,是知识与文化活动。知识与文化活动本质上是一种出于内在动机、服务公共利益的任务:很难通过外在激励机制去直接引导人们做出对社会有益的正向贡献,因为这些活动本身就在探讨什么才是“有益的行为”。我们可以建立一些粗略的商业或社会激励体系,引导方向接近正确,但它们仍需依赖大量内在动机来补充。而这也意味着,这类活动极易被错配的外部激励(特别是社交压力与强制行为等副本游戏)所扰乱。为了限制这些错配激励的影响,隐私再一次成为必要条件。
想象一个没有公钥加密和对称加密的世界。在这个世界中,远距离安全传递消息会变得非常困难——不是不可能,但确实很难。这会极大地阻碍国际合作,导致更多交流只能依赖线下、面对面的方式进行。这样的世界将更加贫穷,也更加不平等。
我认为,我们今天的处境,正好就像相对于一个假想中的未来世界——在那个世界中,更强大的加密形式被广泛使用,尤其是可编程加密技术,并辅以更强大的全栈安全机制和形式化验证,以确保这些加密技术的正确使用,从而提供强有力的保障。
埃及神协议:三种强大且高度通用的构建,可以让我们在保护数据隐私的同时对数据进行计算。
一个很好的例子来源于医疗保健。如果你和任何在长寿、抗疫或其他健康领域工作的人交谈,他们都会普遍告诉你,未来的治疗和预防将是个性化的,而有效的应对高度依赖于高质量的数据,包括关于个人的数据和关于环境的数据。有效保护人们免受空气传播疾病的侵害需要了解哪里空气质量更高或更低,以及哪些区域在任何时候都有病原体的出现。最先进的长寿诊所都会根据关于你身体、食物偏好和生活方式的数据,提供定制的建议和治疗。
然而,所有这些同时也带来了巨大的隐私风险。我个人知道一个事件,某个空气监测器被发给了一名员工,并且该监测器会将数据“上报”给公司,收集的数据足以确定该员工何时进行性生活。正因为有这样的情况,我预计默认情况下,许多最有价值的数据将根本不会被收集,正是因为人们担心隐私后果。即使数据被收集,它通常也不会广泛共享或提供给研究人员——部分是出于商业原因,但更多的原因是涉及到隐私问题。
同样的模式在其他领域也有重复。我们自己行为中有大量的信息存在于我们写的文件、通过各种应用发送的消息以及在社交媒体上的各种行动中,这些都可以用来更有效地预测和提供我们日常生活中所需的东西。我们如何与物理环境互动,也有大量非医疗相关的信息。今天,我们缺乏有效使用这些信息的工具,而不导致反乌托邦式的隐私噩梦。明天,我们可能会拥有这些工具。
解决这些挑战的最佳方法是使用强加密技术,它可以让我们在不带来负面后果的情况下分享数据。包括个人数据在内的数据访问需求,在人工智能时代只会变得更加重要,因为能够基于我们偏好的高保真度近似值本地训练和运行“数字双胞胎”,从而代我们做出决策,具有很大的价值。最终,这也将涉及使用脑-机接口(BCI)技术,读取我们大脑的高带宽输入。为了避免这一切导致高度集中的全球霸权,我们需要确保在尊重强隐私的前提下进行这一切。可编程加密技术是最值得信赖的解决方案。
我的AirValent空气质量监测器。想象一下这样的设备,它收集空气质量数据,将汇总统计信息公开在一个开放数据地图上,并通过奖励你提供的数据——同时使用可编程加密技术来避免泄露你的个人位置信息,并验证数据的真实性。
可编程加密技术,如零知识证明,非常强大,因为它们就像信息流的乐高积木。它们可以精确控制谁能看到哪些信息,并且通常更重要的是,控制哪些信息根本不可以被看到。例如,我可以证明我拥有一张加拿大护照,显示我已满18岁,而不透露任何关于我个人的其他信息。这使得各种有趣的组合成为可能。我可以举几个例子:
台湾的消息检查器应用程序,用户可以选择打开或关闭多个过滤器,从上到下依次为:URL检查、加密货币地址检查、谣言检查。
最近,ChatGPT宣布将开始将你的过往对话作为上下文输入AI,以供未来对话使用。这一趋势不可避免地会朝这个方向发展:AI回顾你的过往对话并从中提取见解,根本上是非常有用的。在不久的将来,我们可能会看到一些AI产品对隐私进行更深层次的侵犯:被动收集你的互联网浏览模式、电子邮件和聊天记录、生物特征数据等。
理论上,你的数据应该对你保持私密。实际上,这似乎并非总是如此。
“哇!ChatGPT 有一个 bug,导致其他人提问的问题推送给我!这真是一个巨大的隐私泄露。我提了一个问题,发生了错误,然后点击‘重试’生成了一个我绝对不会提的问题并回答了它。”
隐私保护在此情况下可能正常工作,而 AI 在此情况下产生了一个 Bruce 根本没有提过的问题并回答了它,但我们无法验证。类似地,也无法验证我们的对话是否被用来进行训练。
这一切都令人深感担忧。更令人不安的是明确的 AI 监控用例,其中(物理和数字)数据正在大规模收集和分析,且没有人们的同意。面部识别已经帮助专制政权大规模打压政治异见。最令人担忧的是 AI 数据收集和分析的最终前沿:人类大脑。
原则上,大脑-计算机接口技术具有极大的潜力,可以提升人类潜能。以 Noland Arbaugh 的故事为例,他是 Neuralink 去年开始的首位病人:
这个实验设备让 Arbaugh(现在 30 岁)感到更独立。在此之前,使用口杆需要有人将他摆放正位。如果他掉了口杆,还需要别人捡起来。而且他不能长时间使用口杆,否则会得伤口。有了 Neuralink 设备,他几乎能完全控制计算机。他可以随时上网、玩游戏,Neuralink 还表示他已经创下了使用 BCI 控制光标的人的纪录。
如今,这些设备足够强大,能够赋能伤者和病人。明天,它们将足够强大,给予完全健康的人与计算机合作的机会,并能进行心灵感应式交流(!!),这种效率对我们来说似乎是不可想象的。但实际上,解读大脑信号以实现这种通信的能力需要 AI。
随着这些趋势的交汇,可能会出现一个黑暗的未来,我们会有硅基超级代理,可以吸收并分析每个人的信息,包括他们如何写作、行动和思考。但也有一个更光明的未来,在这个未来里,我们可以在保护隐私的同时,享受这些技术的好处。
这可以通过几种技术的组合来实现:
2008年,自由主义哲学家David Friedman写了一本名为《Future Imperfect》的书,书中他描绘了一系列关于新技术可能带来的社会变化的草图,其中并非所有变化都对他有利(或对我们有利)。在其中的一部分内容中,他描述了一个潜在的未来,我们将在其中看到隐私与监控之间复杂的互动,数字隐私的增长与现实世界监控的增长相互制衡:
如果墙上有一只视频蚊子在看我打字,那么对我的电子邮件使用强加密是没有意义的。因此,在透明的社会中实现强隐私需要某种方式来保护我与虚拟空间之间的接口……一种低技术解决方案是戴着罩子打字。一种高技术解决方案是建立一种大脑与机器之间的连接,避免通过手指——或者任何外部观察者可见的其他东西。24
现实空间的透明性与虚拟空间隐私之间的冲突同样存在……我的口袋计算机使用你的公钥加密我的信息并将其传输到你的口袋计算机,后者解密信息并通过你的VR眼镜显示它。为了确保没有人从你肩膀上窥视眼镜,护目镜不是通过屏幕显示图像,而是通过使用微型激光将图像写在你的视网膜上。幸运的话,你眼球的内部仍然是私密空间。
我们可能最终会生活在一个物理行为完全公开、信息交易完全私密的世界里。这有一些吸引人的特点。私人公民仍然可以利用强隐私雇佣杀手,但雇佣杀手的费用可能比他们愿意支付的还要高,因为在一个充分透明的世界里,所有的谋杀都会被侦测到。每个杀手完成一个任务后会直接入狱。
这些技术与数据处理之间的互动又如何呢?一方面,正是现代数据处理使得透明社会成为如此巨大的威胁——没有数据处理,这些录像不重要,因为没有人能够在每天生产的数百万英里视频中找到他们想要的特定六英寸录像。另一方面,支持强隐私的技术为在拥有现代数据处理的世界中恢复隐私提供了可能,通过确保有关交易的信息从未泄露给除你以外的任何人。
这样的世界可能会是所有可能世界中最好的:如果一切顺利,我们将看到一个未来,物理暴力极少,但同时保留我们在线上的自由,并确保政治、民间、文化和知识过程的基本运作,这些过程依赖于某种程度的信息透明度限制,以保持其持续运作。
即使它不是理想的,它也比那个物理与数字隐私彻底消失的版本要好,最终包括我们自己思想的隐私,在2050年代中期,我们会看到一些思考文章论述,理所当然地认为,无法思考不受合法监听的思想是不现实的,而对这些文章的回应将是链接到最近发生的一次事件,其中一家公司AI的LLM漏洞导致三千万人私密内心独白被泄露到整个互联网。
社会一直依赖于隐私与透明度之间的平衡。在某些情况下,我也支持对隐私的限制。举个与通常人们给出的论点完全无关的例子,我支持美国政府禁止合同中的非竞争条款,这主要不是因为它们对工人的直接影响,而是因为它们是迫使公司的隐性领域知识部分开源的方式。迫使公司比它们愿意的更开放是对隐私的限制——但我认为这是一个净受益的限制。但从宏观角度来看,未来技术最紧迫的风险是隐私将接近历史最低点,并且这种趋势将高度失衡,最有权力的个人和国家将获取关于每个人的大量数据,而其他人几乎一无所知。因此,支持每个人的隐私,并确保必要的工具是开源的、普及的、可靠的、安全的,是我们时代的重要挑战之一。
本文转载自 [Vitalik]。所有版权归原作者 [Vitalik] 所有。若对本次转载有异议,请联系 Gate Learn 团队,他们将及时处理。
免责声明:本文所表达的观点和意见仅代表作者个人观点,不构成任何投资建议。
本文的其他语言翻译由 Gate Learn 团队完成。除非另有说明,否则禁止复制、分发或抄袭翻译文章。