Porque apoio a privacidade

Avançado4/18/2025, 2:45:51 AM
O novo trabalho de Vitalik, um discurso sistemático sobre o valor da privacidade digital, explora como a privacidade sustenta a liberdade, a ordem e o progresso tecnológico. É uma peça importante da literatura do pensamento na era da IA e do blockchain.

Um agradecimento especial aos voluntários da Balvi, Paul Dylan-Ennis, pcaversaccio, vectorized, Bruce Xu e Luozhu Zhang pela discussão e feedback.

Recentemente, tenho estado cada vez mais focado emmelhorar o estado da privacidadeno ecossistema Ethereum. A privacidade é um importante garante da descentralização: quem tem a informação tem o poder, logo, precisamos evitar o controle centralizado sobre a informação. Quando as pessoas no mundo real expressam preocupação sobre a infraestrutura técnica operada centralmente, a preocupação às vezes é sobre os operadores mudarem as regras inesperadamente ou desplataformarem os utilizadores, mas com a mesma frequência, é sobre a recolha de dados. Enquanto o espaço das criptomoedas tem as suas origens em projetos como Chaumian Ecash, que colocou a preservação da privacidade financeira digital em primeiro plano, mais recentemente desvalorizou a privacidade por um motivo ruim: antes do ZK-SNARKs, não tínhamos como oferecer privacidade de forma descentralizada e, portanto, a minimizamos, concentrando-nos exclusivamente em outras garantias que poderíamos fornecer na época.

Hoje, no entanto, a privacidade já não pode ser ignorada. A IA está a aumentar consideravelmente as capacidades de recolha e análise de dados centralizados, expandindo muito o âmbito dos dados que partilhamos voluntariamente. No futuro, novas tecnologias como interfaces cérebro-computador trazem novos desafios: podemos estar literalmente a falar sobre a IA a ler as nossas mentes. Ao mesmo tempo, temos ferramentas mais poderosas para preservar a privacidade, especialmente no domínio digital, do que os ciberpunks dos anos 90 poderiam ter imaginado: provas de conhecimento zero altamente eficientes (ZK-SNARKs) podem proteger as nossas identidades enquanto revelam informação suficiente para provar que somos dignos de confiança, a criptografia totalmente homomórfica (FHE) pode permitir-nos calcular sobre dados sem ver os dados, e a obfuscação pode em breve oferecer ainda mais.

A privacidade não é sobre estar separado. É sobre estar juntos.

Neste momento, vale a pena recuar e rever a questão: por que queremos privacidade em primeiro lugar? A resposta de cada pessoa será diferente. Neste post, darei a minha própria, que dividirei em três partes:

  • Privacidade é liberdade: a privacidade nos dá espaço para viver nossas vidas da maneira que atende às nossas necessidades, sem nos preocuparmos constantemente com a forma como nossas ações serão percebidas em todos os tipos de jogos políticos e sociais
  • A privacidade é a ordem: uma série de mecanismos que subjazem ao funcionamento básico da sociedade dependem da privacidade para funcionar
  • A privacidade é progresso: se encontrarmos novas formas de partilhar seletivamente as nossas informações, protegendo-as de serem mal utilizadas, podemos desbloquear muito valor e acelerar o progresso tecnológico e social

Privacidade é liberdade

No início dos anos 2000, era popular ter pontos de vista semelhantes aos epitomizados pelo livro de 1998 de David BrinA Sociedade Transparente: a tecnologia tornaria as informações em todo o mundo muito mais transparentes, e embora isso tenha desvantagens e exija adaptação, em média é algo muito bom, e podemos torná-lo justo garantindo que as pessoas possam vigiar (ou melhor,sousveil) o governo também. Em 1999, o CEO da Sun Microsystems, Scott McNealy famously exclaimed: “a privacidade está morta, superem isso!”. Esta mentalidade era comum na conceção e desenvolvimento inicial do Facebook, que identidades pseudónimas banidas. Eu pessoalmente lembro-me de ter experimentado o final desta mentalidade numa apresentação num evento da Huawei em Shenzhen em 2015, onde um orador (ocidental) mencionou casualmente, num comentário casual, que "a privacidade acabou".

A Sociedade Transparente representava o melhor e o mais brilhante do que a ideologia do “fim da privacidade” tinha para oferecer: prometia um mundo melhor, mais justo e equitativo, usando o poder da transparência para responsabilizar os governos em vez de reprimir os indivíduos e minorias. No entanto, em retrospectiva, é claro que até mesmo esta abordagem foi um produto de seu tempo, escrita no auge do entusiasmo sobre a cooperação global e a paz e “o fim da história”, e dependia de um número de pressupostos excessivamente otimistas sobre a natureza humana. Principalmente:

  1. As camadas de alto nível da política global seriam geralmente bem-intencionadas e sensatas, tornando a privacidade vertical (ou seja, não revelar informações a pessoas e instituições poderosas) cada vez mais desnecessária. Os abusos de poder seriam geralmente localizados, e a melhor maneira de combater esses abusos é trazê-los à luz do dia.
  2. A cultura continuaria a melhorar até ao ponto em que a privacidade horizontal (ou seja, não revelar informações a outros membros do público) se tornaria desnecessária. Os nerds, gays e, por fim, todos os outros poderiam deixar de se esconder no armário, porque a sociedade deixaria de ser dura e crítica em relação às características únicas das pessoas e, em vez disso, tornar-se-ia aberta e aceitante.

Hoje, não há um único país importante para o qual a primeira suposição seja amplamente aceite como verdadeira e muitos para os quais é amplamente considerada falsa. No segundo front, a tolerância cultural também tem regredido rapidamente - uma simples pesquisa no Twitter por frases como bullying é bom"é uma prova disso, embora seja fácil encontrar mais.

Pessoalmente, tenho o azar de encontrar regularmente as desvantagens da “sociedade transparente”, pois cada ação que realizo fora de casa tem alguma chance não nula de, inesperadamente, se tornar uma notícia nos media públicos:

O pior infrator foi alguém que fez um vídeo de um minuto enquanto eu estava a trabalhar no computador em Chiang Mai e procedeu a publicá-lo no xiaohongshu, onde imediatamente obteve milhares de gostos e partilhas. Claro, a minha situação é muito longe da norma humana - mas isso sempre foi o caso da privacidade: a privacidade é menos necessária para pessoas cujas situações de vida são relativamente normais e mais necessária para pessoas cujas situações de vida se desviam da norma, em qualquer direção. E uma vez que se somam todas as diferentes direções que importam, o número de pessoas que realmente precisam de privacidade acaba sendo bastante grande - e nunca se sabe quando você se tornará uma delas. Esta é uma grande razão pela qual a privacidade é frequentemente subestimada: não se trata apenas da sua situação e das suas informações hoje, mas também dos desconhecidos desconhecidos do que acontece com essas informações (e de como isso o afeta) seguindo em frente para sempre no futuro.

A privacidade dos mecanismos de preços corporativos é uma preocupação de nicho hoje, mesmo entre os defensores da IA, mas com o aumento das ferramentas de análise baseadas em IA, é provável que se torne um problema crescente: quanto mais uma empresa sabe sobre você, mais também são capazes de lhe oferecer um preço personalizado que maximiza o quanto podem extrair de você multiplicado pela probabilidade de que você pagará.

Posso expressar o meu argumento geral pela privacidade como liberdade numa frase, da seguinte forma:

A privacidade dá-te a liberdade de viveres a tua vida da forma que melhor se adeque aos teus objetivos e necessidades pessoais, sem teres constantemente de equilibrar cada ação entre 'o jogo privado' (as tuas próprias necessidades) e 'o jogo público' (como todas as outras pessoas, intermediadas por todo o tipo de mecanismos, incluindo cascadas de redes sociais, incentivos comerciais, política, instituições, etc., perceberão e responderão ao teu comportamento).

Sem privacidade, tudo se torna uma batalha constante de "o que outras pessoas (e bots) vão pensar do que estou fazendo" - pessoas poderosas, empresas e colegas, pessoas hoje e no futuro. Com privacidade, podemos preservar um equilíbrio. Hoje, esse equilíbrio está sendo rapidamente erodido, especialmente no âmbito físico, e o caminho padrão do tecno-capitalismo moderno, com sua fome por modelos de negócios que encontram maneiras de capturar valor dos usuários sem pedir explicitamente que eles paguem por coisas, é erodir ainda mais (até em domínios altamente sensíveis como, eventualmente, nossas próprias mentes). Portanto, precisamos contrariar esse efeito e apoiar a privacidade de forma mais explícita, especialmente no local onde mais pragmaticamente podemos: o âmbito digital.

Mas por que não permitir backdoors do governo?

Existe uma resposta comum ao raciocínio acima: as desvantagens da privacidade que descrevi são em grande parte desvantagens do público saber demais sobre nossas vidas privadas, e mesmo quando se trata de abuso de poder, é sobre corporações, chefes e políticos saberem demais. Mas não vamos permitir que o público, as corporações, os chefes e os políticos tenham todos esses dados. Em vez disso, permitiremos que um pequeno grupo de profissionais altamente treinados e bem avaliados da aplicação da lei veja os dados retirados das câmeras de segurança nas ruas e das escutas nos cabos de internet e aplicações de chat, apliquem procedimentos rigorosos de responsabilização e mais ninguém ficará sabendo.

Esta é uma posição silenciosa, mas amplamente mantida, e por isso é importante abordá-la explicitamente. Existem várias razões pelas quais, mesmo que implementadas a um alto padrão de qualidade com boas intenções, tais estratégias são inherentemente instáveis:

  1. Na prática, não é apenas o governo, são também todos os tipos de entidades corporativas, de vários níveis de qualidade. Nos sistemas financeiros tradicionais, as informações de KYC e pagamento são mantidas pelos processadores de pagamento, bancos e todos os tipos de outros intermediários. Os provedores de e-mail veem enormes quantidades de dados de todos os tipos. As empresas de telecomunicações conhecem a sua localização e regularmenterevendê-lo ilegalmente. Em geral, a fiscalização de todas essas entidades a um nível suficiente de rigor que garanta que elas realmente tenham um alto nível de cuidado com os dados do usuário é tão intensiva em esforço tanto para quem observa quanto para quem é observado que é provavelmente incompatível com a manutenção de um mercado livre competitivo.
  2. Indivíduos que têm acesso sempre sentirão a atração de abusar dele (incluindo ao vender a terceiros). Em 2019, vários funcionários do Twitter estavam cobradoemais tarde condenadopara vender informações pessoais de dissidentes à Arábia Saudita.
  3. Os dados podem sempre ser pirateados. Em 2024, os dados que as empresas de telecomunicações dos EUA eram legalmente obrigadas a recolher foram pirateados,alegadamente por hackers afiliados ao estado da China. Em 2025, grandes quantidades de dados pessoais sensíveis mantidos pelo governo ucraniano foi hackeado pela Rússia. E no sentido oposto, bases de dados altamente sensíveis do governo e das empresas na China também ser hackeado, incluindo pelo governo dos EUA.
  4. O regime pode mudar. Um governo que é confiável hoje pode não ser confiável amanhã. As pessoas no comando hoje podem ser perseguidas amanhã. Uma agência policial que mantém padrões impecavelmente elevados de respeito e decoro um dia pode se ver reduzida a todo tipo de crueldade alegre uma década depois.

Do ponto de vista de um indivíduo, se os dados forem retirados deles, não têm forma de saber se e como serão abusados no futuro. Até agora, a abordagem mais segura para lidar com dados em larga escala é recolher o mínimo possível centralmente em primeiro lugar. Os dados devem ser mantidos ao máximo pelos próprios utilizadores, e meios criptográficos devem ser utilizados para permitir a agregação de estatísticas úteis sem comprometer a privacidade individual.

O argumento de que o governo deve ter a capacidade de aceder a qualquer coisa com um mandado porque é assim que as coisas sempre funcionaram perde um ponto chave: historicamente, a quantidade de informação disponível para ser obtida com mandados era muito menor do que a disponível hoje, e até do que estaria disponível se as formas mais fortes de privacidade na internet fossem universalmente adotadas. No século XIX, a conversa média ocorria uma vez, por voz, e nunca era gravada por ninguém. Por esta razão: a inteirapânico moral em torno do “ir para o escuro”é ahistorical: a conversa média, e até a transação financeira, sendo totalmente e incondicionalmente privada é a norma histórica de vários milhares de anos.

Uma conversa média, 1950. Exactamente zero palavras da conversa foram alguma vez gravadas, espiadas, sujeitas a "interceptação legal", analisadas por IA ou de outra forma vistas por alguém em algum momento que não os participantes na conversa enquanto esta está a acontecer.

Outra razão importante para minimizar a coleta centralizada de dados é a natureza internacional inerente a grandes partes da comunicação global e interação econômica. Se todos estiverem no mesmo país, é pelo menos uma posição coerente dizer que 'o governo' deve ter acesso aos dados em suas interações. Mas e se as pessoas estiverem em países diferentes? Certamente, em princípio, você poderia tentar criar um esquema incrivelmente complexo onde os dados de cada pessoa são mapeados para alguma entidade de acesso legal responsável por eles - embora mesmo assim você teria que lidar com um grande número de casos limítrofes envolvendo dados que se relacionam com várias pessoas. Mas mesmo que você pudesse, não é o resultado padrão realista. O resultado padrão realista das 'portas dos fundos' do governo é: os dados se concentram em um pequeno número de jurisdições centrais que têm os dados de todos porque controlam as aplicações - essencialmente, uma hegemonia tecnológica global. A forte privacidade é de longe a alternativa mais estável.

Privacidade é ordem

Há mais de um século que se reconhece que um componente técnico-chave para fazer a democracia funcionar é o voto secreto: ninguém sabe em quem votou, e além disso, não tem a capacidade de provar a ninguém em quem votou, mesmo que realmente queira. Se os votos não fossem secretos por padrão, os eleitores seriam abordados com todo o tipo de incentivos laterais que afetariam a sua forma de votar: subornos, promessas de recompensas retroativas, pressão social, ameaças e muito mais.

Pode-se ver que tais incentivos laterais quebrariam completamente a democracia com um simples argumento matemático: em uma eleição com N pessoas, a sua probabilidade de afetar o resultado é apenas aproximadamente 1/N, e então quaisquer considerações relacionadas a qual candidato é melhor e qual é pior são inerentemente divididas por N. Enquanto isso, os "jogos laterais" (por exemplo, suborno de eleitores, coerção, pressão social) atuam diretamente em você com base em como você vota (em vez de com base no resultado do voto como um todo), e assim não são divididos por N. Portanto, a menos que os jogos laterais sejam rigorosamente controlados, por padrão, eles dominam todo o jogo e sufocam qualquer consideração sobre quais políticas do candidato são realmente melhores.

Isso se aplica não apenas à democracia em escala nacional. Teoricamente, se aplica a quase qualquer problema de agente principal corporativo ou governamental:

  • Um juiz decidindo como decidir em um caso
  • Um funcionário governamental decidindo a qual empresa conceder um contrato ou subsídio
  • Um oficial de imigração decidindo conceder ou rejeitar um visto
  • Um funcionário de uma empresa de redes sociais a decidir como aplicar a política de moderação de conteúdo
  • Um funcionário de uma empresa que contribui para uma decisão de negócio (por exemplo, de qual fornecedor comprar)

O problema fundamental em todos os casos é o mesmo: se o agente age honestamente, absorvem apenas uma pequena parte do benefício da sua ação para a entidade que estão a representar, enquanto se seguirem os incentivos de algum jogo paralelo, então absorvem a parte total desses benefícios. Por isso, mesmo hoje, estamos a depender de muita boa vontade moral para garantir que todas as nossas instituições não sejam completamente dominadas por um caos de jogos laterais que derrubam jogos laterais. Se a privacidade diminuir ainda mais, então esses jogos laterais tornam-se ainda mais fortes, e a boa vontade moral necessária para manter a sociedade a funcionar pode tornar-se irrealisticamente alta.

Será que os sistemas sociais podem ser redesenhados para não terem este problema? Infelizmente, a teoria dos jogos praticamente diz explicitamente que isso é impossível (com uma exceção: ditadura total). Na versão da teoria dos jogos que se concentra na escolha individual - isto é, na versão que assume que cada participante toma decisões independentemente e que não permite a possibilidade de grupos de agentes trabalharem como um para benefício mútuo, os designers de mecanismos têm uma ampla latitude parajogos de "engenheiro"para alcançar todos os tipos de resultados específicos. Na verdade, existem provas matemáticas que, para qualquer jogo, pelo menos um equilíbrio de Nash estável deve existir, e, portanto, analisar tais jogos torna-se tratável. Mas na versão da teoria dos jogos que permite a possibilidade de coligações trabalharem em conjunto (ou seja, "coludindo"), chamada teoria dos jogos cooperativos,podemos provar issoexistem grandes classes de jogos que não têm nenhum resultado estável (chamado de “núcleo)”). Em tais jogos, seja qual for o estado atual das coisas, há sempre uma coligação que pode desviar-se dele de forma lucrativa.

Se levamos a matemática a sério, nós chegar à conclusãoque a única maneira de criar estruturas sociais estáveis é ter alguns limites na quantidade de coordenação entre os participantes que pode acontecer - e isso implica forte privacidade (incluindo a negação). Se você não levar a matemática a sério por si só, então basta observar o mundo real, ou pelo menos pensar no que algumas das situações principal-agente descritas acima poderiam se tornar se fossem tomadas por jogos paralelos, para chegar à mesma conclusão.

Note que isso introduz outro argumento sobre por que as portas dos fundos do governo são arriscadas. Se todos tiverem capacidade ilimitada de coordenar com todos sobre tudo, o resultado é o caos. Mas se apenas algumas pessoas puderem fazer isso, porque têm acesso privilegiado à informação, então o resultado é que dominam. Um partido político tendo acesso aos backdoors às comunicações do outro pode facilmente significar o fim da viabilidade de ter vários partidos políticos.

Outro exemplo importante de uma ordem social que depende de limites para a colusão a fim de funcionar é a atividade intelectual e cultural. A participação na atividade intelectual e cultural é, por natureza, uma tarefa intrinsecamente motivada pelo interesse público: é muito difícil criar incentivos extrínsecos que visem contribuições positivas para a sociedade, precisamente porque a atividade intelectual e cultural é, em parte, a atividade de determinar quais ações na sociedade são ações positivas em primeiro lugar. Podemos criar incentivos comerciais e sociais aproximados que apontem na direção certa, mas eles também exigem uma forte complementação por motivação intrínseca. Mas isso também significa que este tipo de atividade é altamente frágil a motivações extrínsecas desalinhadas, especialmente jogos paralelos como pressão social e coerção. Para limitar o impacto de tais motivações extrínsecas desalinhadas, a privacidade é mais uma vez necessária.

Privacidade é progresso

Imagine um mundo onde a criptografia de chave pública e simétrica não existisse de todo. Neste mundo, enviar mensagens de forma segura através de longas distâncias seria inerentemente muito mais difícil -não impossível, mas difícil. Isso levaria a muito menos cooperação internacional a ter lugar, e como resultado, muito mais continuaria a acontecer através de canais offline em pessoa. Isso teria tornado o mundo um lugar muito mais pobre e desigual.

Vou argumentar que hoje estamos exatamente nesse lugar hoje, relativamente a um mundo hipotético de amanhã onde formas muito mais fortes de criptografia estavam amplamente disponíveis - em particular, criptografia programável, complementada por formas mais fortes de segurança full-stack e verificação formal para nos dar garantias sólidas de que essa criptografia está sendo usada corretamente.

O Protocolos do deus egípcio: três construções poderosas e altamente versáteis que nos permitem realizar cálculos sobre dados ao mesmo tempo que mantêm os dados completamente privados.

Uma excelente fonte de exemplos é a saúde. Se conversar com alguém que tenha estado a trabalhar em longevidade, resistência a pandemias ou outros campos da saúde na última década, dir-lhe-á universalmente que o futuro do tratamento e prevenção é personalizado, e a resposta eficaz depende muito de dados de alta qualidade, tanto dados sobre indivíduos como dados sobre o ambiente. Proteger eficazmente as pessoas contra doenças transmitidas pelo ar requer saber onde a qualidade do ar é mais alta e mais baixa, e em que regiões os patógenos estão a surgir a qualquer momento. As clínicas de longevidade mais avançadas dão todas recomendações e tratamentos personalizados com base em dados sobre o seu corpo, preferências alimentares e estilo de vida.

No entanto, cada uma destas coisas são simultaneamente enormes riscos de privacidade. Estou pessoalmente ciente de um incidente em que um monitor de ar foi dado a um funcionário que "ligou para casa" para uma empresa, e os dados recolhidos foram suficientes para determinar quando esse funcionário estava a ter relações sexuais. Por razões como esta, espero que por padrão muitas das formas mais valiosas de dados não sejam recolhidas de todo, precisamente porque as pessoas têm medo das consequências para a privacidade. E mesmo quando os dados são recolhidos, quase nunca serão amplamente partilhados ou disponibilizados a investigadores - em parte por motivos comerciais, mas muitas vezes também devido às preocupações com a privacidade envolvidas.

O mesmo padrão é repetido em outras esferas. Há uma quantidade enorme de informações sobre nós mesmos em nossas ações em documentos que escrevemos, mensagens que enviamos através de várias aplicações e várias ações nas redes sociais, que poderiam ser usadas de forma mais eficaz para prever e fornecer as coisas de que precisamos em nossa vida diária. Há uma quantidade enorme de informações sobre como interagimos com nossos ambientes físicos que não está relacionada com a saúde. Hoje, faltam as ferramentas para usar efetivamente essas informações sem criar pesadelos de privacidade distópicos. Amanhã, podemos ter essas ferramentas.

A melhor forma de resolver estes desafios é usar criptografia forte, que nos permite obter os benefícios da partilha de dados sem as desvantagens. A necessidade de aceder a dados, incluindo dados pessoais, tornar-se-á ainda mais importante na era da IA, uma vez que há valor em poder treinar e executar localmente “gémeos digitais” que possam tomar decisões em nosso nome com base em aproximações de alta fidelidade das nossas preferências. Eventualmente, isto envolverá também a utilização de tecnologia de interface cérebro-computador (BCI), lendo entradas de alta largura de banda das nossas mentes. Para que isto não conduza a uma hegemonia global altamente centralizada, precisamos de formas de o fazer com respeito pela privacidade forte. A criptografia programável é a solução mais confiável.

A minha AirValentmonitor de qualidade do ar. Imagine um dispositivo como este que recolhe dados de qualidade do ar, faz estatísticas agregadas publicamente disponíveis num mapa de dados abertos e recompensa-o por fornecer os dados - tudo isto enquanto utiliza criptografia programável para evitar revelar os seus dados de localização pessoais e verificar que os dados são genuínos.

A privacidade pode ser progresso para manter a nossa sociedade segura

Técnicas de criptografia programáveis como provas de conhecimento zero são poderosas, porque são como tijolos de Lego para o fluxo de informação. Podem permitir um controlo detalhado sobre quem pode ver que informação e, muitas vezes mais importante, que informação pode ser vista de todo. Por exemplo, posso provar que tenho um passaporte canadiano que mostra que tenho mais de 18 anos, sem revelar mais nada sobre mim.

Isto torna possíveis todos os tipos de combinações fascinantes. Posso dar alguns exemplos:

  • Prova de conhecimento zero de pessoalidade: provando que você é uma pessoa única (através de várias formas de identificação: passaporte, biometria, descentralizado com base em gráficos sociais) sem revelar mais nada sobre qual pessoa você é. Isso poderia ser usado para "prova de não ser um bot", todos os tipos de "casos de uso máximo de N por pessoa" e muito mais, preservando total privacidade além de revelar o fato de que as regras não estão sendo quebradas.
  • Piscinas de Privacidade, uma solução de privacidade financeira que pode excluir maus atores sem exigir backdoors. Ao gastar, os utilizadores podem provar que as suas moedas não provêm de uma fonte que não faz parte de uma lista publicamente conhecida de hacks e roubos; os hackers e ladrões eles próprios são os únicos que não conseguiriam gerar tal prova e, por isso, não conseguiriam esconder-se.Railguneprivacypools.comestão atualmente ativos e usando tal esquema.
  • Verificação de anti-fraude no dispositivo: isso não depende de ZKPs, mas parece pertencer a esta categoria. Você pode usar filtros no dispositivo (incluindo LLMs) para verificar mensagens recebidas e identificar automaticamente desinformação e fraudes potenciais. Se feito no dispositivo, não compromete a privacidade do usuário e pode ser feito de forma que capacita o usuário, dando a cada usuário a escolha de quais filtros subscrever.
  • Prova de proveniência para itens físicos: usando uma combinação de blockchains e provas de conhecimento zero, pode ser possível rastrear várias propriedades de um item através da sua cadeia de fabricação. Isso poderia permitir, por exemplo, precificar externalidades ambientais sem revelar publicamente a cadeia de abastecimento.


representação de pools de privacidade


o taiwanês Verificador de Mensagensaplicativo, que dá ao usuário a opção de ligar ou desligar vários filtros, aqui de cima para baixo: verificação de URL, verificação de endereço de criptomoeda, verificação de boatos

Privacidade e IA

Recentemente, ChatGPT anunciadoque começará a alimentar suas conversas passadas no AI como contexto para suas conversas futuras. Que a tendência continuará nessa direção é inevitável: um AI olhando suas conversas passadas e obtendo insights delas é fundamentalmente útil. No futuro próximo, provavelmente veremos pessoas criando produtos de AI que farão intrusões ainda mais profundas na privacidade: coletando passivamente seus padrões de navegação na internet, histórico de e-mails e conversas, dados biométricos e muito mais.

Em teoria, os seus dados mantêm-se privados para si. Na prática, nem sempre parece ser o caso:

Wow! O ChatGPT tem um bug, e empurra perguntas feitas por outros para mim! Isso é uma grande violação de privacidade. Fiz uma pergunta, recebi um erro e depois 'Tentar Novamente' gerou uma pergunta que eu nunca faria.

É sempre possível que a proteção da privacidade tenha funcionado bem e, neste caso, a IA alucinou ao gerar uma pergunta que o Bruce nunca fez e responder a isso. Mas não há forma de verificar. Da mesma forma, não há forma de verificar se as nossas conversas estão a ser usadas para treino.

Tudo isso é profundamente preocupante. Ainda mais perturbadores são os casos de uso explícito de vigilância de IA, onde dados (físicos e digitais) sobre as pessoas estão sendo coletados e analisados em grande escala sem o seu consentimento. O reconhecimento facial já está ajudando regimes autoritários reprimir a dissidência políticaem grande escala. E o mais preocupante de tudo é a inevitável fronteira final da recolha e análise de dados de IA: a mente humana.

Em princípio, a tecnologia de interface cérebro-computador tem um poder incrível para impulsionar o potencial humano. Pegue a história de Noland Arbaugh, Primeiro paciente da Neuralink desde o ano passado:

O dispositivo experimental deu a Arbaugh, agora com 30 anos, um sentido de independência. Antes, usar um bastão de boca exigia que alguém o posicionasse de pé. Se ele deixasse cair o bastão, precisava que alguém o apanhasse para ele. E ele não conseguia usá-lo por muito tempo ou desenvolveria feridas. Com o dispositivo Neuralink, ele tem quase controle total de um computador. Ele pode navegar na web e jogar jogos de computador sempre que quer, e a Neuralink diz que ele tem estabelecer o recorde humano de controle de cursor com um BCI.

Hoje, esses dispositivos são suficientemente poderosos para capacitar os feridos e doentes. Amanhã, serão suficientemente poderosos para dar a pessoas completamente saudáveis a oportunidade de trabalhar com computadores e comunicar telepaticamente entre si (!!), a um nível de eficiência que nos parece inimaginável. Mas, na realidade, interpretar os sinais cerebrais para tornar este tipo de comunicação possível requer IA.

Existe um futuro sombrio que poderia surgir naturalmente como uma confluência dessas tendências, e obtemos superagentes de silicone que estão absorvendo e analisando informações sobre todos, incluindo como eles escrevem, agem e pensam. Mas também existe um futuro mais brilhante, onde obtemos os benefícios dessas tecnologias enquanto preservamos nossa privacidade.

Isto pode ser feito com uma combinação de algumas técnicas:

  • Executando cálculos localmente sempre que possível - muitas tarefas (por exemplo, análise de imagem básica, tradução, transcrição, análise básica de ondas cerebrais para BCI) são simples o suficiente para serem realizadas totalmente em computação local. De fato, a computação local oferece até vantagens na redução da latência e na melhoria da verificabilidade. Se algo pode ser feito localmente, deve ser feito localmente. Isso inclui cálculos em que várias etapas intermediárias envolvem acesso à internet, login em contas de redes sociais, etc.
  • Usando criptografia para tornar a computação remota totalmente privada - criptografia totalmente homomórfica (FHE) poderia ser usado para realizar cálculos de IA remotamente sem permitir que o servidor remoto veja os dados ou os resultados. Historicamente, FHE tem sido muito caro, mas (i) recentemente tem melhorado rapidamente em eficiência, e (ii) LLMs são uma forma de computação única e estruturada, e quase tudo nela é operações lineares assintoticamente, o que a torna potencialmente muito adequada para implementações FHE ultraeficientes. Computação que envolve os dados privados de várias partes pode ser feita com computação multipartidária; o caso comum de duas partes pode ser tratado de forma extremamente eficiente com técnicas como circuitos embaralhados.
  • Usar verificação de hardware para estender garantias ao mundo físico - poderíamos insistir que o hardware que pode ler nossas mentes (seja de dentro do crânio ou de fora) deve ser aberto e verificável e usartécnicas como IRISpara verificar isso. Também podemos fazer isso em outros domínios: por exemplo, poderíamos ter câmeras de segurança que comprovadamente apenas salvam e encaminham o fluxo de vídeo se um LLM local o sinalizar como violência física ou emergência médica, e excluí-lo em todos os outros casos, e ter inspeção aleatória orientada pela comunidade com IRIS para verificar se as câmeras estão implementadas corretamente.

Futuro imperfeito

Em 2008, o filósofo libertário David Friedman escreveu um livro chamado Future Imperfect, na qual ele fez uma série de esboços sobre as mudanças na sociedade que as novas tecnologias podem trazer, nem todas a seu favor (ou ao nosso favor). Em uma secção, descreve um futuro potencial onde vemos uma interação complicada entre privacidade e vigilância, onde o crescimento da privacidade digital contrabalança o crescimento da vigilância no mundo físico:

Não adianta usar uma criptografia forte para o meu email se um mosquito de vídeo estiver sentado na parede me observando digitar. Portanto, a privacidade forte em uma sociedade transparente requer alguma forma de proteger a interface entre meu corpo no mundo real e o ciberespaço ... Uma solução de baixa tecnologia é digitar sob um capuz. Uma solução de alta tecnologia é algum tipo de ligação entre a mente e a máquina que não passa pelos dedos - ou qualquer outra coisa visível a um observador externo.24

O conflito entre a transparência no espaço real e a privacidade no ciberespaço também segue na direção oposta... O meu computador de bolso encripta a minha mensagem com a tua chave pública e transmite-a para o teu computador de bolso, que desencripta a mensagem e a exibe através dos teus óculos de realidade virtual. Para garantir que nada está a ler os óculos por cima do teu ombro, os óculos enviam a imagem para ti não ao exibindo num ecrã, mas sim utilizando um laser pequeno para a escrever na tua retina. Com alguma sorte, o interior do teu globo ocular ainda é um espaço privado.

Podemos acabar num mundo onde as ações físicas são totalmente públicas, as transações de informação totalmente privadas. Tem algumas características atrativas. Os cidadãos privados ainda poderão aproveitar a forte privacidade para localizar um assassino contratado, mas contratá-lo pode custar mais do que estão dispostos a pagar, uma vez que num mundo suficientemente transparente todos os assassinatos são detetados. Cada assassino contratado executa uma comissão e vai diretamente para a prisão.

E quanto à interação entre essas tecnologias e o processamento de dados? Por um lado, é o processamento moderno de dados que torna a sociedade transparente uma ameaça - sem isso, não importaria muito se você filmasse tudo o que aconteceu no mundo, já que ninguém poderia encontrar as seis polegadas de fita de vídeo que ele queria nos milhões de quilômetros produzidos a cada dia. Por outro lado, as tecnologias que suportam forte privacidade oferecem a possibilidade de restabelecer a privacidade, mesmo em um mundo com processamento moderno de dados, mantendo as informações sobre suas transações longe de qualquer pessoa, exceto você.

Tal mundo pode muito bem ser o melhor de todos os mundos possíveis: se tudo correr bem, veríamos um futuro onde há muito pouca violência física, mas ao mesmo tempo preservaríamos nossas liberdades online e garantiríamos o funcionamento básico dos processos políticos, cívicos, culturais e intelectuais na sociedade, que dependem de alguns limites à transparência total da informação para sua operação contínua.

Mesmo que não seja ideal, é muito melhor do que a versão em que a privacidade física e digital vai a zero, incluindo eventualmente a privacidade das nossas próprias mentes, e em meados de 2050 começamos a ver artigos argumentando que, naturalmente, é irrealista esperar pensar pensamentos que não estão sujeitos a interceptação legal, e respostas a esses artigos consistindo em links para o incidente mais recente em que a LLM de uma empresa de IA foi explorada, o que levou a um ano em que os monólogos internos privados de 30 milhões de pessoas vazaram para toda a internet.

A sociedade sempre dependeu de um equilíbrio entre a privacidade e a transparência. Em alguns casos, também apoio limites à privacidade. Para dar um exemplo totalmente desconectado dos argumentos habituais que as pessoas apresentam a este respeito, apoio as medidas do governo dos EUA paraproibir cláusulas de não concorrência em contratos, principalmente não por causa de seus impactos diretos sobre os trabalhadores, mas porque são uma forma de forçar o conhecimento tácito do domínio das empresas a ser parcialmente de código aberto. Forçar as empresas a serem mais abertas do que gostariam é uma limitação da privacidade - mas eu argumentaria que é benéfico líquido. Mas, sob uma perspetiva macro, o risco mais premente da tecnologia no futuro próximo é que a privacidade atingirá mínimos históricos, e de forma altamente desequilibrada, em que os indivíduos mais poderosos e as nações mais poderosas obtêm muitos dados sobre todos, e todos os outros verão praticamente nada. Por este motivo, apoiar a privacidade de todos e tornar as ferramentas necessárias de código aberto, universais, confiáveis e seguras é um dos desafios importantes do nosso tempo.

Aviso Legal:

  1. Este artigo é reproduzido a partir de [GateVitalik]. Todos os direitos de autor pertencem ao autor original [Vitalik]. Se houver objeções a esta reimpressão, entre em contato com o Gate Aprenderequipa e eles tratarão disso prontamente.

  2. Aviso de responsabilidade: As opiniões expressas neste artigo são exclusivamente do autor e não constituem qualquer conselho de investimento.

  3. As traduções do artigo para outros idiomas são feitas pela equipa Gate Learn. Salvo indicação em contrário, é proibido copiar, distribuir ou plagiar os artigos traduzidos.

Porque apoio a privacidade

Avançado4/18/2025, 2:45:51 AM
O novo trabalho de Vitalik, um discurso sistemático sobre o valor da privacidade digital, explora como a privacidade sustenta a liberdade, a ordem e o progresso tecnológico. É uma peça importante da literatura do pensamento na era da IA e do blockchain.

Um agradecimento especial aos voluntários da Balvi, Paul Dylan-Ennis, pcaversaccio, vectorized, Bruce Xu e Luozhu Zhang pela discussão e feedback.

Recentemente, tenho estado cada vez mais focado emmelhorar o estado da privacidadeno ecossistema Ethereum. A privacidade é um importante garante da descentralização: quem tem a informação tem o poder, logo, precisamos evitar o controle centralizado sobre a informação. Quando as pessoas no mundo real expressam preocupação sobre a infraestrutura técnica operada centralmente, a preocupação às vezes é sobre os operadores mudarem as regras inesperadamente ou desplataformarem os utilizadores, mas com a mesma frequência, é sobre a recolha de dados. Enquanto o espaço das criptomoedas tem as suas origens em projetos como Chaumian Ecash, que colocou a preservação da privacidade financeira digital em primeiro plano, mais recentemente desvalorizou a privacidade por um motivo ruim: antes do ZK-SNARKs, não tínhamos como oferecer privacidade de forma descentralizada e, portanto, a minimizamos, concentrando-nos exclusivamente em outras garantias que poderíamos fornecer na época.

Hoje, no entanto, a privacidade já não pode ser ignorada. A IA está a aumentar consideravelmente as capacidades de recolha e análise de dados centralizados, expandindo muito o âmbito dos dados que partilhamos voluntariamente. No futuro, novas tecnologias como interfaces cérebro-computador trazem novos desafios: podemos estar literalmente a falar sobre a IA a ler as nossas mentes. Ao mesmo tempo, temos ferramentas mais poderosas para preservar a privacidade, especialmente no domínio digital, do que os ciberpunks dos anos 90 poderiam ter imaginado: provas de conhecimento zero altamente eficientes (ZK-SNARKs) podem proteger as nossas identidades enquanto revelam informação suficiente para provar que somos dignos de confiança, a criptografia totalmente homomórfica (FHE) pode permitir-nos calcular sobre dados sem ver os dados, e a obfuscação pode em breve oferecer ainda mais.

A privacidade não é sobre estar separado. É sobre estar juntos.

Neste momento, vale a pena recuar e rever a questão: por que queremos privacidade em primeiro lugar? A resposta de cada pessoa será diferente. Neste post, darei a minha própria, que dividirei em três partes:

  • Privacidade é liberdade: a privacidade nos dá espaço para viver nossas vidas da maneira que atende às nossas necessidades, sem nos preocuparmos constantemente com a forma como nossas ações serão percebidas em todos os tipos de jogos políticos e sociais
  • A privacidade é a ordem: uma série de mecanismos que subjazem ao funcionamento básico da sociedade dependem da privacidade para funcionar
  • A privacidade é progresso: se encontrarmos novas formas de partilhar seletivamente as nossas informações, protegendo-as de serem mal utilizadas, podemos desbloquear muito valor e acelerar o progresso tecnológico e social

Privacidade é liberdade

No início dos anos 2000, era popular ter pontos de vista semelhantes aos epitomizados pelo livro de 1998 de David BrinA Sociedade Transparente: a tecnologia tornaria as informações em todo o mundo muito mais transparentes, e embora isso tenha desvantagens e exija adaptação, em média é algo muito bom, e podemos torná-lo justo garantindo que as pessoas possam vigiar (ou melhor,sousveil) o governo também. Em 1999, o CEO da Sun Microsystems, Scott McNealy famously exclaimed: “a privacidade está morta, superem isso!”. Esta mentalidade era comum na conceção e desenvolvimento inicial do Facebook, que identidades pseudónimas banidas. Eu pessoalmente lembro-me de ter experimentado o final desta mentalidade numa apresentação num evento da Huawei em Shenzhen em 2015, onde um orador (ocidental) mencionou casualmente, num comentário casual, que "a privacidade acabou".

A Sociedade Transparente representava o melhor e o mais brilhante do que a ideologia do “fim da privacidade” tinha para oferecer: prometia um mundo melhor, mais justo e equitativo, usando o poder da transparência para responsabilizar os governos em vez de reprimir os indivíduos e minorias. No entanto, em retrospectiva, é claro que até mesmo esta abordagem foi um produto de seu tempo, escrita no auge do entusiasmo sobre a cooperação global e a paz e “o fim da história”, e dependia de um número de pressupostos excessivamente otimistas sobre a natureza humana. Principalmente:

  1. As camadas de alto nível da política global seriam geralmente bem-intencionadas e sensatas, tornando a privacidade vertical (ou seja, não revelar informações a pessoas e instituições poderosas) cada vez mais desnecessária. Os abusos de poder seriam geralmente localizados, e a melhor maneira de combater esses abusos é trazê-los à luz do dia.
  2. A cultura continuaria a melhorar até ao ponto em que a privacidade horizontal (ou seja, não revelar informações a outros membros do público) se tornaria desnecessária. Os nerds, gays e, por fim, todos os outros poderiam deixar de se esconder no armário, porque a sociedade deixaria de ser dura e crítica em relação às características únicas das pessoas e, em vez disso, tornar-se-ia aberta e aceitante.

Hoje, não há um único país importante para o qual a primeira suposição seja amplamente aceite como verdadeira e muitos para os quais é amplamente considerada falsa. No segundo front, a tolerância cultural também tem regredido rapidamente - uma simples pesquisa no Twitter por frases como bullying é bom"é uma prova disso, embora seja fácil encontrar mais.

Pessoalmente, tenho o azar de encontrar regularmente as desvantagens da “sociedade transparente”, pois cada ação que realizo fora de casa tem alguma chance não nula de, inesperadamente, se tornar uma notícia nos media públicos:

O pior infrator foi alguém que fez um vídeo de um minuto enquanto eu estava a trabalhar no computador em Chiang Mai e procedeu a publicá-lo no xiaohongshu, onde imediatamente obteve milhares de gostos e partilhas. Claro, a minha situação é muito longe da norma humana - mas isso sempre foi o caso da privacidade: a privacidade é menos necessária para pessoas cujas situações de vida são relativamente normais e mais necessária para pessoas cujas situações de vida se desviam da norma, em qualquer direção. E uma vez que se somam todas as diferentes direções que importam, o número de pessoas que realmente precisam de privacidade acaba sendo bastante grande - e nunca se sabe quando você se tornará uma delas. Esta é uma grande razão pela qual a privacidade é frequentemente subestimada: não se trata apenas da sua situação e das suas informações hoje, mas também dos desconhecidos desconhecidos do que acontece com essas informações (e de como isso o afeta) seguindo em frente para sempre no futuro.

A privacidade dos mecanismos de preços corporativos é uma preocupação de nicho hoje, mesmo entre os defensores da IA, mas com o aumento das ferramentas de análise baseadas em IA, é provável que se torne um problema crescente: quanto mais uma empresa sabe sobre você, mais também são capazes de lhe oferecer um preço personalizado que maximiza o quanto podem extrair de você multiplicado pela probabilidade de que você pagará.

Posso expressar o meu argumento geral pela privacidade como liberdade numa frase, da seguinte forma:

A privacidade dá-te a liberdade de viveres a tua vida da forma que melhor se adeque aos teus objetivos e necessidades pessoais, sem teres constantemente de equilibrar cada ação entre 'o jogo privado' (as tuas próprias necessidades) e 'o jogo público' (como todas as outras pessoas, intermediadas por todo o tipo de mecanismos, incluindo cascadas de redes sociais, incentivos comerciais, política, instituições, etc., perceberão e responderão ao teu comportamento).

Sem privacidade, tudo se torna uma batalha constante de "o que outras pessoas (e bots) vão pensar do que estou fazendo" - pessoas poderosas, empresas e colegas, pessoas hoje e no futuro. Com privacidade, podemos preservar um equilíbrio. Hoje, esse equilíbrio está sendo rapidamente erodido, especialmente no âmbito físico, e o caminho padrão do tecno-capitalismo moderno, com sua fome por modelos de negócios que encontram maneiras de capturar valor dos usuários sem pedir explicitamente que eles paguem por coisas, é erodir ainda mais (até em domínios altamente sensíveis como, eventualmente, nossas próprias mentes). Portanto, precisamos contrariar esse efeito e apoiar a privacidade de forma mais explícita, especialmente no local onde mais pragmaticamente podemos: o âmbito digital.

Mas por que não permitir backdoors do governo?

Existe uma resposta comum ao raciocínio acima: as desvantagens da privacidade que descrevi são em grande parte desvantagens do público saber demais sobre nossas vidas privadas, e mesmo quando se trata de abuso de poder, é sobre corporações, chefes e políticos saberem demais. Mas não vamos permitir que o público, as corporações, os chefes e os políticos tenham todos esses dados. Em vez disso, permitiremos que um pequeno grupo de profissionais altamente treinados e bem avaliados da aplicação da lei veja os dados retirados das câmeras de segurança nas ruas e das escutas nos cabos de internet e aplicações de chat, apliquem procedimentos rigorosos de responsabilização e mais ninguém ficará sabendo.

Esta é uma posição silenciosa, mas amplamente mantida, e por isso é importante abordá-la explicitamente. Existem várias razões pelas quais, mesmo que implementadas a um alto padrão de qualidade com boas intenções, tais estratégias são inherentemente instáveis:

  1. Na prática, não é apenas o governo, são também todos os tipos de entidades corporativas, de vários níveis de qualidade. Nos sistemas financeiros tradicionais, as informações de KYC e pagamento são mantidas pelos processadores de pagamento, bancos e todos os tipos de outros intermediários. Os provedores de e-mail veem enormes quantidades de dados de todos os tipos. As empresas de telecomunicações conhecem a sua localização e regularmenterevendê-lo ilegalmente. Em geral, a fiscalização de todas essas entidades a um nível suficiente de rigor que garanta que elas realmente tenham um alto nível de cuidado com os dados do usuário é tão intensiva em esforço tanto para quem observa quanto para quem é observado que é provavelmente incompatível com a manutenção de um mercado livre competitivo.
  2. Indivíduos que têm acesso sempre sentirão a atração de abusar dele (incluindo ao vender a terceiros). Em 2019, vários funcionários do Twitter estavam cobradoemais tarde condenadopara vender informações pessoais de dissidentes à Arábia Saudita.
  3. Os dados podem sempre ser pirateados. Em 2024, os dados que as empresas de telecomunicações dos EUA eram legalmente obrigadas a recolher foram pirateados,alegadamente por hackers afiliados ao estado da China. Em 2025, grandes quantidades de dados pessoais sensíveis mantidos pelo governo ucraniano foi hackeado pela Rússia. E no sentido oposto, bases de dados altamente sensíveis do governo e das empresas na China também ser hackeado, incluindo pelo governo dos EUA.
  4. O regime pode mudar. Um governo que é confiável hoje pode não ser confiável amanhã. As pessoas no comando hoje podem ser perseguidas amanhã. Uma agência policial que mantém padrões impecavelmente elevados de respeito e decoro um dia pode se ver reduzida a todo tipo de crueldade alegre uma década depois.

Do ponto de vista de um indivíduo, se os dados forem retirados deles, não têm forma de saber se e como serão abusados no futuro. Até agora, a abordagem mais segura para lidar com dados em larga escala é recolher o mínimo possível centralmente em primeiro lugar. Os dados devem ser mantidos ao máximo pelos próprios utilizadores, e meios criptográficos devem ser utilizados para permitir a agregação de estatísticas úteis sem comprometer a privacidade individual.

O argumento de que o governo deve ter a capacidade de aceder a qualquer coisa com um mandado porque é assim que as coisas sempre funcionaram perde um ponto chave: historicamente, a quantidade de informação disponível para ser obtida com mandados era muito menor do que a disponível hoje, e até do que estaria disponível se as formas mais fortes de privacidade na internet fossem universalmente adotadas. No século XIX, a conversa média ocorria uma vez, por voz, e nunca era gravada por ninguém. Por esta razão: a inteirapânico moral em torno do “ir para o escuro”é ahistorical: a conversa média, e até a transação financeira, sendo totalmente e incondicionalmente privada é a norma histórica de vários milhares de anos.

Uma conversa média, 1950. Exactamente zero palavras da conversa foram alguma vez gravadas, espiadas, sujeitas a "interceptação legal", analisadas por IA ou de outra forma vistas por alguém em algum momento que não os participantes na conversa enquanto esta está a acontecer.

Outra razão importante para minimizar a coleta centralizada de dados é a natureza internacional inerente a grandes partes da comunicação global e interação econômica. Se todos estiverem no mesmo país, é pelo menos uma posição coerente dizer que 'o governo' deve ter acesso aos dados em suas interações. Mas e se as pessoas estiverem em países diferentes? Certamente, em princípio, você poderia tentar criar um esquema incrivelmente complexo onde os dados de cada pessoa são mapeados para alguma entidade de acesso legal responsável por eles - embora mesmo assim você teria que lidar com um grande número de casos limítrofes envolvendo dados que se relacionam com várias pessoas. Mas mesmo que você pudesse, não é o resultado padrão realista. O resultado padrão realista das 'portas dos fundos' do governo é: os dados se concentram em um pequeno número de jurisdições centrais que têm os dados de todos porque controlam as aplicações - essencialmente, uma hegemonia tecnológica global. A forte privacidade é de longe a alternativa mais estável.

Privacidade é ordem

Há mais de um século que se reconhece que um componente técnico-chave para fazer a democracia funcionar é o voto secreto: ninguém sabe em quem votou, e além disso, não tem a capacidade de provar a ninguém em quem votou, mesmo que realmente queira. Se os votos não fossem secretos por padrão, os eleitores seriam abordados com todo o tipo de incentivos laterais que afetariam a sua forma de votar: subornos, promessas de recompensas retroativas, pressão social, ameaças e muito mais.

Pode-se ver que tais incentivos laterais quebrariam completamente a democracia com um simples argumento matemático: em uma eleição com N pessoas, a sua probabilidade de afetar o resultado é apenas aproximadamente 1/N, e então quaisquer considerações relacionadas a qual candidato é melhor e qual é pior são inerentemente divididas por N. Enquanto isso, os "jogos laterais" (por exemplo, suborno de eleitores, coerção, pressão social) atuam diretamente em você com base em como você vota (em vez de com base no resultado do voto como um todo), e assim não são divididos por N. Portanto, a menos que os jogos laterais sejam rigorosamente controlados, por padrão, eles dominam todo o jogo e sufocam qualquer consideração sobre quais políticas do candidato são realmente melhores.

Isso se aplica não apenas à democracia em escala nacional. Teoricamente, se aplica a quase qualquer problema de agente principal corporativo ou governamental:

  • Um juiz decidindo como decidir em um caso
  • Um funcionário governamental decidindo a qual empresa conceder um contrato ou subsídio
  • Um oficial de imigração decidindo conceder ou rejeitar um visto
  • Um funcionário de uma empresa de redes sociais a decidir como aplicar a política de moderação de conteúdo
  • Um funcionário de uma empresa que contribui para uma decisão de negócio (por exemplo, de qual fornecedor comprar)

O problema fundamental em todos os casos é o mesmo: se o agente age honestamente, absorvem apenas uma pequena parte do benefício da sua ação para a entidade que estão a representar, enquanto se seguirem os incentivos de algum jogo paralelo, então absorvem a parte total desses benefícios. Por isso, mesmo hoje, estamos a depender de muita boa vontade moral para garantir que todas as nossas instituições não sejam completamente dominadas por um caos de jogos laterais que derrubam jogos laterais. Se a privacidade diminuir ainda mais, então esses jogos laterais tornam-se ainda mais fortes, e a boa vontade moral necessária para manter a sociedade a funcionar pode tornar-se irrealisticamente alta.

Será que os sistemas sociais podem ser redesenhados para não terem este problema? Infelizmente, a teoria dos jogos praticamente diz explicitamente que isso é impossível (com uma exceção: ditadura total). Na versão da teoria dos jogos que se concentra na escolha individual - isto é, na versão que assume que cada participante toma decisões independentemente e que não permite a possibilidade de grupos de agentes trabalharem como um para benefício mútuo, os designers de mecanismos têm uma ampla latitude parajogos de "engenheiro"para alcançar todos os tipos de resultados específicos. Na verdade, existem provas matemáticas que, para qualquer jogo, pelo menos um equilíbrio de Nash estável deve existir, e, portanto, analisar tais jogos torna-se tratável. Mas na versão da teoria dos jogos que permite a possibilidade de coligações trabalharem em conjunto (ou seja, "coludindo"), chamada teoria dos jogos cooperativos,podemos provar issoexistem grandes classes de jogos que não têm nenhum resultado estável (chamado de “núcleo)”). Em tais jogos, seja qual for o estado atual das coisas, há sempre uma coligação que pode desviar-se dele de forma lucrativa.

Se levamos a matemática a sério, nós chegar à conclusãoque a única maneira de criar estruturas sociais estáveis é ter alguns limites na quantidade de coordenação entre os participantes que pode acontecer - e isso implica forte privacidade (incluindo a negação). Se você não levar a matemática a sério por si só, então basta observar o mundo real, ou pelo menos pensar no que algumas das situações principal-agente descritas acima poderiam se tornar se fossem tomadas por jogos paralelos, para chegar à mesma conclusão.

Note que isso introduz outro argumento sobre por que as portas dos fundos do governo são arriscadas. Se todos tiverem capacidade ilimitada de coordenar com todos sobre tudo, o resultado é o caos. Mas se apenas algumas pessoas puderem fazer isso, porque têm acesso privilegiado à informação, então o resultado é que dominam. Um partido político tendo acesso aos backdoors às comunicações do outro pode facilmente significar o fim da viabilidade de ter vários partidos políticos.

Outro exemplo importante de uma ordem social que depende de limites para a colusão a fim de funcionar é a atividade intelectual e cultural. A participação na atividade intelectual e cultural é, por natureza, uma tarefa intrinsecamente motivada pelo interesse público: é muito difícil criar incentivos extrínsecos que visem contribuições positivas para a sociedade, precisamente porque a atividade intelectual e cultural é, em parte, a atividade de determinar quais ações na sociedade são ações positivas em primeiro lugar. Podemos criar incentivos comerciais e sociais aproximados que apontem na direção certa, mas eles também exigem uma forte complementação por motivação intrínseca. Mas isso também significa que este tipo de atividade é altamente frágil a motivações extrínsecas desalinhadas, especialmente jogos paralelos como pressão social e coerção. Para limitar o impacto de tais motivações extrínsecas desalinhadas, a privacidade é mais uma vez necessária.

Privacidade é progresso

Imagine um mundo onde a criptografia de chave pública e simétrica não existisse de todo. Neste mundo, enviar mensagens de forma segura através de longas distâncias seria inerentemente muito mais difícil -não impossível, mas difícil. Isso levaria a muito menos cooperação internacional a ter lugar, e como resultado, muito mais continuaria a acontecer através de canais offline em pessoa. Isso teria tornado o mundo um lugar muito mais pobre e desigual.

Vou argumentar que hoje estamos exatamente nesse lugar hoje, relativamente a um mundo hipotético de amanhã onde formas muito mais fortes de criptografia estavam amplamente disponíveis - em particular, criptografia programável, complementada por formas mais fortes de segurança full-stack e verificação formal para nos dar garantias sólidas de que essa criptografia está sendo usada corretamente.

O Protocolos do deus egípcio: três construções poderosas e altamente versáteis que nos permitem realizar cálculos sobre dados ao mesmo tempo que mantêm os dados completamente privados.

Uma excelente fonte de exemplos é a saúde. Se conversar com alguém que tenha estado a trabalhar em longevidade, resistência a pandemias ou outros campos da saúde na última década, dir-lhe-á universalmente que o futuro do tratamento e prevenção é personalizado, e a resposta eficaz depende muito de dados de alta qualidade, tanto dados sobre indivíduos como dados sobre o ambiente. Proteger eficazmente as pessoas contra doenças transmitidas pelo ar requer saber onde a qualidade do ar é mais alta e mais baixa, e em que regiões os patógenos estão a surgir a qualquer momento. As clínicas de longevidade mais avançadas dão todas recomendações e tratamentos personalizados com base em dados sobre o seu corpo, preferências alimentares e estilo de vida.

No entanto, cada uma destas coisas são simultaneamente enormes riscos de privacidade. Estou pessoalmente ciente de um incidente em que um monitor de ar foi dado a um funcionário que "ligou para casa" para uma empresa, e os dados recolhidos foram suficientes para determinar quando esse funcionário estava a ter relações sexuais. Por razões como esta, espero que por padrão muitas das formas mais valiosas de dados não sejam recolhidas de todo, precisamente porque as pessoas têm medo das consequências para a privacidade. E mesmo quando os dados são recolhidos, quase nunca serão amplamente partilhados ou disponibilizados a investigadores - em parte por motivos comerciais, mas muitas vezes também devido às preocupações com a privacidade envolvidas.

O mesmo padrão é repetido em outras esferas. Há uma quantidade enorme de informações sobre nós mesmos em nossas ações em documentos que escrevemos, mensagens que enviamos através de várias aplicações e várias ações nas redes sociais, que poderiam ser usadas de forma mais eficaz para prever e fornecer as coisas de que precisamos em nossa vida diária. Há uma quantidade enorme de informações sobre como interagimos com nossos ambientes físicos que não está relacionada com a saúde. Hoje, faltam as ferramentas para usar efetivamente essas informações sem criar pesadelos de privacidade distópicos. Amanhã, podemos ter essas ferramentas.

A melhor forma de resolver estes desafios é usar criptografia forte, que nos permite obter os benefícios da partilha de dados sem as desvantagens. A necessidade de aceder a dados, incluindo dados pessoais, tornar-se-á ainda mais importante na era da IA, uma vez que há valor em poder treinar e executar localmente “gémeos digitais” que possam tomar decisões em nosso nome com base em aproximações de alta fidelidade das nossas preferências. Eventualmente, isto envolverá também a utilização de tecnologia de interface cérebro-computador (BCI), lendo entradas de alta largura de banda das nossas mentes. Para que isto não conduza a uma hegemonia global altamente centralizada, precisamos de formas de o fazer com respeito pela privacidade forte. A criptografia programável é a solução mais confiável.

A minha AirValentmonitor de qualidade do ar. Imagine um dispositivo como este que recolhe dados de qualidade do ar, faz estatísticas agregadas publicamente disponíveis num mapa de dados abertos e recompensa-o por fornecer os dados - tudo isto enquanto utiliza criptografia programável para evitar revelar os seus dados de localização pessoais e verificar que os dados são genuínos.

A privacidade pode ser progresso para manter a nossa sociedade segura

Técnicas de criptografia programáveis como provas de conhecimento zero são poderosas, porque são como tijolos de Lego para o fluxo de informação. Podem permitir um controlo detalhado sobre quem pode ver que informação e, muitas vezes mais importante, que informação pode ser vista de todo. Por exemplo, posso provar que tenho um passaporte canadiano que mostra que tenho mais de 18 anos, sem revelar mais nada sobre mim.

Isto torna possíveis todos os tipos de combinações fascinantes. Posso dar alguns exemplos:

  • Prova de conhecimento zero de pessoalidade: provando que você é uma pessoa única (através de várias formas de identificação: passaporte, biometria, descentralizado com base em gráficos sociais) sem revelar mais nada sobre qual pessoa você é. Isso poderia ser usado para "prova de não ser um bot", todos os tipos de "casos de uso máximo de N por pessoa" e muito mais, preservando total privacidade além de revelar o fato de que as regras não estão sendo quebradas.
  • Piscinas de Privacidade, uma solução de privacidade financeira que pode excluir maus atores sem exigir backdoors. Ao gastar, os utilizadores podem provar que as suas moedas não provêm de uma fonte que não faz parte de uma lista publicamente conhecida de hacks e roubos; os hackers e ladrões eles próprios são os únicos que não conseguiriam gerar tal prova e, por isso, não conseguiriam esconder-se.Railguneprivacypools.comestão atualmente ativos e usando tal esquema.
  • Verificação de anti-fraude no dispositivo: isso não depende de ZKPs, mas parece pertencer a esta categoria. Você pode usar filtros no dispositivo (incluindo LLMs) para verificar mensagens recebidas e identificar automaticamente desinformação e fraudes potenciais. Se feito no dispositivo, não compromete a privacidade do usuário e pode ser feito de forma que capacita o usuário, dando a cada usuário a escolha de quais filtros subscrever.
  • Prova de proveniência para itens físicos: usando uma combinação de blockchains e provas de conhecimento zero, pode ser possível rastrear várias propriedades de um item através da sua cadeia de fabricação. Isso poderia permitir, por exemplo, precificar externalidades ambientais sem revelar publicamente a cadeia de abastecimento.


representação de pools de privacidade


o taiwanês Verificador de Mensagensaplicativo, que dá ao usuário a opção de ligar ou desligar vários filtros, aqui de cima para baixo: verificação de URL, verificação de endereço de criptomoeda, verificação de boatos

Privacidade e IA

Recentemente, ChatGPT anunciadoque começará a alimentar suas conversas passadas no AI como contexto para suas conversas futuras. Que a tendência continuará nessa direção é inevitável: um AI olhando suas conversas passadas e obtendo insights delas é fundamentalmente útil. No futuro próximo, provavelmente veremos pessoas criando produtos de AI que farão intrusões ainda mais profundas na privacidade: coletando passivamente seus padrões de navegação na internet, histórico de e-mails e conversas, dados biométricos e muito mais.

Em teoria, os seus dados mantêm-se privados para si. Na prática, nem sempre parece ser o caso:

Wow! O ChatGPT tem um bug, e empurra perguntas feitas por outros para mim! Isso é uma grande violação de privacidade. Fiz uma pergunta, recebi um erro e depois 'Tentar Novamente' gerou uma pergunta que eu nunca faria.

É sempre possível que a proteção da privacidade tenha funcionado bem e, neste caso, a IA alucinou ao gerar uma pergunta que o Bruce nunca fez e responder a isso. Mas não há forma de verificar. Da mesma forma, não há forma de verificar se as nossas conversas estão a ser usadas para treino.

Tudo isso é profundamente preocupante. Ainda mais perturbadores são os casos de uso explícito de vigilância de IA, onde dados (físicos e digitais) sobre as pessoas estão sendo coletados e analisados em grande escala sem o seu consentimento. O reconhecimento facial já está ajudando regimes autoritários reprimir a dissidência políticaem grande escala. E o mais preocupante de tudo é a inevitável fronteira final da recolha e análise de dados de IA: a mente humana.

Em princípio, a tecnologia de interface cérebro-computador tem um poder incrível para impulsionar o potencial humano. Pegue a história de Noland Arbaugh, Primeiro paciente da Neuralink desde o ano passado:

O dispositivo experimental deu a Arbaugh, agora com 30 anos, um sentido de independência. Antes, usar um bastão de boca exigia que alguém o posicionasse de pé. Se ele deixasse cair o bastão, precisava que alguém o apanhasse para ele. E ele não conseguia usá-lo por muito tempo ou desenvolveria feridas. Com o dispositivo Neuralink, ele tem quase controle total de um computador. Ele pode navegar na web e jogar jogos de computador sempre que quer, e a Neuralink diz que ele tem estabelecer o recorde humano de controle de cursor com um BCI.

Hoje, esses dispositivos são suficientemente poderosos para capacitar os feridos e doentes. Amanhã, serão suficientemente poderosos para dar a pessoas completamente saudáveis a oportunidade de trabalhar com computadores e comunicar telepaticamente entre si (!!), a um nível de eficiência que nos parece inimaginável. Mas, na realidade, interpretar os sinais cerebrais para tornar este tipo de comunicação possível requer IA.

Existe um futuro sombrio que poderia surgir naturalmente como uma confluência dessas tendências, e obtemos superagentes de silicone que estão absorvendo e analisando informações sobre todos, incluindo como eles escrevem, agem e pensam. Mas também existe um futuro mais brilhante, onde obtemos os benefícios dessas tecnologias enquanto preservamos nossa privacidade.

Isto pode ser feito com uma combinação de algumas técnicas:

  • Executando cálculos localmente sempre que possível - muitas tarefas (por exemplo, análise de imagem básica, tradução, transcrição, análise básica de ondas cerebrais para BCI) são simples o suficiente para serem realizadas totalmente em computação local. De fato, a computação local oferece até vantagens na redução da latência e na melhoria da verificabilidade. Se algo pode ser feito localmente, deve ser feito localmente. Isso inclui cálculos em que várias etapas intermediárias envolvem acesso à internet, login em contas de redes sociais, etc.
  • Usando criptografia para tornar a computação remota totalmente privada - criptografia totalmente homomórfica (FHE) poderia ser usado para realizar cálculos de IA remotamente sem permitir que o servidor remoto veja os dados ou os resultados. Historicamente, FHE tem sido muito caro, mas (i) recentemente tem melhorado rapidamente em eficiência, e (ii) LLMs são uma forma de computação única e estruturada, e quase tudo nela é operações lineares assintoticamente, o que a torna potencialmente muito adequada para implementações FHE ultraeficientes. Computação que envolve os dados privados de várias partes pode ser feita com computação multipartidária; o caso comum de duas partes pode ser tratado de forma extremamente eficiente com técnicas como circuitos embaralhados.
  • Usar verificação de hardware para estender garantias ao mundo físico - poderíamos insistir que o hardware que pode ler nossas mentes (seja de dentro do crânio ou de fora) deve ser aberto e verificável e usartécnicas como IRISpara verificar isso. Também podemos fazer isso em outros domínios: por exemplo, poderíamos ter câmeras de segurança que comprovadamente apenas salvam e encaminham o fluxo de vídeo se um LLM local o sinalizar como violência física ou emergência médica, e excluí-lo em todos os outros casos, e ter inspeção aleatória orientada pela comunidade com IRIS para verificar se as câmeras estão implementadas corretamente.

Futuro imperfeito

Em 2008, o filósofo libertário David Friedman escreveu um livro chamado Future Imperfect, na qual ele fez uma série de esboços sobre as mudanças na sociedade que as novas tecnologias podem trazer, nem todas a seu favor (ou ao nosso favor). Em uma secção, descreve um futuro potencial onde vemos uma interação complicada entre privacidade e vigilância, onde o crescimento da privacidade digital contrabalança o crescimento da vigilância no mundo físico:

Não adianta usar uma criptografia forte para o meu email se um mosquito de vídeo estiver sentado na parede me observando digitar. Portanto, a privacidade forte em uma sociedade transparente requer alguma forma de proteger a interface entre meu corpo no mundo real e o ciberespaço ... Uma solução de baixa tecnologia é digitar sob um capuz. Uma solução de alta tecnologia é algum tipo de ligação entre a mente e a máquina que não passa pelos dedos - ou qualquer outra coisa visível a um observador externo.24

O conflito entre a transparência no espaço real e a privacidade no ciberespaço também segue na direção oposta... O meu computador de bolso encripta a minha mensagem com a tua chave pública e transmite-a para o teu computador de bolso, que desencripta a mensagem e a exibe através dos teus óculos de realidade virtual. Para garantir que nada está a ler os óculos por cima do teu ombro, os óculos enviam a imagem para ti não ao exibindo num ecrã, mas sim utilizando um laser pequeno para a escrever na tua retina. Com alguma sorte, o interior do teu globo ocular ainda é um espaço privado.

Podemos acabar num mundo onde as ações físicas são totalmente públicas, as transações de informação totalmente privadas. Tem algumas características atrativas. Os cidadãos privados ainda poderão aproveitar a forte privacidade para localizar um assassino contratado, mas contratá-lo pode custar mais do que estão dispostos a pagar, uma vez que num mundo suficientemente transparente todos os assassinatos são detetados. Cada assassino contratado executa uma comissão e vai diretamente para a prisão.

E quanto à interação entre essas tecnologias e o processamento de dados? Por um lado, é o processamento moderno de dados que torna a sociedade transparente uma ameaça - sem isso, não importaria muito se você filmasse tudo o que aconteceu no mundo, já que ninguém poderia encontrar as seis polegadas de fita de vídeo que ele queria nos milhões de quilômetros produzidos a cada dia. Por outro lado, as tecnologias que suportam forte privacidade oferecem a possibilidade de restabelecer a privacidade, mesmo em um mundo com processamento moderno de dados, mantendo as informações sobre suas transações longe de qualquer pessoa, exceto você.

Tal mundo pode muito bem ser o melhor de todos os mundos possíveis: se tudo correr bem, veríamos um futuro onde há muito pouca violência física, mas ao mesmo tempo preservaríamos nossas liberdades online e garantiríamos o funcionamento básico dos processos políticos, cívicos, culturais e intelectuais na sociedade, que dependem de alguns limites à transparência total da informação para sua operação contínua.

Mesmo que não seja ideal, é muito melhor do que a versão em que a privacidade física e digital vai a zero, incluindo eventualmente a privacidade das nossas próprias mentes, e em meados de 2050 começamos a ver artigos argumentando que, naturalmente, é irrealista esperar pensar pensamentos que não estão sujeitos a interceptação legal, e respostas a esses artigos consistindo em links para o incidente mais recente em que a LLM de uma empresa de IA foi explorada, o que levou a um ano em que os monólogos internos privados de 30 milhões de pessoas vazaram para toda a internet.

A sociedade sempre dependeu de um equilíbrio entre a privacidade e a transparência. Em alguns casos, também apoio limites à privacidade. Para dar um exemplo totalmente desconectado dos argumentos habituais que as pessoas apresentam a este respeito, apoio as medidas do governo dos EUA paraproibir cláusulas de não concorrência em contratos, principalmente não por causa de seus impactos diretos sobre os trabalhadores, mas porque são uma forma de forçar o conhecimento tácito do domínio das empresas a ser parcialmente de código aberto. Forçar as empresas a serem mais abertas do que gostariam é uma limitação da privacidade - mas eu argumentaria que é benéfico líquido. Mas, sob uma perspetiva macro, o risco mais premente da tecnologia no futuro próximo é que a privacidade atingirá mínimos históricos, e de forma altamente desequilibrada, em que os indivíduos mais poderosos e as nações mais poderosas obtêm muitos dados sobre todos, e todos os outros verão praticamente nada. Por este motivo, apoiar a privacidade de todos e tornar as ferramentas necessárias de código aberto, universais, confiáveis e seguras é um dos desafios importantes do nosso tempo.

Aviso Legal:

  1. Este artigo é reproduzido a partir de [GateVitalik]. Todos os direitos de autor pertencem ao autor original [Vitalik]. Se houver objeções a esta reimpressão, entre em contato com o Gate Aprenderequipa e eles tratarão disso prontamente.

  2. Aviso de responsabilidade: As opiniões expressas neste artigo são exclusivamente do autor e não constituem qualquer conselho de investimento.

  3. As traduções do artigo para outros idiomas são feitas pela equipa Gate Learn. Salvo indicação em contrário, é proibido copiar, distribuir ou plagiar os artigos traduzidos.

即刻開始交易
註冊並交易即可獲得
$100
和價值
$5500
理財體驗金獎勵!