Un agradecimiento especial a los voluntarios de Balvi, Paul Dylan-Ennis, pcaversaccio, vectorized, Bruce Xu y Luozhu Zhang por la discusión y la retroalimentación.
Recientemente, me he estado enfocando cada vez más enmejorando el estado de privacidaden el ecosistema de Ethereum. La privacidad es un importante garante de la descentralización: quien tiene la información tiene el poder, por lo tanto, debemos evitar el control centralizado sobre la información. Cuando las personas en el mundo real expresan preocupación sobre la infraestructura técnica operada centralmente, a veces la preocupación es sobre operadores que cambian las reglas inesperadamente o desplataforman a los usuarios, pero con la misma frecuencia, se trata de la recopilación de datos. Mientras que el espacio de las criptomonedas tiene sus orígenes en proyectos como Chaumian Ecash, que pone la preservación de la privacidad financiera digital en primer plano, ha subvalorado más recientemente la privacidad por una razón que en última instancia es negativa: antes de ZK-SNARKs, no teníamos forma de ofrecer privacidad de manera descentralizada, por lo que la minimizamos, centrándonos exclusivamente en otras garantías que podíamos ofrecer en ese momento.
Sin embargo, hoy en día, la privacidad ya no puede ser ignorada. La IA está aumentando enormemente las capacidades de recopilación y análisis de datos centralizados, al mismo tiempo que amplía en gran medida el alcance de los datos que compartimos voluntariamente. En el futuro, nuevas tecnologías como las interfaces cerebro-computadora plantean desafíos adicionales: podríamos estar hablando literalmente de que la IA lea nuestras mentes. Al mismo tiempo, tenemos herramientas más poderosas para preservar la privacidad, especialmente en el ámbito digital, de lo que los ciberpunks de los años 90 podrían haber imaginado: las pruebas de conocimiento cero altamente eficientes (ZK-SNARKs) pueden proteger nuestras identidades mientras revelan suficiente información para demostrar que somos dignos de confianza, el cifrado completamente homomórfico (FHE) puede permitirnos calcular sobre datos sin ver los datos, y la obfuscación pronto podría ofrecer aún más.
La privacidad no se trata de estar aparte. Se trata de estar juntos.
En este momento, vale la pena retroceder y revisar la pregunta: ¿por qué queremos privacidad en primer lugar? La respuesta de cada persona será diferente. En esta publicación daré la mía, que desglosaré en tres partes:
A principios de la década de 2000, era popular tener puntos de vista similares a los que se ejemplifican en el libro de 1998 de David Brin.La Sociedad Transparente: la tecnología haría que la información en todo el mundo sea mucho más transparente, y aunque esto tendrá desventajas y requerirá adaptación, en promedio es algo muy bueno, y podemos hacerlo justo asegurándonos de que la gente pueda vigilar (o más bien,soporte) el gobierno también. En 1999, el CEO de Sun Microsystems, Scott McNealy exclamó famosamente: "la privacidad está muerta, supéralo!". Esta mentalidad era común en la concepción y desarrollo temprano de Facebook, queidentidades seudónimas prohibidas. Personalmente recuerdo haber experimentado el final de esta mentalidad en una presentación en un evento de Huawei en Shenzhen en 2015, donde un conferenciante (occidental) mencionó casualmente en un comentario de pasada que “la privacidad ha terminado”.
La Sociedad Transparente representaba lo mejor y más brillante de lo que la ideología de "la privacidad ha terminado" tenía para ofrecer: prometía un mundo mejor, más justo y equitativo, utilizando el poder de la transparencia para mantener a los gobiernos responsables en lugar de reprimir a individuos y minorías. Sin embargo, a la luz de la retrospectiva, está claro que incluso este enfoque fue un producto de su época, escrito en el apogeo del entusiasmo por la cooperación y la paz mundiales y "el fin de la historia", y dependía de una serie de suposiciones excesivamente optimistas sobre la naturaleza humana. Principalmente:
Hoy en día, no hay un solo país importante para el cual se acuerde ampliamente que la primera suposición sea verdadera, y muchos para los cuales se acuerda ampliamente que es falsa. En el segundo frente, la tolerancia cultural también ha estado retrocediendo rápidamente: una simple búsqueda en Twitter de frases como"El bullying es buenoes una pieza de evidencia de esto, aunque es fácil encontrar más.
Personalmente tengo la desgracia de encontrarme regularmente con los inconvenientes de la “sociedad transparente”, ya que cada acción que realizo fuera tiene alguna posibilidad no nula de convertirse inesperadamente en una historia de los medios de comunicación públicos:
El peor infractor fue alguien que tomó un video de un minuto mientras estaba trabajando en mi computadora portátil en Chiang Mai, y procedió a publicarlo en xiaohongshu, donde inmediatamente obtuvo miles de me gusta y compartidos. Por supuesto, mi propia situación está lejos de la norma humana, pero esto siempre ha sido el caso con la privacidad: la privacidad es menos necesaria para las personas cuyas situaciones de vida son relativamente normales, y más necesaria para las personas cuyas situaciones de vida se desvían de la norma, en cualquier dirección. Y una vez que sumas todas las diferentes direcciones que importan, el número de personas que realmente necesitan privacidad termina siendo bastante alto, y nunca sabes cuándo te convertirás en una de ellas. Esta es una de las principales razones por las cuales la privacidad suele ser subestimada: no se trata solo de tu situación e información hoy, sino también de los desconocidos desconocidos de lo que sucede con esa información (y cómo te afecta) en el futuro para siempre.
La privacidad frente a los mecanismos de fijación de precios corporativos es una preocupación de nicho hoy en día, incluso entre los defensores de la IA, pero con el aumento de las herramientas de análisis basadas en la IA es probable que se convierta en un problema creciente: cuanto más sabe una empresa sobre ti, más probable es que también te ofrezcan un precio personalizado que maximice cuánto pueden extraer de ti multiplicado por la probabilidad de que pagues.
Puedo expresar mi argumento general sobre la privacidad como libertad en una oración de la siguiente manera:
La privacidad te brinda la libertad de vivir tu vida de la manera que mejor se adapte a tus objetivos y necesidades personales, sin tener que equilibrar constantemente cada acción entre "el juego privado" (tus propias necesidades) y "el juego público" (cómo todo tipo de otras personas, intermediadas por todo tipo de mecanismos incluyendo cascadas de redes sociales, incentivos comerciales, política, instituciones, etc., percibirán y responderán a tu comportamiento)
Sin privacidad, todo se convierte en una constante batalla de "¿qué pensarán otras personas (y bots) de lo que estoy haciendo" - personas poderosas, empresas y compañeros, personas de hoy y del futuro. Con privacidad, podemos preservar un equilibrio. Hoy en día, ese equilibrio se está erosionando rápidamente, especialmente en el ámbito físico, y el camino predeterminado del tecno-capitalismo moderno, con su hambre de modelos de negocios que encuentren formas de capturar valor de los usuarios sin pedirles explícitamente que paguen por las cosas, es erosionarlo aún más (incluso en dominios altamente sensibles como, eventualmente, nuestras propias mentes). Por lo tanto, necesitamos contrarrestar este efecto y apoyar la privacidad de manera más explícita, especialmente en el lugar donde más prácticamente podemos: el ámbito digital.
Hay una respuesta común al razonamiento anterior: las desventajas de la privacidad que describí son en gran medida desventajas de que el público sepa demasiado sobre nuestras vidas privadas, e incluso en lo que respecta al abuso de poder, se trata de que las corporaciones, jefes y políticos sepan demasiado. Pero no vamos a permitir que el público, las corporaciones, los jefes y los políticos tengan todos estos datos. En cambio, permitiremos que un pequeño grupo de profesionales altamente capacitados y bien evaluados en la aplicación de la ley vean los datos obtenidos de las cámaras de seguridad en las calles y las escuchas en los cables de internet y las aplicaciones de chat, apliquen procedimientos estrictos de responsabilidad, y nadie más se enterará.
Esta es una posición mantenida de manera tranquila, pero ampliamente, y por lo tanto es importante abordarla explícitamente. Hay varias razones por las cuales, incluso si se implementan con un alto nivel de calidad y buenas intenciones, tales estrategias son inherentemente inestables:
Desde la perspectiva de un individuo, si se toman datos de ellos, no tienen forma de saber si y cómo se abusará en el futuro. Hasta ahora, el enfoque más seguro para manejar datos a gran escala es recopilar de forma centralizada la menor cantidad posible en primer lugar. Los datos deben ser retenidos al máximo por los propios usuarios, y se deben utilizar medios criptográficos para permitir la agregación de estadísticas útiles sin comprometer la privacidad individual.
El argumento de que el gobierno debería tener la capacidad de acceder a cualquier cosa con una orden judicial porque así es como siempre han funcionado las cosas, pasa por alto un punto clave: históricamente, la cantidad de información disponible para ser obtenida con órdenes judiciales era mucho menor que la disponible hoy en día, e incluso lo que estaría disponible si se adoptaran universalmente las formas más fuertes de privacidad en internet propuestas. En el siglo XIX, la conversación promedio sucedía una vez, a través de la voz, y nunca fue grabada por nadie. Por esta razón: el conjunto pánico moral en torno a la 'oscuridad'es ahistórico: la conversación promedio, e incluso la transacción financiera, totalmente y incondicionalmente privada es la norma histórica de varios miles de años.
Una conversación promedio, 1950. Exactamente cero palabras de la conversación fueron grabadas, espiadas, sujetas a “intercepción legal”, analizadas por IA, o vistas de alguna otra manera por cualquier persona en cualquier momento que no fueran los participantes en la conversación mientras está ocurriendo.
Otra razón importante para minimizar la recopilación centralizada de datos es la naturaleza inherentemente internacional de grandes partes de la comunicación global y la interacción económica. Si todos están en el mismo país, al menos sería una posición coherente decir que “el gobierno” debería tener acceso a los datos en sus interacciones. Pero ¿qué pasa si la gente está en diferentes países? Ciertamente, en principio podrías intentar idear un esquema de mente galáctica donde los datos de cada persona se asignen a alguna entidad de acceso legal que sea responsable de ellos, aunque incluso allí tendrías que lidiar con un gran número de casos especiales que involucran datos que se relacionan con múltiples personas. Pero incluso si pudieras, no es el resultado predeterminado realista. El resultado predeterminado realista de las puertas traseras del gobierno es: los datos se concentran en un pequeño número de jurisdicciones centrales que tienen los datos de todos porque controlan las aplicaciones, esencialmente, la tecnogemonía global. La privacidad sólida es, con mucho, la alternativa más estable.
Durante más de un siglo, se ha reconocido que un componente técnico clave para que la democracia funcione es el voto secreto: nadie sabe a quién votaste, y además, no tienes la capacidad de demostrar a nadie a quién votaste, incluso si realmente quieres. Si los votos no fueran secretos por defecto, los votantes se verían acosados con todo tipo de incentivos secundarios que afectarían cómo votan: sobornos, promesas de recompensas retroactivas, presión social, amenazas y más.
Se puede ver que tales incentivos secundarios romperían completamente la democracia con un simple argumento matemático: en una elección con N personas, tu probabilidad de afectar el resultado es solo aproximadamente 1/N, por lo que cualquier consideración relacionada con qué candidato es mejor y cuál es peor se divide inherentemente por N. Mientras tanto, los “juegos secundarios” (por ejemplo, soborno de votantes, coerción, presión social) actúan directamente sobre ti en función de cómo votes (en lugar de basarse en el resultado de la votación en su conjunto), por lo que no se dividen por N. Por lo tanto, a menos que los juegos secundarios estén controlados de manera estricta, por defecto abruman todo el juego y ahogan cualquier consideración sobre cuáles son realmente mejores las políticas del candidato.
Esto se aplica no solo a la democracia a escala nacional. Teóricamente, se aplica a casi cualquier problema principal-agente corporativo o gubernamental:
El problema fundamental en todos los casos es el mismo: si el agente actúa honestamente, absorben solo una pequeña parte del beneficio de su acción para la entidad que están representando, mientras que si siguen los incentivos de algún juego secundario, entonces absorben la parte completa de esos beneficios. Por lo tanto, incluso hoy, estamos confiando en una gran cantidad de buena voluntad moral para asegurarnos de que todas nuestras instituciones no sean completamente tomadas por un caótico torbellino de juegos secundarios que derriban juegos secundarios. Si la privacidad disminuye aún más, entonces estos juegos secundarios se vuelven aún más fuertes y la buena voluntad moral requerida para mantener funcionando a la sociedad puede volverse irrealmente alta.
¿Se podrían rediseñar los sistemas sociales para no tener este problema? Desafortunadamente, la teoría de juegos prácticamente dice explícitamente que esto es imposible (con una excepción: la dictadura total). En la versión de la teoría de juegos que se centra en la elección individual, es decir, la versión que asume que cada participante toma decisiones de forma independiente y que no permite la posibilidad de que grupos de agentes trabajen como uno solo en beneficio mutuo, los diseñadores de mecanismos tienen una amplitud muy amplia para juegos de “ingeniero”para lograr todo tipo de resultados específicos. De hecho, hay pruebas matemáticasque para cualquier juego al menos debe existir un equilibrio de Nash estable, y por lo tanto analizar tales juegos se vuelve factible. Pero en la versión de la teoría de juegos que permite la posibilidad de que las coaliciones trabajen juntas (es decir, "coludir"), llamada teoría de juegos cooperativos,podemos demostrar esothere are large classes of games that do not have any stable outcome (called a “núcleoEn tales juegos, sea cual sea el estado actual de los asuntos, siempre hay alguna coalición que puede desviarse de manera rentable de él.
Si tomamos en serio las matemáticas, nosotros llegar a la conclusiónque la única forma de crear estructuras sociales estables es tener algunos límites en la cantidad de coordinación entre los participantes que puede ocurrir, y esto implica una fuerte privacidad (incluida la negabilidad). Si no se toma en serio las matemáticas por sí solas, entonces basta con observar el mundo real, o al menos pensar en lo que podrían convertirse algunas de las situaciones principal-agente descritas anteriormente si fueran tomadas por juegos secundarios, para llegar a la misma conclusión.
Tenga en cuenta que esto introduce otro argumento sobre por qué las puertas traseras del gobierno son riesgosas. Si todos tienen la capacidad ilimitada de coordinarse con todos en todo, el resultado es el caos. Pero si solo algunas personas pueden hacerlo, porque tienen acceso privilegiado a la información, entonces el resultado es que dominan. Que un partido político tenga acceso a las comunicaciones del otro fácilmente puede significar el fin de la viabilidad de tener múltiples partidos políticos.
Otro ejemplo importante de un orden social que depende de límites a la colusión para funcionar es la actividad intelectual y cultural. La participación en la actividad intelectual y cultural es inherentemente una tarea de espíritu público motivada intrínsecamente: es muy difícil crear incentivos extrínsecos que apunten a contribuciones positivas a la sociedad, precisamente porque la actividad intelectual y cultural es, en parte, la actividad de determinar qué acciones en la sociedad son acciones positivas en primer lugar. Podemos crear incentivos comerciales y sociales aproximados que apunten en la dirección correcta, pero también requieren una fuerte suplementación de motivación intrínseca. Pero esto también significa que este tipo de actividad es altamente frágil a las motivaciones extrínsecas desalineadas, especialmente a los juegos secundarios como la presión social y la coerción. Para limitar el impacto de tales motivaciones extrínsecas desalineadas, una vez más se requiere privacidad.
Imagina un mundo donde la encriptación de clave pública y de clave simétrica no existiera en absoluto. En este mundo, enviar mensajes de forma segura a largas distancias sería inherentemente mucho más difícil - no imposible, pero difícil. Esto llevaría a que se produjera mucha menos cooperación internacional, y como resultado, mucho más seguiría ocurriendo a través de canales offline en persona. Esto habría hecho del mundo un lugar mucho más pobre y desigual.
Argumentaré que hoy estamos exactamente en ese lugar hoy, en relación con un mundo hipotético del mañana donde formas mucho más fuertes de criptografía estaban ampliamente disponibles, en particular, criptografía programable, mejorada por formas más fuertes de seguridad de pila completa y verificación formal para brindarnos fuertes garantías de que esta criptografía se está utilizando correctamente.
La Protocolos de los dioses egipcios: tres construcciones poderosas y altamente versátiles que nos permiten realizar cálculos sobre datos al mismo tiempo que mantienen los datos completamente privados.
Una excelente fuente de ejemplos es la atención médica. Si hablas con alguien que haya estado trabajando en longevidad, resistencia a pandemias u otros campos de la salud en la última década, te dirán universalmente que el futuro del tratamiento y la prevención es personalizado, y que la respuesta efectiva depende en gran medida de datos de alta calidad, tanto datos sobre individuos como datos sobre el entorno. Proteger eficazmente a las personas contra enfermedades transmitidas por el aire requiere saber dónde la calidad del aire es más alta y más baja, y en qué regiones están surgiendo patógenos en un momento dado. Las clínicas de longevidad más avanzadas dan recomendaciones y tratamientos personalizados basados en datos sobre tu cuerpo, preferencias alimenticias y estilo de vida.
Sin embargo, cada una de estas cosas son simultáneamente enormes riesgos para la privacidad. Personalmente tengo conocimiento de un incidente en el que se le dio a un empleado un monitor de aire que 'llamó a casa' a una empresa, y los datos recopilados fueron suficientes para determinar cuándo ese empleado estaba teniendo relaciones sexuales. Por razones como esta, espero que por defecto muchas de las formas más valiosas de datos no se recopilen en absoluto, precisamente porque las personas temen las consecuencias para la privacidad. Y aún cuando los datos se recopilen, casi siempre no se compartirán ampliamente ni se pondrán a disposición de los investigadores, en parte por razones comerciales, pero con la misma frecuencia debido a las preocupaciones de privacidad involucradas.
El mismo patrón se repite en otras áreas. Hay una gran cantidad de información sobre nosotros mismos en nuestras acciones en los documentos que escribimos, los mensajes que enviamos a través de varias aplicaciones, y diversas acciones en las redes sociales, que podrían ser utilizados para predecir y proporcionar de manera más efectiva las cosas que necesitamos en nuestra vida diaria. Hay una gran cantidad de información sobre cómo interactuamos con nuestros entornos físicos que no está relacionada con la atención médica. Hoy en día, nos faltan las herramientas para utilizar esta información de manera efectiva sin crear pesadillas de privacidad distópicas. Mañana, podemos tener esas herramientas.
La mejor manera de resolver estos desafíos es utilizar una criptografía sólida, que nos permita obtener los beneficios de compartir datos sin las desventajas. La necesidad de acceder a datos, incluidos los datos personales, solo se volverá más importante en la era de la IA, ya que hay valor en poder entrenar y ejecutar localmente “gemelos digitales” que puedan tomar decisiones en nuestro nombre basadas en aproximaciones de alta fidelidad de nuestras preferencias. Eventualmente, esto también implicará el uso de la interfaz cerebro-computadora (BCI), leyendo entradas de alta capacidad de ancho de banda de nuestras mentes. Para que esto no conduzca a una hegemonía global altamente centralizada, necesitamos formas de hacerlo con respeto a la privacidad sólida. La criptografía programable es la solución más confiable.
Mi AirValentmonitor de calidad del aire. Imagina un dispositivo como este que recopila datos de calidad del aire, proporciona estadísticas agregadas públicamente en un mapa de datos abiertos y te recompensa por proporcionar los datos, todo ello utilizando criptografía programable para evitar revelar tus datos de ubicación personal y verificar que los datos sean genuinos.
Técnicas de criptografía programable como las pruebas de conocimiento cero son poderosas, porque son como ladrillos de Lego para el flujo de información. Pueden permitir un control detallado de quién puede ver qué información y, a menudo, lo que es más importante, qué información puede verse en absoluto. Por ejemplo, puedo demostrar que tengo un pasaporte canadiense que muestra que tengo más de 18 años, sin revelar nada más sobre mí mismo.
Esto hace posible todo tipo de combinaciones fascinantes. Puedo dar algunos ejemplos:
representación de pools de privacidad
el taiwanésVerificador de mensajesaplicación, que le da al usuario la opción de activar o desactivar múltiples filtros, aquí de arriba a abajo: comprobación de URL, comprobación de direcciones de criptomonedas, comprobación de rumores
Recientemente, ChatGPT anunciadoque comenzará a alimentar sus conversaciones pasadas en la IA como contexto para sus conversaciones futuras. Es inevitable que la tendencia continúe en esta dirección: un IA que revisa sus conversaciones pasadas y obtiene información valiosa de ellas es fundamentalmente útil. En un futuro cercano, probablemente veremos a las personas creando productos de IA que se adentren aún más en la privacidad: recopilando pasivamente sus patrones de navegación por Internet, historial de correo electrónico y chat, datos biométricos y más.
En teoría, tus datos permanecen privados para ti. En la práctica, esto no siempre parece ser el caso:
“¡Wow! ChatGPT tiene un error, y ¡empuja preguntas hechas por otros hacia mí! Esto es una gran filtración de privacidad. Hice una pregunta, recibí un error, y luego al hacer clic en 'Reintentar', generó una pregunta que nunca haría.
Siempre es posible que la protección de la privacidad haya funcionado bien, y en este caso la IA alucinó al generar una pregunta que Bruce nunca hizo y responder a eso. Pero no hay forma de verificarlo. De manera similar, no hay forma de verificar si nuestras conversaciones se están utilizando o no para el entrenamiento.
Todo esto es profundamente preocupante. Aún más perturbadores son los casos de uso explícito de vigilancia de IA, donde se recopilan y analizan datos (físicos y digitales) sobre las personas a gran escala sin su consentimiento. El reconocimiento facial ya está ayudando a los regímenes autoritarios reprimir el disenso políticoa gran escala. Y lo más preocupante de todo es la inevitable frontera final de la recopilación y análisis de datos de IA: la mente humana.
En principio, la tecnología de interfaz cerebro-computadora tiene un poder increíble para potenciar el potencial humano. Toma la historia de Noland Arbaugh, primer paciente de Neuralink a partir del año pasado:
El dispositivo experimental le ha dado a Arbaugh, ahora con 30 años, un sentido de independencia. Antes, usar un palo para la boca requería que alguien lo colocara en posición vertical. Si dejaba caer su palo para la boca, necesitaba que se lo recogieran. Y no podía usarlo durante mucho tiempo o desarrollaría llagas. Con el dispositivo Neuralink, tiene casi control total de una computadora. Puede navegar por la web y jugar juegos de computadora cuando quiera, y Neuralink dice que tieneestablecer el récord humano para el control del cursor con un BCI.
Hoy en día, estos dispositivos son lo suficientemente potentes como para empoderar a los heridos y enfermos. Mañana, serán lo suficientemente potentes como para dar a las personas completamente sanas la oportunidad de trabajar con computadoras y comunicarse telepáticamente entre ellas (!!), a un nivel de eficiencia que para nosotros parece inimaginable. Pero interpretar realmente las señales cerebrales para hacer posible este tipo de comunicación requiere inteligencia artificial.
Existe un futuro oscuro que podría surgir de forma natural como una confluencia de estas tendencias, y obtenemos superagentes de silicio que están absorbiendo y analizando información sobre todos, incluido cómo escriben, actúan y piensan. Pero también hay un futuro más brillante, donde obtenemos los beneficios de estas tecnologías mientras preservamos nuestra privacidad.
Esto se puede hacer con una combinación de algunas técnicas:
En 2008, el filósofo libertario David Friedman escribió un libro llamado Future Imperfect, en el que dio una serie de bocetos sobre los cambios en la sociedad que las nuevas tecnologías podrían traer, no todos a su favor (o a nuestro favor). En una sección, describe un futuro potencial donde vemos una compleja interacción entre la privacidad y la vigilancia, donde el crecimiento de la privacidad digital contrarresta el crecimiento de la vigilancia en el mundo físico:
No sirve de nada usar un cifrado fuerte para mi correo electrónico si un mosquito de vídeo está sentado en la pared mirándome escribir. Así que la fuerte privacidad en una sociedad transparente requiere alguna forma de proteger la interfaz entre mi cuerpo en el espacio real y el ciberespacio ... Una solución de baja tecnología es escribir bajo una capucha. Una solución de alta tecnología es algún enlace entre la mente y la máquina que no pase por los dedos, ni por cualquier otra cosa visible para un observador externo.24
El conflicto entre la transparencia en el espacio real y la privacidad en el ciberespacio también va en la otra dirección... Mi ordenador de bolsillo cifra mi mensaje con tu clave pública y lo transmite a tu ordenador de bolsillo, que descifra el mensaje y lo muestra a través de tus gafas de realidad virtual. Para asegurarte de que nada está leyendo las gafas por encima de tu hombro, las gafas envían la imagen a ti no mostrándola en una pantalla, sino usando un láser pequeño para escribirla en tu retina. Con un poco de suerte, el interior de tu globo ocular sigue siendo un espacio privado.
Podríamos terminar en un mundo donde las acciones físicas sean completamente públicas, y las transacciones de información sean totalmente privadas. Tiene algunas características atractivas. Los ciudadanos privados aún podrán aprovechar la privacidad para ubicar a un sicario, pero contratarlo puede costar más de lo que están dispuestos a pagar, ya que en un mundo suficientemente transparente todos los asesinatos son detectados. Cada sicario ejecuta una comisión y luego va directamente a la cárcel.
¿Qué pasa con la interacción entre estas tecnologías y el procesamiento de datos? Por un lado, es el procesamiento moderno de datos el que hace que la sociedad transparente sea una amenaza, sin eso, no importaría mucho si grabaras todo lo que sucede en el mundo, ya que nadie podría encontrar las seis pulgadas particulares de cinta de video que quería en los millones de millas producidas cada día. Por otro lado, las tecnologías que soportan una fuerte privacidad brindan la posibilidad de restablecer la privacidad, incluso en un mundo con procesamiento moderno de datos, manteniendo la información sobre sus transacciones para que nunca llegue a nadie más que a usted.
Un mundo así bien podría ser el mejor de todos los mundos posibles: si todo sale bien, veríamos un futuro en el que hay muy poca violencia física, pero al mismo tiempo preservaríamos nuestras libertades en línea y garantizaríamos el funcionamiento básico de los procesos políticos, cívicos, culturales e intelectuales en la sociedad que dependen de ciertos límites a la transparencia total de la información para su funcionamiento continuo.
Incluso si no es ideal, es mucho mejor que la versión donde la privacidad física y digital se reduce a cero, incluyendo eventualmente la privacidad de nuestras propias mentes, y a mediados de la década de 2050, empezamos a ver artículos argumentando que, por supuesto, es irreal esperar tener pensamientos que no estén sujetos a interceptaciones legales, y respuestas a esos artículos que consisten en enlaces al incidente más reciente donde la LLM de una empresa de IA tuvo una vulnerabilidad que resultó en que los monólogos internos privados de 30 millones de personas se filtraran a toda la internet durante un año.
La sociedad siempre ha dependido de un equilibrio entre la privacidad y la transparencia. En algunos casos apoyo los límites a la privacidad también. Para dar un ejemplo totalmente desconectado de los argumentos habituales que la gente da al respecto, apoyo los movimientos del gobierno de los EE. UU. haciaprohibir las cláusulas de no competencia en los contratosprincipalmente no por sus impactos directos en los trabajadores, sino porque son una forma de obligar a que el conocimiento tácito del dominio de las empresas sea parcialmente de código abierto. Obligar a las empresas a ser más abiertas de lo que les gustaría es una limitación de la privacidad, pero yo argumentaría que es beneficiosa en general. Pero desde una perspectiva macro, el riesgo más apremiante de la tecnología en un futuro cercano es que la privacidad alcanzará niveles históricamente bajos, y de manera altamente desequilibrada, donde los individuos y naciones más poderosos obtendrán mucha información sobre todos, y el resto verá casi nada. Por esta razón, apoyar la privacidad para todos, y hacer que las herramientas necesarias sean de código abierto, universales, fiables y seguras es uno de los desafíos importantes de nuestro tiempo.
Este artículo se reimprime de [Gate.io]Vitalik]. Todos los derechos de autor pertenecen al autor original [Vitalik]. Si hay objeciones a esta reimpresión, por favor contacte al Gate Learnequipo, y lo resolverán rápidamente.
Responsabilidad de exención: Las opiniones expresadas en este artículo son únicamente las del autor y no constituyen ningún consejo de inversión.
Las traducciones del artículo a otros idiomas son realizadas por el equipo de Gate Learn. A menos que se mencione, está prohibido copiar, distribuir o plagiar los artículos traducidos.
Un agradecimiento especial a los voluntarios de Balvi, Paul Dylan-Ennis, pcaversaccio, vectorized, Bruce Xu y Luozhu Zhang por la discusión y la retroalimentación.
Recientemente, me he estado enfocando cada vez más enmejorando el estado de privacidaden el ecosistema de Ethereum. La privacidad es un importante garante de la descentralización: quien tiene la información tiene el poder, por lo tanto, debemos evitar el control centralizado sobre la información. Cuando las personas en el mundo real expresan preocupación sobre la infraestructura técnica operada centralmente, a veces la preocupación es sobre operadores que cambian las reglas inesperadamente o desplataforman a los usuarios, pero con la misma frecuencia, se trata de la recopilación de datos. Mientras que el espacio de las criptomonedas tiene sus orígenes en proyectos como Chaumian Ecash, que pone la preservación de la privacidad financiera digital en primer plano, ha subvalorado más recientemente la privacidad por una razón que en última instancia es negativa: antes de ZK-SNARKs, no teníamos forma de ofrecer privacidad de manera descentralizada, por lo que la minimizamos, centrándonos exclusivamente en otras garantías que podíamos ofrecer en ese momento.
Sin embargo, hoy en día, la privacidad ya no puede ser ignorada. La IA está aumentando enormemente las capacidades de recopilación y análisis de datos centralizados, al mismo tiempo que amplía en gran medida el alcance de los datos que compartimos voluntariamente. En el futuro, nuevas tecnologías como las interfaces cerebro-computadora plantean desafíos adicionales: podríamos estar hablando literalmente de que la IA lea nuestras mentes. Al mismo tiempo, tenemos herramientas más poderosas para preservar la privacidad, especialmente en el ámbito digital, de lo que los ciberpunks de los años 90 podrían haber imaginado: las pruebas de conocimiento cero altamente eficientes (ZK-SNARKs) pueden proteger nuestras identidades mientras revelan suficiente información para demostrar que somos dignos de confianza, el cifrado completamente homomórfico (FHE) puede permitirnos calcular sobre datos sin ver los datos, y la obfuscación pronto podría ofrecer aún más.
La privacidad no se trata de estar aparte. Se trata de estar juntos.
En este momento, vale la pena retroceder y revisar la pregunta: ¿por qué queremos privacidad en primer lugar? La respuesta de cada persona será diferente. En esta publicación daré la mía, que desglosaré en tres partes:
A principios de la década de 2000, era popular tener puntos de vista similares a los que se ejemplifican en el libro de 1998 de David Brin.La Sociedad Transparente: la tecnología haría que la información en todo el mundo sea mucho más transparente, y aunque esto tendrá desventajas y requerirá adaptación, en promedio es algo muy bueno, y podemos hacerlo justo asegurándonos de que la gente pueda vigilar (o más bien,soporte) el gobierno también. En 1999, el CEO de Sun Microsystems, Scott McNealy exclamó famosamente: "la privacidad está muerta, supéralo!". Esta mentalidad era común en la concepción y desarrollo temprano de Facebook, queidentidades seudónimas prohibidas. Personalmente recuerdo haber experimentado el final de esta mentalidad en una presentación en un evento de Huawei en Shenzhen en 2015, donde un conferenciante (occidental) mencionó casualmente en un comentario de pasada que “la privacidad ha terminado”.
La Sociedad Transparente representaba lo mejor y más brillante de lo que la ideología de "la privacidad ha terminado" tenía para ofrecer: prometía un mundo mejor, más justo y equitativo, utilizando el poder de la transparencia para mantener a los gobiernos responsables en lugar de reprimir a individuos y minorías. Sin embargo, a la luz de la retrospectiva, está claro que incluso este enfoque fue un producto de su época, escrito en el apogeo del entusiasmo por la cooperación y la paz mundiales y "el fin de la historia", y dependía de una serie de suposiciones excesivamente optimistas sobre la naturaleza humana. Principalmente:
Hoy en día, no hay un solo país importante para el cual se acuerde ampliamente que la primera suposición sea verdadera, y muchos para los cuales se acuerda ampliamente que es falsa. En el segundo frente, la tolerancia cultural también ha estado retrocediendo rápidamente: una simple búsqueda en Twitter de frases como"El bullying es buenoes una pieza de evidencia de esto, aunque es fácil encontrar más.
Personalmente tengo la desgracia de encontrarme regularmente con los inconvenientes de la “sociedad transparente”, ya que cada acción que realizo fuera tiene alguna posibilidad no nula de convertirse inesperadamente en una historia de los medios de comunicación públicos:
El peor infractor fue alguien que tomó un video de un minuto mientras estaba trabajando en mi computadora portátil en Chiang Mai, y procedió a publicarlo en xiaohongshu, donde inmediatamente obtuvo miles de me gusta y compartidos. Por supuesto, mi propia situación está lejos de la norma humana, pero esto siempre ha sido el caso con la privacidad: la privacidad es menos necesaria para las personas cuyas situaciones de vida son relativamente normales, y más necesaria para las personas cuyas situaciones de vida se desvían de la norma, en cualquier dirección. Y una vez que sumas todas las diferentes direcciones que importan, el número de personas que realmente necesitan privacidad termina siendo bastante alto, y nunca sabes cuándo te convertirás en una de ellas. Esta es una de las principales razones por las cuales la privacidad suele ser subestimada: no se trata solo de tu situación e información hoy, sino también de los desconocidos desconocidos de lo que sucede con esa información (y cómo te afecta) en el futuro para siempre.
La privacidad frente a los mecanismos de fijación de precios corporativos es una preocupación de nicho hoy en día, incluso entre los defensores de la IA, pero con el aumento de las herramientas de análisis basadas en la IA es probable que se convierta en un problema creciente: cuanto más sabe una empresa sobre ti, más probable es que también te ofrezcan un precio personalizado que maximice cuánto pueden extraer de ti multiplicado por la probabilidad de que pagues.
Puedo expresar mi argumento general sobre la privacidad como libertad en una oración de la siguiente manera:
La privacidad te brinda la libertad de vivir tu vida de la manera que mejor se adapte a tus objetivos y necesidades personales, sin tener que equilibrar constantemente cada acción entre "el juego privado" (tus propias necesidades) y "el juego público" (cómo todo tipo de otras personas, intermediadas por todo tipo de mecanismos incluyendo cascadas de redes sociales, incentivos comerciales, política, instituciones, etc., percibirán y responderán a tu comportamiento)
Sin privacidad, todo se convierte en una constante batalla de "¿qué pensarán otras personas (y bots) de lo que estoy haciendo" - personas poderosas, empresas y compañeros, personas de hoy y del futuro. Con privacidad, podemos preservar un equilibrio. Hoy en día, ese equilibrio se está erosionando rápidamente, especialmente en el ámbito físico, y el camino predeterminado del tecno-capitalismo moderno, con su hambre de modelos de negocios que encuentren formas de capturar valor de los usuarios sin pedirles explícitamente que paguen por las cosas, es erosionarlo aún más (incluso en dominios altamente sensibles como, eventualmente, nuestras propias mentes). Por lo tanto, necesitamos contrarrestar este efecto y apoyar la privacidad de manera más explícita, especialmente en el lugar donde más prácticamente podemos: el ámbito digital.
Hay una respuesta común al razonamiento anterior: las desventajas de la privacidad que describí son en gran medida desventajas de que el público sepa demasiado sobre nuestras vidas privadas, e incluso en lo que respecta al abuso de poder, se trata de que las corporaciones, jefes y políticos sepan demasiado. Pero no vamos a permitir que el público, las corporaciones, los jefes y los políticos tengan todos estos datos. En cambio, permitiremos que un pequeño grupo de profesionales altamente capacitados y bien evaluados en la aplicación de la ley vean los datos obtenidos de las cámaras de seguridad en las calles y las escuchas en los cables de internet y las aplicaciones de chat, apliquen procedimientos estrictos de responsabilidad, y nadie más se enterará.
Esta es una posición mantenida de manera tranquila, pero ampliamente, y por lo tanto es importante abordarla explícitamente. Hay varias razones por las cuales, incluso si se implementan con un alto nivel de calidad y buenas intenciones, tales estrategias son inherentemente inestables:
Desde la perspectiva de un individuo, si se toman datos de ellos, no tienen forma de saber si y cómo se abusará en el futuro. Hasta ahora, el enfoque más seguro para manejar datos a gran escala es recopilar de forma centralizada la menor cantidad posible en primer lugar. Los datos deben ser retenidos al máximo por los propios usuarios, y se deben utilizar medios criptográficos para permitir la agregación de estadísticas útiles sin comprometer la privacidad individual.
El argumento de que el gobierno debería tener la capacidad de acceder a cualquier cosa con una orden judicial porque así es como siempre han funcionado las cosas, pasa por alto un punto clave: históricamente, la cantidad de información disponible para ser obtenida con órdenes judiciales era mucho menor que la disponible hoy en día, e incluso lo que estaría disponible si se adoptaran universalmente las formas más fuertes de privacidad en internet propuestas. En el siglo XIX, la conversación promedio sucedía una vez, a través de la voz, y nunca fue grabada por nadie. Por esta razón: el conjunto pánico moral en torno a la 'oscuridad'es ahistórico: la conversación promedio, e incluso la transacción financiera, totalmente y incondicionalmente privada es la norma histórica de varios miles de años.
Una conversación promedio, 1950. Exactamente cero palabras de la conversación fueron grabadas, espiadas, sujetas a “intercepción legal”, analizadas por IA, o vistas de alguna otra manera por cualquier persona en cualquier momento que no fueran los participantes en la conversación mientras está ocurriendo.
Otra razón importante para minimizar la recopilación centralizada de datos es la naturaleza inherentemente internacional de grandes partes de la comunicación global y la interacción económica. Si todos están en el mismo país, al menos sería una posición coherente decir que “el gobierno” debería tener acceso a los datos en sus interacciones. Pero ¿qué pasa si la gente está en diferentes países? Ciertamente, en principio podrías intentar idear un esquema de mente galáctica donde los datos de cada persona se asignen a alguna entidad de acceso legal que sea responsable de ellos, aunque incluso allí tendrías que lidiar con un gran número de casos especiales que involucran datos que se relacionan con múltiples personas. Pero incluso si pudieras, no es el resultado predeterminado realista. El resultado predeterminado realista de las puertas traseras del gobierno es: los datos se concentran en un pequeño número de jurisdicciones centrales que tienen los datos de todos porque controlan las aplicaciones, esencialmente, la tecnogemonía global. La privacidad sólida es, con mucho, la alternativa más estable.
Durante más de un siglo, se ha reconocido que un componente técnico clave para que la democracia funcione es el voto secreto: nadie sabe a quién votaste, y además, no tienes la capacidad de demostrar a nadie a quién votaste, incluso si realmente quieres. Si los votos no fueran secretos por defecto, los votantes se verían acosados con todo tipo de incentivos secundarios que afectarían cómo votan: sobornos, promesas de recompensas retroactivas, presión social, amenazas y más.
Se puede ver que tales incentivos secundarios romperían completamente la democracia con un simple argumento matemático: en una elección con N personas, tu probabilidad de afectar el resultado es solo aproximadamente 1/N, por lo que cualquier consideración relacionada con qué candidato es mejor y cuál es peor se divide inherentemente por N. Mientras tanto, los “juegos secundarios” (por ejemplo, soborno de votantes, coerción, presión social) actúan directamente sobre ti en función de cómo votes (en lugar de basarse en el resultado de la votación en su conjunto), por lo que no se dividen por N. Por lo tanto, a menos que los juegos secundarios estén controlados de manera estricta, por defecto abruman todo el juego y ahogan cualquier consideración sobre cuáles son realmente mejores las políticas del candidato.
Esto se aplica no solo a la democracia a escala nacional. Teóricamente, se aplica a casi cualquier problema principal-agente corporativo o gubernamental:
El problema fundamental en todos los casos es el mismo: si el agente actúa honestamente, absorben solo una pequeña parte del beneficio de su acción para la entidad que están representando, mientras que si siguen los incentivos de algún juego secundario, entonces absorben la parte completa de esos beneficios. Por lo tanto, incluso hoy, estamos confiando en una gran cantidad de buena voluntad moral para asegurarnos de que todas nuestras instituciones no sean completamente tomadas por un caótico torbellino de juegos secundarios que derriban juegos secundarios. Si la privacidad disminuye aún más, entonces estos juegos secundarios se vuelven aún más fuertes y la buena voluntad moral requerida para mantener funcionando a la sociedad puede volverse irrealmente alta.
¿Se podrían rediseñar los sistemas sociales para no tener este problema? Desafortunadamente, la teoría de juegos prácticamente dice explícitamente que esto es imposible (con una excepción: la dictadura total). En la versión de la teoría de juegos que se centra en la elección individual, es decir, la versión que asume que cada participante toma decisiones de forma independiente y que no permite la posibilidad de que grupos de agentes trabajen como uno solo en beneficio mutuo, los diseñadores de mecanismos tienen una amplitud muy amplia para juegos de “ingeniero”para lograr todo tipo de resultados específicos. De hecho, hay pruebas matemáticasque para cualquier juego al menos debe existir un equilibrio de Nash estable, y por lo tanto analizar tales juegos se vuelve factible. Pero en la versión de la teoría de juegos que permite la posibilidad de que las coaliciones trabajen juntas (es decir, "coludir"), llamada teoría de juegos cooperativos,podemos demostrar esothere are large classes of games that do not have any stable outcome (called a “núcleoEn tales juegos, sea cual sea el estado actual de los asuntos, siempre hay alguna coalición que puede desviarse de manera rentable de él.
Si tomamos en serio las matemáticas, nosotros llegar a la conclusiónque la única forma de crear estructuras sociales estables es tener algunos límites en la cantidad de coordinación entre los participantes que puede ocurrir, y esto implica una fuerte privacidad (incluida la negabilidad). Si no se toma en serio las matemáticas por sí solas, entonces basta con observar el mundo real, o al menos pensar en lo que podrían convertirse algunas de las situaciones principal-agente descritas anteriormente si fueran tomadas por juegos secundarios, para llegar a la misma conclusión.
Tenga en cuenta que esto introduce otro argumento sobre por qué las puertas traseras del gobierno son riesgosas. Si todos tienen la capacidad ilimitada de coordinarse con todos en todo, el resultado es el caos. Pero si solo algunas personas pueden hacerlo, porque tienen acceso privilegiado a la información, entonces el resultado es que dominan. Que un partido político tenga acceso a las comunicaciones del otro fácilmente puede significar el fin de la viabilidad de tener múltiples partidos políticos.
Otro ejemplo importante de un orden social que depende de límites a la colusión para funcionar es la actividad intelectual y cultural. La participación en la actividad intelectual y cultural es inherentemente una tarea de espíritu público motivada intrínsecamente: es muy difícil crear incentivos extrínsecos que apunten a contribuciones positivas a la sociedad, precisamente porque la actividad intelectual y cultural es, en parte, la actividad de determinar qué acciones en la sociedad son acciones positivas en primer lugar. Podemos crear incentivos comerciales y sociales aproximados que apunten en la dirección correcta, pero también requieren una fuerte suplementación de motivación intrínseca. Pero esto también significa que este tipo de actividad es altamente frágil a las motivaciones extrínsecas desalineadas, especialmente a los juegos secundarios como la presión social y la coerción. Para limitar el impacto de tales motivaciones extrínsecas desalineadas, una vez más se requiere privacidad.
Imagina un mundo donde la encriptación de clave pública y de clave simétrica no existiera en absoluto. En este mundo, enviar mensajes de forma segura a largas distancias sería inherentemente mucho más difícil - no imposible, pero difícil. Esto llevaría a que se produjera mucha menos cooperación internacional, y como resultado, mucho más seguiría ocurriendo a través de canales offline en persona. Esto habría hecho del mundo un lugar mucho más pobre y desigual.
Argumentaré que hoy estamos exactamente en ese lugar hoy, en relación con un mundo hipotético del mañana donde formas mucho más fuertes de criptografía estaban ampliamente disponibles, en particular, criptografía programable, mejorada por formas más fuertes de seguridad de pila completa y verificación formal para brindarnos fuertes garantías de que esta criptografía se está utilizando correctamente.
La Protocolos de los dioses egipcios: tres construcciones poderosas y altamente versátiles que nos permiten realizar cálculos sobre datos al mismo tiempo que mantienen los datos completamente privados.
Una excelente fuente de ejemplos es la atención médica. Si hablas con alguien que haya estado trabajando en longevidad, resistencia a pandemias u otros campos de la salud en la última década, te dirán universalmente que el futuro del tratamiento y la prevención es personalizado, y que la respuesta efectiva depende en gran medida de datos de alta calidad, tanto datos sobre individuos como datos sobre el entorno. Proteger eficazmente a las personas contra enfermedades transmitidas por el aire requiere saber dónde la calidad del aire es más alta y más baja, y en qué regiones están surgiendo patógenos en un momento dado. Las clínicas de longevidad más avanzadas dan recomendaciones y tratamientos personalizados basados en datos sobre tu cuerpo, preferencias alimenticias y estilo de vida.
Sin embargo, cada una de estas cosas son simultáneamente enormes riesgos para la privacidad. Personalmente tengo conocimiento de un incidente en el que se le dio a un empleado un monitor de aire que 'llamó a casa' a una empresa, y los datos recopilados fueron suficientes para determinar cuándo ese empleado estaba teniendo relaciones sexuales. Por razones como esta, espero que por defecto muchas de las formas más valiosas de datos no se recopilen en absoluto, precisamente porque las personas temen las consecuencias para la privacidad. Y aún cuando los datos se recopilen, casi siempre no se compartirán ampliamente ni se pondrán a disposición de los investigadores, en parte por razones comerciales, pero con la misma frecuencia debido a las preocupaciones de privacidad involucradas.
El mismo patrón se repite en otras áreas. Hay una gran cantidad de información sobre nosotros mismos en nuestras acciones en los documentos que escribimos, los mensajes que enviamos a través de varias aplicaciones, y diversas acciones en las redes sociales, que podrían ser utilizados para predecir y proporcionar de manera más efectiva las cosas que necesitamos en nuestra vida diaria. Hay una gran cantidad de información sobre cómo interactuamos con nuestros entornos físicos que no está relacionada con la atención médica. Hoy en día, nos faltan las herramientas para utilizar esta información de manera efectiva sin crear pesadillas de privacidad distópicas. Mañana, podemos tener esas herramientas.
La mejor manera de resolver estos desafíos es utilizar una criptografía sólida, que nos permita obtener los beneficios de compartir datos sin las desventajas. La necesidad de acceder a datos, incluidos los datos personales, solo se volverá más importante en la era de la IA, ya que hay valor en poder entrenar y ejecutar localmente “gemelos digitales” que puedan tomar decisiones en nuestro nombre basadas en aproximaciones de alta fidelidad de nuestras preferencias. Eventualmente, esto también implicará el uso de la interfaz cerebro-computadora (BCI), leyendo entradas de alta capacidad de ancho de banda de nuestras mentes. Para que esto no conduzca a una hegemonía global altamente centralizada, necesitamos formas de hacerlo con respeto a la privacidad sólida. La criptografía programable es la solución más confiable.
Mi AirValentmonitor de calidad del aire. Imagina un dispositivo como este que recopila datos de calidad del aire, proporciona estadísticas agregadas públicamente en un mapa de datos abiertos y te recompensa por proporcionar los datos, todo ello utilizando criptografía programable para evitar revelar tus datos de ubicación personal y verificar que los datos sean genuinos.
Técnicas de criptografía programable como las pruebas de conocimiento cero son poderosas, porque son como ladrillos de Lego para el flujo de información. Pueden permitir un control detallado de quién puede ver qué información y, a menudo, lo que es más importante, qué información puede verse en absoluto. Por ejemplo, puedo demostrar que tengo un pasaporte canadiense que muestra que tengo más de 18 años, sin revelar nada más sobre mí mismo.
Esto hace posible todo tipo de combinaciones fascinantes. Puedo dar algunos ejemplos:
representación de pools de privacidad
el taiwanésVerificador de mensajesaplicación, que le da al usuario la opción de activar o desactivar múltiples filtros, aquí de arriba a abajo: comprobación de URL, comprobación de direcciones de criptomonedas, comprobación de rumores
Recientemente, ChatGPT anunciadoque comenzará a alimentar sus conversaciones pasadas en la IA como contexto para sus conversaciones futuras. Es inevitable que la tendencia continúe en esta dirección: un IA que revisa sus conversaciones pasadas y obtiene información valiosa de ellas es fundamentalmente útil. En un futuro cercano, probablemente veremos a las personas creando productos de IA que se adentren aún más en la privacidad: recopilando pasivamente sus patrones de navegación por Internet, historial de correo electrónico y chat, datos biométricos y más.
En teoría, tus datos permanecen privados para ti. En la práctica, esto no siempre parece ser el caso:
“¡Wow! ChatGPT tiene un error, y ¡empuja preguntas hechas por otros hacia mí! Esto es una gran filtración de privacidad. Hice una pregunta, recibí un error, y luego al hacer clic en 'Reintentar', generó una pregunta que nunca haría.
Siempre es posible que la protección de la privacidad haya funcionado bien, y en este caso la IA alucinó al generar una pregunta que Bruce nunca hizo y responder a eso. Pero no hay forma de verificarlo. De manera similar, no hay forma de verificar si nuestras conversaciones se están utilizando o no para el entrenamiento.
Todo esto es profundamente preocupante. Aún más perturbadores son los casos de uso explícito de vigilancia de IA, donde se recopilan y analizan datos (físicos y digitales) sobre las personas a gran escala sin su consentimiento. El reconocimiento facial ya está ayudando a los regímenes autoritarios reprimir el disenso políticoa gran escala. Y lo más preocupante de todo es la inevitable frontera final de la recopilación y análisis de datos de IA: la mente humana.
En principio, la tecnología de interfaz cerebro-computadora tiene un poder increíble para potenciar el potencial humano. Toma la historia de Noland Arbaugh, primer paciente de Neuralink a partir del año pasado:
El dispositivo experimental le ha dado a Arbaugh, ahora con 30 años, un sentido de independencia. Antes, usar un palo para la boca requería que alguien lo colocara en posición vertical. Si dejaba caer su palo para la boca, necesitaba que se lo recogieran. Y no podía usarlo durante mucho tiempo o desarrollaría llagas. Con el dispositivo Neuralink, tiene casi control total de una computadora. Puede navegar por la web y jugar juegos de computadora cuando quiera, y Neuralink dice que tieneestablecer el récord humano para el control del cursor con un BCI.
Hoy en día, estos dispositivos son lo suficientemente potentes como para empoderar a los heridos y enfermos. Mañana, serán lo suficientemente potentes como para dar a las personas completamente sanas la oportunidad de trabajar con computadoras y comunicarse telepáticamente entre ellas (!!), a un nivel de eficiencia que para nosotros parece inimaginable. Pero interpretar realmente las señales cerebrales para hacer posible este tipo de comunicación requiere inteligencia artificial.
Existe un futuro oscuro que podría surgir de forma natural como una confluencia de estas tendencias, y obtenemos superagentes de silicio que están absorbiendo y analizando información sobre todos, incluido cómo escriben, actúan y piensan. Pero también hay un futuro más brillante, donde obtenemos los beneficios de estas tecnologías mientras preservamos nuestra privacidad.
Esto se puede hacer con una combinación de algunas técnicas:
En 2008, el filósofo libertario David Friedman escribió un libro llamado Future Imperfect, en el que dio una serie de bocetos sobre los cambios en la sociedad que las nuevas tecnologías podrían traer, no todos a su favor (o a nuestro favor). En una sección, describe un futuro potencial donde vemos una compleja interacción entre la privacidad y la vigilancia, donde el crecimiento de la privacidad digital contrarresta el crecimiento de la vigilancia en el mundo físico:
No sirve de nada usar un cifrado fuerte para mi correo electrónico si un mosquito de vídeo está sentado en la pared mirándome escribir. Así que la fuerte privacidad en una sociedad transparente requiere alguna forma de proteger la interfaz entre mi cuerpo en el espacio real y el ciberespacio ... Una solución de baja tecnología es escribir bajo una capucha. Una solución de alta tecnología es algún enlace entre la mente y la máquina que no pase por los dedos, ni por cualquier otra cosa visible para un observador externo.24
El conflicto entre la transparencia en el espacio real y la privacidad en el ciberespacio también va en la otra dirección... Mi ordenador de bolsillo cifra mi mensaje con tu clave pública y lo transmite a tu ordenador de bolsillo, que descifra el mensaje y lo muestra a través de tus gafas de realidad virtual. Para asegurarte de que nada está leyendo las gafas por encima de tu hombro, las gafas envían la imagen a ti no mostrándola en una pantalla, sino usando un láser pequeño para escribirla en tu retina. Con un poco de suerte, el interior de tu globo ocular sigue siendo un espacio privado.
Podríamos terminar en un mundo donde las acciones físicas sean completamente públicas, y las transacciones de información sean totalmente privadas. Tiene algunas características atractivas. Los ciudadanos privados aún podrán aprovechar la privacidad para ubicar a un sicario, pero contratarlo puede costar más de lo que están dispuestos a pagar, ya que en un mundo suficientemente transparente todos los asesinatos son detectados. Cada sicario ejecuta una comisión y luego va directamente a la cárcel.
¿Qué pasa con la interacción entre estas tecnologías y el procesamiento de datos? Por un lado, es el procesamiento moderno de datos el que hace que la sociedad transparente sea una amenaza, sin eso, no importaría mucho si grabaras todo lo que sucede en el mundo, ya que nadie podría encontrar las seis pulgadas particulares de cinta de video que quería en los millones de millas producidas cada día. Por otro lado, las tecnologías que soportan una fuerte privacidad brindan la posibilidad de restablecer la privacidad, incluso en un mundo con procesamiento moderno de datos, manteniendo la información sobre sus transacciones para que nunca llegue a nadie más que a usted.
Un mundo así bien podría ser el mejor de todos los mundos posibles: si todo sale bien, veríamos un futuro en el que hay muy poca violencia física, pero al mismo tiempo preservaríamos nuestras libertades en línea y garantizaríamos el funcionamiento básico de los procesos políticos, cívicos, culturales e intelectuales en la sociedad que dependen de ciertos límites a la transparencia total de la información para su funcionamiento continuo.
Incluso si no es ideal, es mucho mejor que la versión donde la privacidad física y digital se reduce a cero, incluyendo eventualmente la privacidad de nuestras propias mentes, y a mediados de la década de 2050, empezamos a ver artículos argumentando que, por supuesto, es irreal esperar tener pensamientos que no estén sujetos a interceptaciones legales, y respuestas a esos artículos que consisten en enlaces al incidente más reciente donde la LLM de una empresa de IA tuvo una vulnerabilidad que resultó en que los monólogos internos privados de 30 millones de personas se filtraran a toda la internet durante un año.
La sociedad siempre ha dependido de un equilibrio entre la privacidad y la transparencia. En algunos casos apoyo los límites a la privacidad también. Para dar un ejemplo totalmente desconectado de los argumentos habituales que la gente da al respecto, apoyo los movimientos del gobierno de los EE. UU. haciaprohibir las cláusulas de no competencia en los contratosprincipalmente no por sus impactos directos en los trabajadores, sino porque son una forma de obligar a que el conocimiento tácito del dominio de las empresas sea parcialmente de código abierto. Obligar a las empresas a ser más abiertas de lo que les gustaría es una limitación de la privacidad, pero yo argumentaría que es beneficiosa en general. Pero desde una perspectiva macro, el riesgo más apremiante de la tecnología en un futuro cercano es que la privacidad alcanzará niveles históricamente bajos, y de manera altamente desequilibrada, donde los individuos y naciones más poderosos obtendrán mucha información sobre todos, y el resto verá casi nada. Por esta razón, apoyar la privacidad para todos, y hacer que las herramientas necesarias sean de código abierto, universales, fiables y seguras es uno de los desafíos importantes de nuestro tiempo.
Este artículo se reimprime de [Gate.io]Vitalik]. Todos los derechos de autor pertenecen al autor original [Vitalik]. Si hay objeciones a esta reimpresión, por favor contacte al Gate Learnequipo, y lo resolverán rápidamente.
Responsabilidad de exención: Las opiniones expresadas en este artículo son únicamente las del autor y no constituyen ningún consejo de inversión.
Las traducciones del artículo a otros idiomas son realizadas por el equipo de Gate Learn. A menos que se mencione, está prohibido copiar, distribuir o plagiar los artículos traducidos.