Cheqd, DataHive, Nuklai e Datagram lançaram a Sovereign AI Alliance, uma nova iniciativa destinada a desenvolver uma estrutura de código aberto para inteligência artificial descentralizada usando dados pertencentes aos usuários.
Anunciado a 1 de maio através de um comunicado de imprensa partilhado com crypto.news, a aliança irá focar-se na construção de uma infraestrutura técnica que suporte sistemas de IA que preservam a privacidade. No núcleo do projeto está o proposto Protocolo da Rede de Intenções, que visa permitir que agentes de IA colaborem de forma segura sem comprometer o controlo do utilizador sobre os dados pessoais.
O INP é estruturado em torno de três componentes principais: "Âncoras de Intenção" para capturar entradas dos usuários com garantias de propriedade de dados; a "Rede de Intenção", um ambiente descentralizado para comunicação de IA; e "Nós de Execução", que atuam nas intenções dos usuários com proteções de privacidade integradas.
A aliança também delineou um roteiro mais abrangente que inclui armazenamento de dados descentralizado, modelos de IA de código aberto e ferramentas para agentes de IA transacionarem e colaborarem de forma autônoma. De acordo com os fundadores, esse esforço visa mover a economia de dados de "baseada em atenção" para "baseada em intenção", com os usuários no centro.
Por que esta aliança é importante
A SAIA entra em cena à medida que a escrutínio se intensifica sobre o uso de dados pessoais por modelos de IA centralizados, enquanto os reguladores na Europa e além exigem mais transparência e controle do usuário.
Fraser Edwards, CEO da cheqd, disse ao crypto.news em uma entrevista que os modelos de IA atuais frequentemente negociam dados de usuários sem consentimento significativo. "Os usuários pagam com seus dados pessoais, que são extraídos, aggreGate.iod e comoditizados," ele disse.
A abordagem da aliança, segundo Edwards, permite que os utilizadores partilhem dados de forma seletiva, potencialmente os monetizem e mantenham a capacidade de revogar o acesso, oferecendo um nível de controlo que as plataformas centralizadas têm dificuldade em proporcionar.
Embora os esforços anteriores para "pagar os usuários pelos dados" tenham tropeçado, a arquitetura do SAIA foi projetada para tratar os dados dos usuários como um ativo reutilizável e verificável dentro de um ecossistema baseado em consentimento. Inclui também ferramentas focadas em conformidade, como trilhas de auditoria e divulgação seletiva, para ajudar as aplicações a atender os padrões globais de privacidade, como o GDPR.
Uma Q&A completa com Fraser Edwards sobre os planos, desafios e incentivos para utilizadores da SAIA segue abaixo.
crypto.news: A visão da Aliança de IA Soberana é construir estruturas de IA de código aberto e descentralizadas com dados de propriedade do usuário. Isso soa interessante em teoria, mas que vantagens isso trará em relação às ofertas de IA das grandes tecnologias? Os serviços de IA são oferecidos "grátis" trocando seus dados e isso tem sido aceito como normal por anos pela vasta maioria das pessoas. Por que os usuários e desenvolvedores mudariam para um modelo auto-soberano? Que incentivo real ( monetário, de privacidade ou outro ) torna a sua abordagem de dados de propriedade do usuário suficientemente atraente para impulsionar a adoção?
Fraser Edwards: A principal vantagem do modelo da Aliança Sovereign AI é o alinhamento. IA que trabalha para você, não para plataformas que monetizam a sua atenção ou dados. As ferramentas de IA "gratuitas" de hoje não são verdadeiramente gratuitas. Os usuários pagam com os seus dados pessoais, que são extraídos, aggreGate.iod e comercializados, muitas vezes de maneiras que não podem ser controladas ou auditadas. Isso alimenta sistemas impulsionados por engajamento que priorizam a viralidade e a retenção em detrimento do benefício individual.
Um exemplo do mundo real é a reação contra a IA da Meta ser incorporada ao WhatsApp. Apesar das alegações da Meta de respeitar a privacidade, os usuários não podem desativá-la, e poucos confiam na empresa para agir em seus melhores interesses. Isso corrói a confiança na gestão de dados da Big Tech.
Em contraste, a Sovereign AI é construída em torno de dados de propriedade do usuário, onde os indivíduos controlam como as suas informações são usadas, partilhadas e monetizadas. O modelo de auto-soberania capacita as pessoas a possuírem os seus eus digitais de uma forma que as grandes empresas de tecnologia não podem oferecer sem desmantelar todo o seu modelo de negócio.
Para que a IA seja verdadeiramente personalizada e útil, ela precisa de acesso a dados ricos e contextuais com total permissão. Se os dados estiverem isolados em várias plataformas, a IA permanece limitada e impessoal. A IA soberana permite sistemas inteligentes que são tanto mais poderosos quanto mais respeitadores das pessoas que servem.
Este modelo permite três incentivos para impulsionar a adoção:
Privacidade por Design: Os dados não são drenados para sistemas corporativos opacos. Em vez disso, permanecem sob o controle dos utilizadores através de uma infraestrutura de identidade e armazenamento descentralizada.
Incentivo Monetário: Com estruturas como as linhas de pagamento da cheqd, os usuários e desenvolvedores podem receber compensação por compartilhar dados verificados ou treinar agentes de IA, criando uma verdadeira economia de dados.
Personalização Real: AIs e agentes pessoais, como os que estão a ser desenvolvidos pela DataHive, podem agir em seu nome com base nas suas verdadeiras intenções, e não no que maximiza a receita publicitária.
CN:Uma ideia central aqui é que os indivíduos controlam ( e potencialmente monetizam ) os seus próprios dados. No entanto, muitos projetos passados prometeram “ser pago pelos seus dados” e tiveram dificuldades, em parte porque os dados de um usuário médio não valem muito a nível individual ou não valem o tempo. Como é que a SAIA mudará essa equação? Estão a planear recompensar os usuários diretamente por contribuírem com dados ou feedback de treinamento de IA, ou o benefício é mais indireto (, por exemplo, melhor personalização e privacidade )? Se os usuários não puderem ganhar uma renda significativa, qual é o incentivo para eles compartilharem e gerirem proativamente os seus dados nesta rede?
FE: É verdade que os modelos anteriores de "seja pago pelos seus dados" muitas vezes falhavam porque tratavam os dados como uma mercadoria única, em vez de parte de um ecossistema contínuo e orientado por intenção. A Sovereign AI Alliance muda a equação ao reimaginar os dados como um ativo reutilizável e de alto valor dentro de uma estrutura de IA descentralizada e baseada em intenções.
Para a cheqd, abordamos isso permitindo que os indivíduos controlem e reutilizem seus próprios dados, mas, igualmente importante, estamos a construir a infraestrutura que incentiva as empresas e os silos de dados a devolver esses dados aos indivíduos em primeiro lugar.
Em vez de prometer recompensas micro rápidas para pontos de dados isolados, a infraestrutura da cheqd suporta um modelo onde os usuários podem compartilhar seletivamente dados verificados e reutilizáveis, como credenciais, preferências ou consentimento, nos seus próprios termos. Isso abre o potencial para um valor a longo prazo mais significativo, seja em serviços de IA personalizados, monetização seletiva ou simplesmente melhor controle. A verdadeira mudança está em reequilibrar o poder: tornando viável para os usuários levar seus dados com eles e usá-los em diferentes sistemas de IA, sem ficarem presos em silos.
CN:Com os dados de propriedade do usuário no centro, como você está abordando a privacidade e a conformidade desde o início? Se dados pessoais estão sendo usados para treinar ou informar modelos de IA, os usuários têm controle detalhado e a capacidade de optar por não participar ou revogar dados? Ações regulatórias recentes mostram que isso é crítico – por exemplo, a autoridade de proteção de dados da Itália baniu temporariamente o ChatGPT devido à “ausência de qualquer base legal” para sua coleta em massa de dados pessoais para treinamento. Como a abordagem da SAIA diferirá na manipulação de dados do usuário para que permaneça em conformidade com as leis de privacidade (GDPR e outras) e normas éticas?
FE: A conformidade e a privacidade são fundamentais para a arquitetura da SAIA. A base da SAIA é a soberania do usuário por padrão, sem a necessidade de silos de dados centrais, em contraste com os modelos típicos de IA que coletam dados em massa sem um consentimento significativo.
Os dados permanecem sob controle do usuárioOs usuários podem conceder, revogar ou limitar o acesso aos seus dados a qualquer momento, aproveitando a identidade descentralizada (cheqd) e protocolos de armazenamento (Datagram e outros). Este mecanismo está em conformidade com noções do GDPR, como minimização de dados e o direito de ser esquecido.
O consentimento é explícito e revogávelEstamos a desenvolver sistemas que permitem aos utilizadores expressar consentimento explícito para a utilização dos seus dados, como para partilha de credenciais, interações com agentes ou treino de IA. Com registos de consentimento verificáveis e casos de uso específicos de intenção, a base legal e a rastreabilidade estão garantidas.
Ferramentas de conformidade integradasEstamos a criar funcionalidades de conformidade embutidas, como trilhas de auditoria, proveniência de dados e divulgação seletiva, para que os agentes e aplicações de IA que utilizam a estrutura da SAIA não sejam apenas alinhados à privacidade, mas comprovadamente conformes com as regulamentações globais.
CN:cheqd traz identidade descentralizada ( identidade auto-soberana / SSI) e infraestrutura de verificação para a aliança. Como a SSI será incluída na estrutura de IA? Por exemplo, os Intention Anchors usarão identidades digitais para verificar a proveniência dos dados ou a reputação dos agentes de IA? E dado que a identidade descentralizada ainda é incipiente, até mesmo especialistas em identidade notam que a adoção é o maior desafio devido à complexidade adicional para usuários e organizações, como você incentivará e impulsionará o uso de SSI dentro do SAIA?
FE: “SSI desempenha um papel fundamental na arquitetura da Aliança de IA Soberana. É a camada de confiança que conecta agentes de IA, pessoas e dados. Aqui está como pretendemos superar os obstáculos à adoção e como a infraestrutura de identidade descentralizada da cheqd se encaixa no quadro.
Isto aplica-se também aos próprios agentes de IA: ao emitir credenciais verificáveis para os agentes, podemos estabelecer reputação, capacidade e autenticidade. Isto é vital para a confiança nas interações entre agentes ou entre agentes e utilizadores.
A adoção é, de fato, o maior desafio para SSI hoje. Enquanto a cheqd está na camada de infraestrutura, a DataHive está diretamente voltada para o cliente, oferecendo assim uma solução para os consumidores, que podem então trazer seus dados para dentro.
O conteúdo serve apenas de referência e não constitui uma solicitação ou oferta. Não é prestado qualquer aconselhamento em matéria de investimento, fiscal ou jurídica. Consulte a Declaração de exoneração de responsabilidade para obter mais informações sobre os riscos.
Nova aliança de IA visa acabar com o domínio das grandes empresas de tecnologia com dados de propriedade dos usuários
Cheqd, DataHive, Nuklai e Datagram lançaram a Sovereign AI Alliance, uma nova iniciativa destinada a desenvolver uma estrutura de código aberto para inteligência artificial descentralizada usando dados pertencentes aos usuários.
Anunciado a 1 de maio através de um comunicado de imprensa partilhado com crypto.news, a aliança irá focar-se na construção de uma infraestrutura técnica que suporte sistemas de IA que preservam a privacidade. No núcleo do projeto está o proposto Protocolo da Rede de Intenções, que visa permitir que agentes de IA colaborem de forma segura sem comprometer o controlo do utilizador sobre os dados pessoais.
O INP é estruturado em torno de três componentes principais: "Âncoras de Intenção" para capturar entradas dos usuários com garantias de propriedade de dados; a "Rede de Intenção", um ambiente descentralizado para comunicação de IA; e "Nós de Execução", que atuam nas intenções dos usuários com proteções de privacidade integradas.
A aliança também delineou um roteiro mais abrangente que inclui armazenamento de dados descentralizado, modelos de IA de código aberto e ferramentas para agentes de IA transacionarem e colaborarem de forma autônoma. De acordo com os fundadores, esse esforço visa mover a economia de dados de "baseada em atenção" para "baseada em intenção", com os usuários no centro.
Por que esta aliança é importante
A SAIA entra em cena à medida que a escrutínio se intensifica sobre o uso de dados pessoais por modelos de IA centralizados, enquanto os reguladores na Europa e além exigem mais transparência e controle do usuário.
Fraser Edwards, CEO da cheqd, disse ao crypto.news em uma entrevista que os modelos de IA atuais frequentemente negociam dados de usuários sem consentimento significativo. "Os usuários pagam com seus dados pessoais, que são extraídos, aggreGate.iod e comoditizados," ele disse.
A abordagem da aliança, segundo Edwards, permite que os utilizadores partilhem dados de forma seletiva, potencialmente os monetizem e mantenham a capacidade de revogar o acesso, oferecendo um nível de controlo que as plataformas centralizadas têm dificuldade em proporcionar.
Embora os esforços anteriores para "pagar os usuários pelos dados" tenham tropeçado, a arquitetura do SAIA foi projetada para tratar os dados dos usuários como um ativo reutilizável e verificável dentro de um ecossistema baseado em consentimento. Inclui também ferramentas focadas em conformidade, como trilhas de auditoria e divulgação seletiva, para ajudar as aplicações a atender os padrões globais de privacidade, como o GDPR.
Uma Q&A completa com Fraser Edwards sobre os planos, desafios e incentivos para utilizadores da SAIA segue abaixo.
crypto.news: A visão da Aliança de IA Soberana é construir estruturas de IA de código aberto e descentralizadas com dados de propriedade do usuário. Isso soa interessante em teoria, mas que vantagens isso trará em relação às ofertas de IA das grandes tecnologias? Os serviços de IA são oferecidos "grátis" trocando seus dados e isso tem sido aceito como normal por anos pela vasta maioria das pessoas. Por que os usuários e desenvolvedores mudariam para um modelo auto-soberano? Que incentivo real ( monetário, de privacidade ou outro ) torna a sua abordagem de dados de propriedade do usuário suficientemente atraente para impulsionar a adoção? Fraser Edwards: A principal vantagem do modelo da Aliança Sovereign AI é o alinhamento. IA que trabalha para você, não para plataformas que monetizam a sua atenção ou dados. As ferramentas de IA "gratuitas" de hoje não são verdadeiramente gratuitas. Os usuários pagam com os seus dados pessoais, que são extraídos, aggreGate.iod e comercializados, muitas vezes de maneiras que não podem ser controladas ou auditadas. Isso alimenta sistemas impulsionados por engajamento que priorizam a viralidade e a retenção em detrimento do benefício individual. Um exemplo do mundo real é a reação contra a IA da Meta ser incorporada ao WhatsApp. Apesar das alegações da Meta de respeitar a privacidade, os usuários não podem desativá-la, e poucos confiam na empresa para agir em seus melhores interesses. Isso corrói a confiança na gestão de dados da Big Tech.
Em contraste, a Sovereign AI é construída em torno de dados de propriedade do usuário, onde os indivíduos controlam como as suas informações são usadas, partilhadas e monetizadas. O modelo de auto-soberania capacita as pessoas a possuírem os seus eus digitais de uma forma que as grandes empresas de tecnologia não podem oferecer sem desmantelar todo o seu modelo de negócio.
Para que a IA seja verdadeiramente personalizada e útil, ela precisa de acesso a dados ricos e contextuais com total permissão. Se os dados estiverem isolados em várias plataformas, a IA permanece limitada e impessoal. A IA soberana permite sistemas inteligentes que são tanto mais poderosos quanto mais respeitadores das pessoas que servem.
Este modelo permite três incentivos para impulsionar a adoção:
CN: Uma ideia central aqui é que os indivíduos controlam ( e potencialmente monetizam ) os seus próprios dados. No entanto, muitos projetos passados prometeram “ser pago pelos seus dados” e tiveram dificuldades, em parte porque os dados de um usuário médio não valem muito a nível individual ou não valem o tempo. Como é que a SAIA mudará essa equação? Estão a planear recompensar os usuários diretamente por contribuírem com dados ou feedback de treinamento de IA, ou o benefício é mais indireto (, por exemplo, melhor personalização e privacidade )? Se os usuários não puderem ganhar uma renda significativa, qual é o incentivo para eles compartilharem e gerirem proativamente os seus dados nesta rede?
FE: É verdade que os modelos anteriores de "seja pago pelos seus dados" muitas vezes falhavam porque tratavam os dados como uma mercadoria única, em vez de parte de um ecossistema contínuo e orientado por intenção. A Sovereign AI Alliance muda a equação ao reimaginar os dados como um ativo reutilizável e de alto valor dentro de uma estrutura de IA descentralizada e baseada em intenções.
Para a cheqd, abordamos isso permitindo que os indivíduos controlem e reutilizem seus próprios dados, mas, igualmente importante, estamos a construir a infraestrutura que incentiva as empresas e os silos de dados a devolver esses dados aos indivíduos em primeiro lugar.
Em vez de prometer recompensas micro rápidas para pontos de dados isolados, a infraestrutura da cheqd suporta um modelo onde os usuários podem compartilhar seletivamente dados verificados e reutilizáveis, como credenciais, preferências ou consentimento, nos seus próprios termos. Isso abre o potencial para um valor a longo prazo mais significativo, seja em serviços de IA personalizados, monetização seletiva ou simplesmente melhor controle. A verdadeira mudança está em reequilibrar o poder: tornando viável para os usuários levar seus dados com eles e usá-los em diferentes sistemas de IA, sem ficarem presos em silos.
CN: Com os dados de propriedade do usuário no centro, como você está abordando a privacidade e a conformidade desde o início? Se dados pessoais estão sendo usados para treinar ou informar modelos de IA, os usuários têm controle detalhado e a capacidade de optar por não participar ou revogar dados? Ações regulatórias recentes mostram que isso é crítico – por exemplo, a autoridade de proteção de dados da Itália baniu temporariamente o ChatGPT devido à “ausência de qualquer base legal” para sua coleta em massa de dados pessoais para treinamento. Como a abordagem da SAIA diferirá na manipulação de dados do usuário para que permaneça em conformidade com as leis de privacidade (GDPR e outras) e normas éticas? FE: A conformidade e a privacidade são fundamentais para a arquitetura da SAIA. A base da SAIA é a soberania do usuário por padrão, sem a necessidade de silos de dados centrais, em contraste com os modelos típicos de IA que coletam dados em massa sem um consentimento significativo.
CN: cheqd traz identidade descentralizada ( identidade auto-soberana / SSI) e infraestrutura de verificação para a aliança. Como a SSI será incluída na estrutura de IA? Por exemplo, os Intention Anchors usarão identidades digitais para verificar a proveniência dos dados ou a reputação dos agentes de IA? E dado que a identidade descentralizada ainda é incipiente, até mesmo especialistas em identidade notam que a adoção é o maior desafio devido à complexidade adicional para usuários e organizações, como você incentivará e impulsionará o uso de SSI dentro do SAIA?
FE: “SSI desempenha um papel fundamental na arquitetura da Aliança de IA Soberana. É a camada de confiança que conecta agentes de IA, pessoas e dados. Aqui está como pretendemos superar os obstáculos à adoção e como a infraestrutura de identidade descentralizada da cheqd se encaixa no quadro.
Isto aplica-se também aos próprios agentes de IA: ao emitir credenciais verificáveis para os agentes, podemos estabelecer reputação, capacidade e autenticidade. Isto é vital para a confiança nas interações entre agentes ou entre agentes e utilizadores.
A adoção é, de fato, o maior desafio para SSI hoje. Enquanto a cheqd está na camada de infraestrutura, a DataHive está diretamente voltada para o cliente, oferecendo assim uma solução para os consumidores, que podem então trazer seus dados para dentro.