Gate News-Nachricht, 11. April: Das KI-Infrastrukturunternehmen Ramp Labs veröffentlicht Forschungsergebnisse „Latent Briefing“. Durch direktes Komprimieren des KV-Cache großer Sprachmodelle ermöglicht es einen effizienten Speicheraustausch zwischen Multi-Agenten-Systemen, ohne die Genauigkeit zu verlieren. Dabei wird der Token-Verbrauch deutlich gesenkt. In gängigen Multi-Agenten-Architekturen zerlegt der Orchestrator die Aufgaben und ruft wiederholt Worker-Modelle auf; mit zunehmender Länge der Inferenzkette wächst die Token-Menge exponentiell. Der Kernansatz von Latent Briefing besteht darin, mithilfe des Attention-Mechanismus die wirklich entscheidenden Teile im Kontext zu identifizieren und auf der Darstellungsebene redundante Informationen direkt zu verwerfen, statt sich auf langsame LLM-Zusammenfassungen oder instabile RAG-Recherchen zu verlassen. In den Benchmarks von LongBench v2 zeigt die Methode starke Ergebnisse: Der Token-Verbrauch des Worker-Modells sinkt um 65%. Bei Dokumenten mittlerer Länge (32k bis 100k) liegt die Token-Einsparung im Median bei 49%. Insgesamt steigt die Genauigkeit gegenüber der Basislinie um etwa 3 Prozentpunkte. Die zusätzliche Zeit pro Komprimierung beträgt lediglich rund 1,7 Sekunden, wodurch die Methode gegenüber dem ursprünglichen Algorithmus etwa 20-mal schneller wird. Die Experimente verwenden Claude Sonnet 4 als Orchestrator und Qwen3-14B als Worker-Modell und decken verschiedene Dokumentenszenarien ab, darunter wissenschaftliche Papers, juristische Schriftstücke, Romane und Regierungsberichte. Die Studie findet außerdem, dass der optimale Komprimierungs-Schwellenwert je nach Aufgabenschwierigkeit und Dokumentlänge variiert: Für schwierige Aufgaben eignet sich eine aggressive Komprimierung, um spekulative Schlussfolgerungs-„Noise“ herauszufiltern; für lange Dokumente ist hingegen eine eher leichte Komprimierung besser, um verstreute, Schlüsselinformationen zu erhalten.
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to
Disclaimer.
Verwandte Artikel
OpenClaw veröffentlicht v2026.4.29 am 29. April und aktualisiert den Speicher auf ein personalisiertes Wiki mit Beziehungs-Tracking
Laut Beating hat der Open-Source-KI-Assistent OpenClaw (GitHub 367K Sterne) v2026.4.29 am 29. April veröffentlicht und damit sein zweites Update innerhalb von zwei Tagen bereitgestellt. Das Speichersystem entwickelte sich von einfachem, auf Abruf basierendem Erinnern zu einer personalisierten Wiki, sodass Agenten automatisch Charakterprofile erstellen und r
GateNews6Std her
Der CEO von Google, Pichai, enthüllte, dass Gemini-KI genutzt wird, um durch das Verständnis der menschlichen Natur authentischere Kommunikation aufzubauen
Pichai sagte, dass er vor wichtigen Treffen mit Hilfe der Perspektiven von Gemini die Gedanken der anderen Seite analysiert und vorhersagt, um dadurch das Einfühlungsvermögen zu stärken und eine aufrichtigere Kommunikation zu ermöglichen. KI-Agenten können außerdem automatisch E-Mails sortieren, Termine planen und Zusammenfassungen erstellen, sodass Alltagsaufgaben effizienter werden. Darüber hinaus gewinnt ein KI-Ökosystem an Bedeutung, das auf offener Mitgestaltung basiert; Open-Source-Technologien wie Gemini 4 senken die Einstiegshürde. Gleichzeitig wird betont, dass es eines Rahmens für die KI-Governance bedarf, und dass Politik und Gesellschaft sich beteiligen müssen, um Herausforderungen wie Netzwerksicherheit, Deepfakes und Nachhaltigkeit zu bewältigen.
ChainNewsAbmedia9Std her
Oobit startet am Donnerstag visa-unterstützte KI-Agenten-Karten und ermöglicht USDT-Ausgaben ohne Fiat-Umtausch
Laut The Block hat der Tether-gestützte Wallet-Startup Oobit am Donnerstag AI Agent Cards eingeführt, die es autonomen Bots ermöglichen, Einkäufe mit USDT-Guthaben vorzunehmen, ohne in Fiat umzurechnen oder direkt auf Unternehmenskarten-Zugangsdaten zuzugreifen. Die Visa-unterstützten Karten sind online überall einsetzbar, wo Visa akzeptiert wird
GateNews9Std her
ChimpX AI bringt 2,8 Millionen US-Dollar in einer Seed-Runde ein, angeführt von Waterdrip Capital und MetaLabs Ventures
ChimpX AI hat heute den Abschluss einer Seed-Runde im Wert von 2,8 Millionen US-Dollar angekündigt, um die Entwicklung von Mojo AI zu beschleunigen, einem Ausführungsagenten, der in Klartext formulierte Absichten in On-Chain-DeFi-Transaktionen auf Solana umsetzt. Die Runde wurde von Waterdrip geleitet
GateNews11Std her
Großes CEX führt am 29. April das Agent Payments Protocol ein und ermöglicht KI-gesteuerte Cross-Chain-Transaktionen
Laut einer aktuellen Ankündigung hat eine führende Krypto-Börse am 29. April das Agent Payments Protocol vorgestellt, einen offenen Standard, der es KI-Agenten ermöglicht, vollständige Geschäftsprozesse über mehrere Blockchain-Netzwerke hinweg auszuführen, ohne menschliches Eingreifen. Das Protokoll
GateNews11Std her
Walrus bringt das MemWal SDK für die Speicherverwaltung von KI-Agenten auf den Markt
Walrus hat MemWal gestartet, ein SDK, das darauf ausgelegt ist, die Grenzen agentischer Speicher zu adressieren, indem es Verifizierbarkeit, Verfügbarkeit, Portabilität und Teilbarkeit in die Art bringt, wie KI-Agenten Informationen speichern und abrufen, so der Abinhav Garg, Group Product Manager bei Mysten Labs.
Verifizierbarer und portabler Speicher
CryptoFrontier12Std her