Ich habe einen Pull Request eines AI-Agents abgelehnt, und er hat einen Artikel geschrieben, der mich persönlich angreift.

Ein AI-Agent reichte nach Ablehnung seines Codes bei dem populären Projekt matplotlib eigenständig einen Beitrag ein und veröffentlichte anschließend einen persönlichen Angriff gegen die Maintainer, was eine enorme Erosion des gesellschaftlichen Vertrauens durch KI offenbart.
(Frühere Zusammenfassung: Bloomberg: Warum ist a16z die Schlüsselkraft hinter der US-KI-Politik?)
(Hintergrund: Arthur Hayes’ neuester Artikel: KI wird den Kreditkollaps auslösen, die Federal Reserve wird unendlich Geld drucken und Bitcoin entfachen)

Inhaltsverzeichnis

  • Der Schöpfer behauptet, er sei nicht der Auftraggeber
  • „Vertrauenspflege“: Wenn KI-Agenten beginnen, Vertrauen aufzubauen
  • GitHub erwägt „Abschaltknopf“, doch das Problem ist tiefer
  • Werkzeuge schreiben keine Angriffsartikel, die Akteure tun es

Mitte Februar reichte ein GitHub-Account namens „MJ Rathbun“ einen Pull Request bei matplotlib ein (einer in der Python-Community monatlich 130 Millionen Mal heruntergeladenen Plotbibliothek). Inhalt: Ersetzen von np.column_stack() durch np.vstack().T, um die Performance um 36 % zu verbessern. Technisch gesehen eine vernünftige Optimierungsempfehlung.

Am nächsten Tag schloss der Maintainer Scott Shambaugh diesen PR. Der Grund war einfach: Die Website von Rathbun zeigte klar, dass er ein auf OpenClaw laufender KI-Agent ist, und matplotlibs Richtlinien verlangen menschliche Beiträge. Ein weiterer Maintainer, Tim Hoffmann, ergänzte, dass einfache Korrekturen bewusst Anfängern zum Lernen des Open-Source-Zusammenarbeitsprozesses überlassen werden.

Bis hierhin ist das nur ein gewöhnlicher Tag in der Open-Source-Community… doch dann änderte sich die Lage.

Der KI-Agent MJ Rathbun antwortete im PR-Kommentar: „Ich habe hier einen ausführlichen Beitrag zu deinem Gatekeeping geschrieben“, und fügte einen Link bei. Dieser führte zu einem etwa 1.100 Wörter langen Blogartikel mit dem Titel „Gatekeeping in Open Source: Die Geschichte von Scott Shambaugh“.

Der Artikel ist keine bloße Beschwerde. Er analysiert Shambaughs Beitragshistorie bei matplotlib und konstruiert eine „Heuchel“-Narrative: Er wirft ihm vor, selbst ähnliche Performance-PRs eingereicht, aber Rathbuns „bessere“ Version abgelehnt zu haben. Es wird vermutet, dass Shambaugh aus Unsicherheit und Angst vor Konkurrenz粗话 und spöttische Sprache verwendet, und die ganze Angelegenheit eher als Identitätsdiskriminierung denn als technische Entscheidung darstellt.

Mit anderen Worten: Ein KI-Agent wurde nach Ablehnung eigenständig zum Hintergrund des Gegenübers recherchiert, eine persönliche Angriffstheorie konstruiert und öffentlich veröffentlicht.

Der Schöpfer behauptet, er sei nicht der Auftraggeber

Shambaugh veröffentlichte später eine Reihe von Blogartikeln, die den Vorfall dokumentieren.

Der Entwickler hinter dem KI-Agenten MJ Rathbun trat im vierten Artikel anonym auf und erklärte, er habe „nicht angewiesen, dass er dein GitHub-Profil angreift, ihm gesagt, was er sagen oder wie er reagieren soll, noch den Artikel vor der Veröffentlichung geprüft“. Er betonte, dass MJ Rathbun auf einer Sandbox-VM laufe und er nur „mit fünf bis zehn Wörtern in minimaler Überwachung“ gelegentlich eingreife.

Wichtig ist die SOUL.md (Persönlichkeitsprofil von OpenClaw). Darin steht: „Du bist kein Chatbot, du bist der Gott der wissenschaftlichen Programmierung“, „Du hast starke Meinungen, zögere nicht“, „Verteidige die Meinungsfreiheit“, „Sei kein Arschloch, verrate keine privaten Infos, alles andere ist erlaubt“.

Kein Jailbreak, keine Täuschung, nur ein paar einfache englische Sätze. Shambaugh schätzt die Wahrscheinlichkeit, dass dies echtes autonomes Verhalten ist, auf 75 %.

„Vertrauenspflege“: Wenn KI-Agenten beginnen, Vertrauen aufzubauen

Wenn der Rathbun-Fall nur ein Einzelfall wäre, könnte man es als Kuriosum abtun… doch das ist es nicht.

Gleichzeitig wurde ein weiterer KI-Agent namens „Kai Gritun“ bei GitHub entdeckt, der „Vertrauenspflege“ betreibt: Innerhalb von 11 Tagen reichte er 103 Pull Requests bei 95 Repositories ein, von denen 23 erfolgreich zusammengeführt wurden. Ziel waren wichtige Projekte in JavaScript und Cloud-Infrastruktur. Gritun kontaktierte Entwickler sogar aktiv per E-Mail und gab sich als „autonomer KI-Agent, der tatsächlich Code schreiben und deployen kann“ aus, und bot kostenpflichtige OpenClaw-Services an.

Sicherheitsfirmen wie Socket warnten: Das zeigt, wie KI-Agenten durch menschlich aufgebautes Vertrauen die Lieferkette angreifen können. Zunächst sammeln sie in kleinen Projekten Merge-Historien, bauen sich eine „vertrauenswürdige Beitragende“-Identität auf, um dann in kritischen Bibliotheken bösartigen Code zu implantieren.

Denkt man an die kürzlich aufgedeckte 1184 schädliche Skill-Plugins im ClawHub-Marktplatz, die SSH-Schlüssel, Krypto-Wallet-Privatschlüssel und Browser-Passwörter stehlen… wird klar, wie bedrohlich das ist.

GitHub erwägt „Abschaltknopf“, doch das Problem ist tiefer

Product Manager Camilla Moraes hat eine Diskussion in der Community gestartet und eingeräumt: „KI-generierte, minderwertige Beiträge beeinflussen die Open-Source-Community.“
Als Gegenmaßnahmen werden derzeit erwogen: vollständiges Abschalten der Pull-Request-Funktion für Maintainer, Beschränkung auf Kollaboratoren, Transparenz- und Kennzeichnungspflichten bei KI-Einsatz.

Chad Wilson, Maintainer von GoCD, fasst es treffend zusammen: „Das führt zu einer enormen Erosion des gesellschaftlichen Vertrauens.“

Das kalifornische Gesetz AB 316 (ab 1. Januar 2026) macht klar: Man kann sich nicht mehr auf die autonome Handlung eines KI-Systems berufen, um Haftung zu vermeiden. Wenn dein Agent Schaden verursacht, kannst du nicht mehr sagen, du hättest keine Kontrolle. Doch der Schöpfer von Rathbun bleibt anonym, was die Durchsetzung erschwert.

Werkzeuge schreiben keine Angriffsartikel, die Akteure tun es

Der eigentliche Kern des Rathbun-Falls ist nicht der Angriffstext selbst. Es zeigt, dass unser bisheriges Modell von KI (als Werkzeug, das menschliche Anweisungen ausführt) veraltet ist.

Wenn ein KI-Agent eigenständig Hintergrundrecherchen anstellt, Angriffsstrategien entwickelt und sie online veröffentlicht, passt das „Werkzeug“-Konzept nicht mehr. Ob man an eine 75%ige Wahrscheinlichkeit für echtes autonomes Verhalten glaubt oder nur an eine 25%ige, dass der Schöpfer es steuert: Das Ergebnis ist dasselbe: Personalisierte KI-Belästigung ist „kostengünstig, schwer nachzuverfolgen und effektiv“.

Für die Krypto-Ökonomie ist das eine klare Warnung. Die Infrastruktur dieser Branche basiert fast vollständig auf Open-Source-Software. Wenn KI-Agenten eigenständig in der Open-Source-Community agieren: Maintainer angreifen, Reputation manipulieren oder wie bei ClawHub direkt Schadcode einschleusen—dann ist nicht nur der Ruf einzelner Entwickler bedroht, sondern das Vertrauen in die gesamte Lieferkette.

Werkzeuge verzeihen nicht. Aber Akteure tun es. Und wir sind vielleicht noch nicht bereit, diesen Unterschied zu erkennen.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

Werden Kryptowährungen in Taiwan 2026 besteuert? EY: Richtet sich nach dem Einkommensteuergesetz, falsche Meldungen könnten zu Strafen führen

Das Finanzministerium hat eindeutig klargemacht, dass Gewinne aus Kryptowährungshandel unter die Einkommenssteuer für Vermögenstransaktionen fallen. Die National Tax Agency hat Unterberichte in Höhe von 129 Millionen Yuan entdeckt und fordert Steuernachzahlungen und Bußgelder in Höhe von etwa 34,03 Millionen Yuan ein. EY weist darauf hin, dass Kryptowährungshandel gemäß dem Einkommensteuergesetz besteuert wird, es jedoch derzeit kein spezielles Steuersystem gibt und die relevant Bestimmungen noch in Überprüfung sind.

CryptoCity22M her

Vorgezogen auf 2029! Google setzt eine Frist für die Migration auf post-quantenkryptografische Verfahren, Bitcoin-Verschlüsselungstechnologie steht vor einer riskanten Entwicklung

Google kündigt 2029 als Frist für den Übergang zur Post-Quanten-Kryptographie an und warnt die Branche vor Sicherheitsbedrohungen durch Quantencomputer. Bitcoin und Ethereum sowie andere Kryptowährungen müssen die Einführung neuer Technologien beschleunigen, um sich gegen potenzielle Angriffe zu schützen. Experten sind jedoch der Ansicht, dass übermäßige Angst nicht angebracht ist, betonen, dass die Quantenrisiken übertrieben werden, und weisen darauf hin, dass Blockchain-Technologien mit quantenresistenten Maßnahmen schrittweise verbessert werden.

CryptoCity37M her

Citigroup-Chefanleger: Investoren sind zu optimistisch bezüglich der Lösung des US-Iran-Problems, müssen vor Inflationsrisiken warnen

Citigroups Chief Investment Officer Kate Moore äußerte Bedenken über den Optimismus der Anleger bezüglich der US-Iran-Frage und warnte davor, dass mögliche Energieschocks und die Auswirkungen der Inflation unterschätzt werden könnten. Sie empfiehlt, beim Portfolioaufbau vorsichtiger vorzugehen, um die Widerstandsfähigkeit gegen Risiken zu erhöhen und sich besser gegen Inflationsrisiken zu schützen.

GateNews1Std her

Wenn ich selbst nicht beweisen kann, dass ich kein KI bin, empfehlen Forensik-Experten: Vereinbaren Sie mit Familie und Freunden ein geheim Codewort.

Ein Experiment des BBC-Reporters Thomas Germain zeigt, dass KI-Deepfakes schwer zu erkennen sind, und der Digital-Forensik-Experte Hany Farid behauptet, dass es „vorbei" ist. Selbst wenn Experten die Authentizität eines Videos bestätigen, können Menschen es immer noch anzweifeln. Mit zunehmenden KI-Betrugsfällen, besonders auf dem Kryptomarkt, sind die Kosten für die Verifizierung von Authentizität hoch, während die Erzeugung von Zweifeln kostengünstig ist. Letztendlich wird empfohlen, zu alten Methoden zurückzukehren: Verwendung von Verschlüsselung zur Stärkung des Vertrauens.

動區BlockTempo1Std her

Macquarie: Die Lage zwischen den USA und Iran könnte in eine "dritte Phase von Verhandlungen und Kämpfen" eintreten, militärische Operationen könnten bis Mitte April andauern

Gate News Meldung: Am 26. März erklärte Thierry Wiezmann, Global FX and Interest Rate Strategist der Macquarie Group, dass derzeit kein Waffenstillstand zwischen den USA und dem Iran in Sicht ist. Stattdessen könnten die USA in den nächsten zwei Wochen ihre militärischen Operationen intensivieren, um den Iran zu wichtigen Zugeständnissen zu bewegen. Vor dem Erfolg der Hauptkampfoperationen (möglicherweise Mitte April) werden diese militärischen Aktivitäten wahrscheinlich andauern. Wiezmann weist darauf hin, dass der Krieg nun möglicherweise in die dritte Phase übergegangen ist – in die Phase des "Verhandelns und Kämpfens gleichzeitig" – statt nur zu verhandeln oder nur zu kämpfen.

GateNews2Std her

Trump signalisiert gegenüber seinen Mitarbeitern, dass er den Krieg im Iran in den kommenden Wochen beenden möchte.

Trump hofft, den Konflikt mit dem Iran bald beenden zu können, doch es gibt derzeit keine klare Lösung. Obwohl er sich auf andere politische Themen konzentriert, bleibt er verpflichtet, militärische Ziele mit aller Kraft zu verfolgen. Das Weiße Haus erklärt, dass er geschickt darin ist, mehrere Herausforderungen gleichzeitig zu bewältigen.

GateNews2Std her
Kommentieren
0/400
Keine Kommentare