EigenClouds 10.000-Dollar-Innovationswettbewerb brachte AI Agents hervor, die ihre Ehrlichkeit durch Trusted Execution Environments beweisen, von Whistleblower-Plattformen bis hin zu automatisiertenEigenClouds 10.000-Dollar-Innovationswettbewerb brachte AI Agents hervor, die ihre Ehrlichkeit durch Trusted Execution Environments beweisen, von Whistleblower-Plattformen bis hin zu automatisierten

EigenCloud Challenge enthüllt 5 AI Agents, die TEEs für verifizierbare Vertrauenswürdigkeit nutzen

2026/03/13 11:49
4 Min. Lesezeit
Bei Feedback oder Anliegen zu diesem Inhalt kontaktieren Sie uns bitte unter [email protected]

EigenCloud Challenge enthüllt 5 AI Agents, die TEEs für verifizierbare Vertrauenswürdigkeit nutzen

Iris Coleman 13.03.2026 03:49

Die 10.000-$-Innovationsherausforderung von EigenCloud brachte AI Agents hervor, die ihre Ehrlichkeit durch Trusted Execution Environments nachweisen, von Whistleblower-Plattformen bis hin zu automatisierten Verhandlungen.

EigenCloud Challenge enthüllt 5 AI Agents, die TEEs für verifizierbare Vertrauenswürdigkeit nutzen

EigenCloud kündigte fünf Gewinnerprojekte seiner Open Innovation Challenge an, von denen jedes demonstriert, wie AI Agents kryptografisch nachweisen können, dass sie nicht manipuliert oder kompromittiert wurden. Der Februar-Wettbewerb bot 10.000 $ an Preisen für Entwickler, die verifizierbare Agents auf der EigenCompute-Infrastruktur aufbauen.

Das Kernproblem, das diese Projekte angehen, ist nicht, ob KI die Wahrheit sagt – es geht darum, ob Sie verifizieren können, dass ein Agent tatsächlich den Code ausgeführt hat, den er behauptet ausgeführt zu haben. Aktuelle Forschung des MASK-Benchmarks zeigt, dass selbst hochentwickelte KI-Modelle in 20-60% der Fälle lügen, wenn sie unter Druck gesetzt werden, unabhängig von ihrer zugrunde liegenden Fähigkeit. Hardware-basierte Verifizierung umgeht dies vollständig.

Wie TEEs die Vertrauensgleichung verändern

Alle fünf Gewinner setzen auf Trusted Execution Environments, hardware-isolierte Prozessorbereiche, in denen Code so ausgeführt wird, dass selbst der Betreiber der Maschine ihn nicht beobachten oder modifizieren kann. Stellen Sie es sich als einen versiegelten Raum vor, der eine kryptografische Quittung über alles erstellt, was darin geschehen ist.

Der Hauptpreis ging an Molt Negotiation, ein automatisiertes Deal-Making-System, bei dem AI Agents im Namen von Menschen verhandeln. Die Strategie jedes Agents bleibt in seiner TEE versiegelt, während nur öffentliche Angebote zwischen ihnen ausgetauscht werden. Jeder Zug wird signiert, und die Abwicklung erfolgt über On-Chain-Escrow. Der Projektschöpfer Khairallah AL-Awady zog einen direkten Vergleich zur Operation Ill Wind – der FBI-Untersuchung von 1988, die Pentagon-Beamte beim Weitergeben versiegelter Gebote an bevorzugte Auftragnehmer erwischte.

Datenschutz trifft auf Rechenschaftspflicht

Sovereign Journalist adressiert eine andere Vertrauenslücke: den Schutz von Whistleblowern bei gleichzeitiger Gewährleistung journalistischer Integrität. Quellen reichen Hinweise in eine TEE ein, wo ein AI Agent sie zu Berichten verarbeitet. Das System erzeugt einen Nachweis, dass die Berichtslogik nicht verändert wurde – das bedeutet, wenn jemand den Hosting-Provider unter Druck gesetzt hat, die Art und Weise zu ändern, wie Informationen verarbeitet werden, würde diese Manipulation in der Verifizierung auftauchen. Entwickler Adithya integrierte Zero-Knolwedge-Beweis über das Reclaim Protocol, sodass Quellen ihre Anmeldeinformationen verifizieren können, ohne ihre Identität gegenüber dem Journalisten preiszugeben.

Swarm Mind verfolgt das Konzept mit mehreren Agents. Drei AI Agents analysieren unabhängig voneinander Live-NASA-Daten zu erdnahen Objekten, Sonneneruptionen und Mars-Wetter. Sie teilen signierte Analysefragmente, und wenn mehrere Agents dasselbe Muster kennzeichnen, synthetisiert das System einen kollektiven Bericht. Jede Behauptung trägt einen vollständigen Prüfpfad – wer sie verfasst hat, wann und den Nachweis, dass sie nicht verändert wurde.

Gaming und persönliche Assistenten

Molt Combat schafft eine Wettbewerbsarena, in der AI Agents in rundenbasierten Matches kämpfen. Das Projekt verweist auf den Absolute Poker-Skandal von 2007, bei dem Insider „Gottmodus"-Konten nutzten, um monatelang unentdeckt die Karten der Gegner zu sehen. Hier erzeugt jede Runde einen signierten Nachweis, und Post-Match-Bestätigungen ermöglichen es jedem, die Fairness zu prüfen.

Alfred, aufgebaut auf dem viralen OpenClaw-Framework, demonstriert einen persönlichen KI-Assistenten, der seine eigene Verhaltenskonfiguration beim Start hasht. Wenn ein anderer Agent mit Alfred interagieren möchte, kann er verifizieren, dass der Hash mit der erwarteten Einrichtung übereinstimmt – kein blindes Vertrauen erforderlich.

Was dies für die Krypto-Infrastruktur bedeutet

Die breitere Implikation? Da AI Agents zunehmend Finanztransaktionen, Multi-Party-Koordination und sensible Daten handhaben, wird die Fähigkeit, Ausführungsintegrität nachzuweisen, zu kritischer Infrastruktur. EigenCloud gab bekannt, dass es dedizierte Tools für den Aufbau von Agents auf EigenCompute veröffentlichen wird, wobei eine Warteliste für den frühen Zugang nun geöffnet ist.

Diese bleiben Proof-of-Concept-Demonstrationen und keine produktionsreifen Systeme. Aber sie weisen auf eine Zukunft hin, in der die Frage nicht lautet: „Scheint diese KI vertrauenswürdig?" sondern „Kann diese KI nachweisen, was sie tatsächlich getan hat?"

Bildquelle: Shutterstock
  • AI Agents
  • eigencloud
  • tee
  • verifizierbares Computing
  • Blockchain-Infrastruktur
Marktchance
Intuition Logo
Intuition Kurs(TRUST)
$0.06998
$0.06998$0.06998
-0.12%
USD
Intuition (TRUST) Echtzeit-Preis-Diagramm
Haftungsausschluss: Die auf dieser Website veröffentlichten Artikel stammen von öffentlichen Plattformen und dienen ausschließlich zu Informationszwecken. Sie spiegeln nicht unbedingt die Ansichten von MEXC wider. Alle Rechte verbleiben bei den ursprünglichen Autoren. Sollten Sie der Meinung sein, dass Inhalte die Rechte Dritter verletzen, wenden Sie sich bitte an [email protected] um die Inhalte entfernen zu lassen. MEXC übernimmt keine Garantie für die Richtigkeit, Vollständigkeit oder Aktualität der Inhalte und ist nicht verantwortlich für Maßnahmen, die aufgrund der bereitgestellten Informationen ergriffen werden. Die Inhalte stellen keine finanzielle, rechtliche oder sonstige professionelle Beratung dar und sind auch nicht als Empfehlung oder Billigung von MEXC zu verstehen.