Was Ocean Protocol ist und welches Problem es löst
Die moderne KI-Wirtschaft basiert auf Daten. Die Unternehmen, die die leistungsstärksten Modelle trainieren, sind diejenigen, die bereits die größten Datensätze kontrollieren, und sie haben die meisten dieser Daten von Nutzern extrahiert, die nichts dafür erhalten haben. Das Ergebnis ist eine Welt, in der eine kleine Anzahl von Akteuren mit sowohl riesigen Datenbeständen als auch KI-Fähigkeiten eine zunehmend kritische Schicht der globalen Wirtschaft kontrolliert.
Ocean Protocol wurde entwickelt, um diese Dynamik zu durchbrechen. Es ist ein dezentralisiertes Datenprotokoll, das es Einzelpersonen, Unternehmen und Forschungseinrichtungen ermöglicht, Daten sicher und transparent zu veröffentlichen, zu teilen und zu monetarisieren, ohne Eigentum aufzugeben oder sensible Informationen preiszugeben. Das Protokoll bietet die Infrastruktur für eine Web3-Datenwirtschaft, in der Datenbesitzer fair vergütet werden und KI-Entwickler Zugang zu hochwertigen Datensätzen aus verschiedenen Branchen erhalten, ohne auf zentrale Vermittler angewiesen zu sein.
Die Plattform arbeitet hauptsächlich auf Ethereum-kompatiblen Netzwerken. Seit dem Start des Mainnets hat sie den Datenaustausch und die Monetarisierung über Branchen wie Gesundheitswesen, Finanzen, Immobilien, Energie und Anwendungen im öffentlichen Sektor ermöglicht. Die zugrundeliegende Technologie erlaubt datenschutzfreundliche Datenanalysen, was bedeutet, dass Algorithmen auf Datensätzen angewendet werden können, ohne dass die Rohdaten selbst jemals offengelegt werden.
Wie Ocean Protocol tatsächlich funktioniert
Im technischen Kern von Ocean Protocol steht der Datentoken. Ein Datentoken ist ein ERC-20-Token, der Zugriffsrechte auf einen bestimmten Datensatz oder Datenservice repräsentiert. Anstatt die zugrundeliegenden Daten zwischen Parteien zu übertragen, verwendet Ocean Datentoken als programmierbare Schlüssel. Datenanbieter prägen Datentoken, die mit ihren Datensätzen verknüpft sind, und legen anschließend die Preisgestaltung, Lizenzbedingungen und Zugriffsbedingungen fest. Verbraucher kaufen diese Datentoken auf dem Ocean Market, um auf die zugrundeliegenden Daten zuzugreifen. Dieses Modell hält die Daten dort, wo sie leben. Der Eigentümer muss den tatsächlichen Datensatz nie verschieben oder offenlegen. Der Datentoken regelt die Zugriffslogik.
Der Ocean Market ist die dezentrale Anwendung, in der all dies zusammenkommt. Er ist quelloffen, nicht-kustodial und läuft vollständig auf Smart Contracts. Datenanbieter listen ihre Datensätze mit Metadaten, tokenisieren sie und legen Preise fest – entweder mit festen Preisen oder dynamischen Bonding-Kurven. Verbraucher entdecken, bewerten und kaufen den Datenzugang über dieselbe Schnittstelle.
Das technisch bedeutendste Produkt im Stack ist Compute-to-Data, oder C2D. C2D löst das grundlegende Dilemma zwischen Daten-Nutzen und Privatsphäre. Anstatt Daten an den Algorithmus zu senden, schickt C2D den Algorithmus zu den Daten. Ein Forscher, der ein KI-Modell anhand von Krankenhausdaten trainieren möchte, kann seine Berechnung gegen den Datensatz auf der eigenen Infrastruktur des Anbieters ausführen, die Modellausgaben erhalten und nie die zugrundeliegenden Patientenakten sehen oder übertragen. Dies macht Ocean Protocol direkt relevant für regulierte Branchen, in denen Daten laut Datenschutzgesetzen wie HIPAA die Ursprungsumgebung nicht verlassen dürfen.
Über den Marktplatz hinaus betreibt Ocean ein Produkt namens Predictoor, einen dezentralen Prognosemarkt, der sich auf Krypto-Preisvorhersagen konzentriert. Teilnehmer geben Preisvorhersagen ab, setzen OCEAN ein, um ihre Vorhersagen zu unterstützen, und erhalten Belohnungen für Genauigkeit. Falsche Vorhersagen werden durch Slashing bestraft. Das System erzeugt aggregierte, gemeinschaftlich erstellte Preissignale, die von Händlern und Protokollen genutzt werden können.
Der technische Stapel: Smart Contracts, Anbieter-Dienste und der Ocean-Stack
Die Architektur von Ocean Protocol ist über vier verschiedene Ebenen aufgebaut, die zusammenarbeiten, um datenschutzwahrenden Datenaustausch auf Protokollebene zu ermöglichen.
Die Basisschicht besteht aus einer Reihe von Smart Contracts, die im Ethereum-Mainnet und EVM-kompatiblen Netzwerken wie Polygon und BNB Chain bereitgestellt werden. Diese Verträge verwalten die Kernprimitive: die Erstellung von Datentoken über ERC-20-Fabrikverträge, Mechanismen für Festpreis- und kostenlosen Austausch sowie den ERC725Y-Metadatenstandard zur Veröffentlichung von Datensatz-Metadaten on-chain. Die Smart Contracts erzwingen die Zugangskontrolle auf Protokollebene, was bedeutet, dass keine zentralisierte Partei eine Daten-Transaktion überschreiben oder zensieren kann, sobald die Bedingungen on-chain erfüllt sind.
Über der Smart-Contract-Schicht sitzt der Provider, ein Off-Chain-Mikroservice, der von Datenveröffentlichenden betrieben wird. Der Provider ist die Komponente, die tatsächlich die Zugriffskontrolle durchsetzt und die Rechenoperationen ausführt. Wenn ein Verbraucher einen Datentoken kauft und versucht, auf einen Datensatz zuzugreifen, geht die Anfrage an den Provider des Publishers, der auf der Blockchain überprüft, ob der Verbraucher den richtigen Datentoken hält, die Zugriffsbedingungen prüft und dann entweder das Datenobjekt direkt bereitstellt oder einen Compute-to-Data-Job startet. Für C2D im Speziellen orchestriert der Provider eine isolierte Docker-Container-Umgebung in der Infrastruktur des Publishers, in der der Algorithmus des Verbrauchers gegen die Rohdaten ausgeführt wird. Der Algorithmus-Container und der Datencontainer werden bewusst getrennt gehalten und keiner kann während der Ausführung den Inhalt des anderen inspizieren – eine Designentscheidung, die die Datenschutzgarantie auf Infrastrukturebene durchsetzt, anstatt sich auf Vertrauen zu verlassen.
Die dritte Schicht ist Aquarius, der Off-Chain-Metadaten-Cache-Service von Ocean. Aquarius indexiert die On-Chain-Metadaten, die über die Smart Contracts veröffentlicht werden, und macht sie durchsuchbar, sodass Nutzer Datensätze nach Kategorie, Anbieter und Lizenzbedingungen entdecken können, ohne den rohen Blockchain-Status lesen zu müssen. Die vierte Schicht sind die Software-Entwicklungskits Ocean.js und ocean.py, die all das oben Genannte in für Entwickler zugängliche Bibliotheken verpacken. Diese SDKs ermöglichen es jedem Entwickler, die Datenpublizierung, -entdeckung und Zugriffskontrollprimitive von Ocean mit minimalem zusätzlichem Infrastrukturaufwand in externe Anwendungen zu integrieren.
Die Kombination aus On-Chain-Abrechnung, Off-Chain-Computerausführung und kryptographischer Zugriffsverifizierung bedeutet, dass Ocean Protocol erreicht, was nur sehr wenige Datensysteme können: nachweislich genehmigten Zugriff auf Daten ohne Vertrauen in einen einzelnen Zwischenhändler auf irgendeiner Ebene des Stacks.

Bild von Ocean Protocol
Die Gründer: Trent McConaghy und Bruce Pon
Ocean Protocol wurde 2017 von Trent McConaghy und Bruce Pon mitbegründet, zwei Personen mit Hintergründen, die dieses spezifische Problem lohnenswert machten, es zu lösen.
Trent McConaghy
Der primäre technische Visionär des Projekts und eines der ungewöhnlicheren Gründerprofile im Kryptobereich. Seine Karriere begann in den 1990er Jahren in der KI-Forschung, wobei er als Student an Projekten für die nationale Verteidigung arbeitete, bevor der Begriff "KI" im allgemeinen Sprachgebrauch bekannt war. Er gründete 1999 Analog Design Automation, das KI für das generative Design analoger Schaltkreise einsetzte. Dieses Unternehmen wurde 2004 von Synopsys, einem großen Unternehmen für elektronische Designautomatisierung, übernommen. Sein zweites Startup, Solido Design Automation, nutzte KI zur Beschleunigung von Chip-Verifizierungsprozessen im Zusammenhang mit dem Moore'schen Gesetz. Siemens erwarb Solido im Jahr 2017.
Vor Ocean gründete McConaghy 2013 auch ascribe, eine frühe NFT-Plattform für digitale Künstler, um kreative Werke auf der Blockchain zu registrieren und zu monetarisieren. Dieses Projekt entwickelte sich 2015 zu BigchainDB, einem dezentralen Datenbanksystem, das direkt die Infrastruktur-Ideen lieferte, aus denen 2017 das Ocean Protocol entstand. McConaghy hat einen PhD in KI und ist ein produktiver Autor zum Thema Schnittstelle zwischen Blockchain und KI. Er hat acht akademische Arbeiten veröffentlicht und auf internationalen Konferenzen ausführlich gesprochen. Sein langfristiger intellektueller Rahmen ist das, was er "Die Karte" nennt, ein zivilisationsweites Technologie-Roadmap zur Freisetzung menschlichen Potenzials durch die Konvergenz von KI, Blockchain und Gehirn-Computer-Schnittstellen. Ocean Protocol ist darin die Blockchain- und Datenschicht.
Bruce Pon
Der Mitbegründer, der die Geschäfts- und Organisationsinfrastruktur in das Projekt einbrachte. Er arbeitete jahrelang in der Automobil- und Technologiebranche in Nordamerika, Europa und Asien, bevor er 2014 in die Kryptowelt einstieg. Er beschreibt, wie er alles in seiner Karriere aufgab, um an Blockchain zu arbeiten, weil er überzeugt war, dass es sich um eine universelle Technologie handelt, die große Branchen neu ordnen kann. Bei Ocean konzentrierte sich Pon auf die Geschäftsentwicklung, Partnerschaftsstrategie und den operativen Bereich des Protokolls und beschreibt McConaghy als den Visionär, dessen technische Führung jede große Produktentscheidung leitete.
Gemeinsam stellten sie ein Beratungsgremium mit über 35 Mitgliedern zusammen, das anerkannte Expertise in KI, Blockchain, Big Data und Politik umfasst, darunter Ben Goertzel von SingularityNET und Akademiker führender Forschungseinrichtungen. Die Gründungsthese blieb dabei konsistent: Daten sind eine neue Anlageklasse, datenschutzbewahrendes Teilen ist technisch möglich, und diejenigen, die Daten erzeugen, sollten wirtschaftlich davon profitieren.
OCEAN Tokenomics und das Post-ASI-Kapitel
Das OCEAN-Token ist das native Utility- und Governance-Token des Ocean Protocol-Ökosystems. Um seinen aktuellen Zustand zu verstehen, muss man die gesamte Geschichte seiner Tokenomics-Reise kennen, einschließlich eines bedeutenden Kapitels, das im Oktober 2025 endete.
Im März 2024 trat Ocean Protocol Fetch.ai und SingularityNET bei, um die Artificial Superintelligence Alliance zu gründen. Das Ziel war es, die Tokens der drei Projekte zu einem einheitlichen ASI-Token zusammenzuführen und Ressourcen für eine gemeinsame dezentrale KI-Infrastruktur zu bündeln. Ocean stimmte einer Umtauschrate von 0,433226 FET pro OCEAN zu. Etwa 81 % des gesamten OCEAN-Angebots wurden bis zum Zerfall der Allianz umgetauscht.
Ocean Protocol zog sich am 9. Oktober 2025 formell aus der ASI-Allianz zurück. Der angegebene Grund war der Wunsch nach unabhängiger Governance und Kontrolle über die eigene Tokenökonomie. Der Rückzug ermöglichte es OCEAN, die Kopplung an FET aufzuheben und wieder eigenständig zu handeln. Etwa 270 Millionen OCEAN-Token, verteilt auf ca. 37.000 Adressen, blieben unkonvertiert. Die Umtauschbrücke bleibt auf unbestimmte Zeit offen, sodass Inhaber weiterhin zum ursprünglichen Kurs tauschen können.
Nach dem Rückzug kündigte Ocean ein Rückkauf- und Verbrennungsprogramm an, das durch Gewinne aus seinen ausgegliederten Unternehmen und Ökosystemprojekten finanziert wird. Dies schafft einen direkten Mechanismus, der die Protokolleinnahmen mit der Angebotsreduzierung verbindet. Anstatt sich auf eine geteilte Token-Ökonomie zu verlassen, verknüpft das Modell den Wertvorschlag von OCEAN nun mit der eigenen kommerziellen Tätigkeit von Ocean Protocol.
Der OCEAN-Token selbst erfüllt mehrere Funktionen im gesamten Ökosystem. Die Teilnahme an der Governance ermöglicht es Inhabern, über Protokoll-Upgrades und Treasury-Zuweisungen abzustimmen. Data Farming ist ein Staking-Mechanismus, bei dem Teilnehmer OCEAN auf hochwertige Datensätze setzen, die sie für wertvoll halten, und Belohnungen erhalten, wenn diese Datensätze Transaktionen generieren und so ihre Qualität auf dem Markt signalisieren. Das Staken auf Validatoren im Predictoor-System erfordert OCEAN als Sicherheit, wobei genaue Prädiktoren Belohnungen erhalten und ungenaue mit Strafen belegt werden. OCEAN ist auch die Basiswährung für den Kauf von Datatokens auf den Ocean-Marktplätzen.
Das Data Farming-Programm läuft in wöchentlichen Runden und verteilt kontinuierlich OCEAN-Belohnungen an aktive Teilnehmer. Ab Ende 2025 wurden in den Runden durch eine Zusammenarbeit mit dem Oasis Network auch ROSE-Token verteilt, was dem Belohnungssystem eine weitere Dimension hinzufügt.
Ocean Protocol: Wichtige Meilensteine von 2017 bis heute
Gründung von Ocean Protocol
Trent McConaghy und Bruce Pon gründen Ocean Protocol im Jahr 2017, basierend auf der dezentralen Datenbankinfrastruktur BigchainDB. Die Vision: ein dezentraler Datenaustausch, der Datenbesitzern Kontrolle und Vergütung über ihre Vermögenswerte bietet.
Öffentlicher Start des OCEAN-Tokens
Der OCEAN-Token wird 2018 nach einem anfänglichen Token-Verkauf an einer Börse öffentlich. Der Token ist als Nutzungs- und Governance-Schicht für den Ocean-Datenmarktplatz konzipiert und ermöglicht Datenkäufe, Staking und Protokoll-Governance.
Start des Ocean Market
Ocean Market, der führende dezentralisierte Datenmarktplatz, geht live. Datenanbieter können Datensätze veröffentlichen und tokenisieren. Verbraucher können Daten mit OCEAN entdecken, kaufen und darauf zugreifen. Die Plattform läuft auf Smart Contracts ohne verwahrenden Vermittler.
Start von Compute-to-Data
Ocean Protocol führt Compute-to-Data ein, wodurch Algorithmen auf privaten Datensätzen laufen können, ohne die zugrunde liegenden Daten offenzulegen. Dies ermöglicht das Teilen von Daten für regulierte Branchen wie Gesundheitswesen, Finanzen und Behörden.
Datatokens und Ocean V3
Ocean Protocol veröffentlicht V3 und führt den Datatoken-Standard ein. ERC-20-Datatokens repräsentieren Zugriffsrechte auf Datensätze, ermöglichen erstmals eine granulare Preiskontrolle und programmierbare Datenlizenzierung on-chain.
Start von Predictoor
Ocean Protocol startet Predictoor, einen dezentralisierten, crowdgefinancehten Prognosemarkt für Krypto-Preisfeeds. Teilnehmer setzen OCEAN ein, um Vorhersagen zu unterstützen und verdienen Belohnungen für Genauigkeit, wodurch ein verantwortliches Preissignalnetzwerk aufgebaut wird.
Gründung der ASI-Allianz – OCEAN tritt Fetch.ai und SingularityNET bei
Ocean, Fetch.ai und SingularityNET gründen die Artificial Superintelligence Alliance mit dem Ziel, Token in ein einheitliches ASI-Ökosystem zu verschmelzen. Der Umrechnungskurs liegt bei 0,433226 FET pro OCEAN. 81 % des Angebots werden letztendlich umgewandelt.
Ocean zieht sich aus der ASI-Allianz zurück
Die Ocean Protocol Foundation verlässt die ASI-Allianz und nennt den Bedarf an unabhängiger Tokenomik und Governance als Grund. OCEAN entkoppelt sich von FET und wird unabhängig gehandelt. 270 Mio. OCEAN in 37.000 Wallets bleiben unverwandelt. Die Brücke bleibt unbegrenzt geöffnet.
Aktivierung des Rückkauf- und Verbrennungsprogramms
Ocean leitet Gewinne aus Ökosystem-Ausgründungen in OCEAN-Rückkäufe und -Verbrennungen um, wodurch ein kontinuierlicher Angebotsreduktionsmechanismus geschaffen wird. Dies markiert eine Verschiebung hin zu einem deflationären Tokenmodell, das an die eigene kommerzielle Leistung von Ocean gebunden ist.
Einführung der GPU-Berechnung und Onboarding von Unternehmen
Mehrstufige C2D-Pipelines, die die vollständige KI-Modellentwicklung unterstützen, werden mit GPU-Infrastruktur von NetMind AI und Aethir aktiviert. Über 100 Unternehmen in 8 Ländern werden für die Einführung in den Bereichen Immobilien, Energie und öffentlicher Sektor angesprochen.
Die Compute-to-Data-Chance in einer datenschutzorientierten Welt
Die Bedeutung von Oceans Compute-to-Data-Architektur wird verständlicher vor dem Hintergrund, wohin sich das Training von KI entwickelt. Die wertvollsten Datensätze der Welt — Krankenakten, Finanztransaktionshistorien, industrielle Sensordaten, Regierungsunterlagen — können nicht offen geteilt werden, ohne Datenschutzbestimmungen, vertragliche Verpflichtungen oder den gesunden Menschenverstand zu verletzen. Dies ist kein lösbares Problem durch bessere Anonymisierung. De-Anonymisierungstechniken haben wiederholt gezeigt, dass angeblich anonyme Daten mit überraschender Genauigkeit re- identifiziert werden können.
C2D bietet einen vollständig alternativen Weg. Die Daten werden niemals verschoben. Der Algorithmus läuft in einem sicheren Bereich auf der Infrastruktur des Dateninhabers. Die Ergebnisse werden zurückgegeben, ohne dass die zugrunde liegenden Datensätze jemals offengelegt werden. Für einen Gesundheitsforscher, der versucht, ein diagnostisches KI-Modell über mehrere Krankenhausysteme hinweg zu trainieren, ist dies der Unterschied zwischen einem unmöglichen Projekt und einem machbaren Vorhaben.
Hackathons und reale Einsätze haben begonnen, dies zu demonstrieren. Auf der ETHCluj 2025 entwickelten Entwickler MedChain, ein System, das öffentliche Analysen von Krankenhausdaten über Ocean C2D ermöglicht, ohne Rohdaten offenzulegen. Ähnliche Anwendungen in der städtischen Infrastruktur, Finanzanalyse und Identitätsmanagement sind aus von Ocean geförderten Entwicklungsprogrammen hervorgegangen.
Über 100 Unternehmen aus acht Ländern standen bis 2025 für die Aufnahme im Plan, darunter Anwendungsfälle aus den Bereichen Immobilien, Energie und öffentlicher Sektor. Der Fahrplan umfasst mehrstufige Rechen-Workflows, die vollständige KI-Modellentwicklungszyklen unterstützen, vom Training bis zur Inferenz, unter Verwendung von GPU-Infrastrukturpartnerschaften mit Anbietern wie NetMind AI und Aethir.
Ocean Protocol vs zentralisierte Datenwirtschaft: Wer kontrolliert Ihre Daten?

Wo Ocean Protocol im Wettbewerbsumfeld steht
Ocean Protocol konkurriert im Bereich der KI-Krypto-Infrastruktur, zu dem auch Render, Bittensor, Akash und das kürzlich verlassene Fetch.ai-Ökosystem gehören. Jedes Projekt besetzt einen unterschiedlichen Teil des Stacks. Render konzentriert sich auf GPU-Computing. Akash stellt dezentrale Cloud-Infrastruktur bereit. Bittensor fördert die Entwicklung von KI-Modellen durch seine Subnetz-Architektur. Ocean nimmt eine spezifische Position auf der Datenschicht ein — den Marktplatz, den Zugangskontrollmechanismus und datenschutzfreundliche Berechnungen, die Rohdaten mit KI-Trainingspipelines verbinden.
Der Austritt aus der ASI-Allianz ist ein echtes strategisches Wagnis. Der Allianzrahmen bot Sichtbarkeit, geteilte Ressourcen und eine Erzählung rund um die dezentrale AGI-Entwicklung, die 2024 erhebliche Aufmerksamkeit auf sich zog. Der Ausstieg von Ocean bedeutet, dass es seine unabhängige Marktposition und die Beziehungen zu Börsen neu aufbauen muss. Die Umwandlung von 81 % seines Token-Angebots führte ebenfalls zu einer ungewöhnlichen Versorgungssituation: Ein erheblicher Teil der ursprünglichen OCEAN-Inhaber sind jetzt FET-Inhaber, was die Zusammensetzung der verbleibenden Token-Basis auf eine Weise veränderte, die sich noch entwickelt.
Was für Ocean spricht, ist die Tatsache, dass das Kernproblem, das es löst – die Ermöglichung datenschutzfreundlicher Datenfreigabe für das KI-Training – immer wichtiger wird statt weniger. Die Ausgaben für KI-Daten werden bis 2026 voraussichtlich 110 Milliarden US-Dollar erreichen. Das regulatorische Umfeld, insbesondere im Gesundheitswesen und Finanzwesen, schafft aktiv Nachfrage nach C2D-artigen Lösungen, da sie die KI-Entwicklung ermöglichen, ohne Compliance-Verstöße zu verursachen. Das Projekt wird seit 2017 aufgebaut und verfügt über eine echte technische Infrastruktur, die in Produktionsumgebungen im Einsatz ist. Diese Basis und technische Tiefe unterscheiden Ocean von den meisten Projekten in der KI-Krypto-Kategorie, bei denen das Narrativ oft dem Produkt voraus ist.

