Die KI-Münze umdrehen

Einsteiger5/6/2024, 12:41:32 PM
Der Artikel untersucht das Potenzial und die Herausforderungen der Kombination von KI mit Web3. Der Autor weist darauf hin, dass trotz der optimistischen Stimmung gegenüber "KI + Web3" in der Realität erhebliche Hardware- und Forschungsinvestitionsbarrieren bestehen, die dazu führen, dass große Technologieunternehmen das KI-Feld dominieren. Web3-Projekte nutzen incentiviertes Crowdsourcing durch Verschlüsselung, was es schwierig macht, mit den beträchtlichen Investitionen dieser Unternehmen zu konkurrieren.

TLDR

Dies ist keine weitere rosige VC-Beschreibung von „AI + Web3“. Wir sind optimistisch, beide Technologien zu fusionieren, aber der folgende Text ist ein Aufruf zum Handeln. Andernfalls wird der Optimismus nicht gerechtfertigt sein.

Warum? Weil die Entwicklung und der Betrieb der besten KI-Modelle erhebliche Kapitalausgaben für die neueste und oft schwer zu beschaffende Hardware sowie sehr domänenspezifische F&E erfordern. Das Hinzufügen von Kryptoanreizen zur Crowd-Beschaffung dieser, wie es die meisten Web3-KI-Projekte tun, reicht nicht aus, um den Milliarden von Dollar entgegenzuwirken, die von großen Unternehmen investiert werden, die die KI-Entwicklung fest im Griff haben. Angesichts der Hardwarebeschränkungen könnte dies das erste große Software-Paradigma sein, das kluge und kreative Ingenieure außerhalb etablierter Organisationen nicht haben Ressourcen, um zu stören.

Software frisst die Welt immer schneller auf und wird bald mit der Beschleunigung der KI exponentiell durchstarten. Und all dieser "Kuchen", so wie die Dinge derzeit stehen, geht an die Technik-Giganten - während Endbenutzer, einschließlich Regierungen und Großunternehmen, geschweige denn Verbraucher, noch abhängiger von ihrer Macht werden.

Fehlausrichtung der Anreize

All das hätte nicht zu einem ungeeigneteren Zeitpunkt geschehen können - denn 90% der dezentralen Web-Teilnehmer sind damit beschäftigt, der goldenen Gans leichter Fiat-Gewinne aus der von Narrative getriebenen Entwicklung hinterherzulaufen. Ja, die Entwickler folgen den Investoren in unserer Branche und nicht umgekehrt. Es reicht von offener Zulassung bis zu subtilerer, unterbewusster Motivation, aber die Narrative und die sich um sie bildenden Märkte bestimmen viele Entscheidungen in Web3. Die Teilnehmer sind zu sehr in einer klassischen reflektierenden Blase gefangen, um die Welt außerhalb zu bemerken, außer für Narrative, die diesen Zyklus weiter vorantreiben. Und KI ist offensichtlich die größte, da sie auch einen Boom ihres eigenen durchläuft.

Wir haben mit Dutzenden von Teams an der Schnittstelle zwischen AI und Crypto gesprochen und können bestätigen, dass viele von ihnen sehr fähige, missionsorientierte und leidenschaftliche Entwickler sind. Aber es liegt in der Natur des Menschen, dass wir, wenn wir mit Versuchungen konfrontiert werden, dazu neigen, ihnen zu erliegen und diese Entscheidungen dann im Nachhinein zu rationalisieren.

Der einfache Weg zur Liquidität war ein historischer Fluch der Kryptoindustrie - verantwortlich für die Verlangsamung ihrer Entwicklung und nützlichen Adaption um Jahre. Es lenkt sogar die treuesten Kryptoanhänger in Richtung „Token-Pumping“. Die Rationalisierung ist, dass die Entwickler mit mehr Kapital in Form von Token bessere Chancen haben könnten.

Vergleichsweise geringe Raffinesse sowohl des institutionellen als auch des Einzelhandelskapitals schafft Möglichkeiten für Bauherren, Ansprüche zu erheben, die sich von der Realität abkoppeln, während sie dennoch von Bewertungen profitieren, als ob diese Ansprüche bereits realisiert wären. Das Ergebnis dieser Prozesse ist tatsächlich eine verfestigte moralische Gefahr und Kapitalzerstörung, wobei nur sehr wenige solcher Strategien langfristig erfolgreich sind. Notwendigkeit ist die Mutter aller Erfindungen, und wenn sie verschwunden ist, sind auch die Erfindungen verschwunden.

Es hätte nicht zu einem schlechteren Zeitpunkt passieren können. Während alle klügsten Tech-Unternehmer, staatlichen Akteure und Unternehmen, groß und klein, darum kämpfen, ihren Anteil an den Vorteilen der KI-Revolution sicherzustellen, entscheiden sich Krypto-Gründer und -Investoren für ein "schnelles 10-faches". Anstatt eines Lebens langen 1000-fachen, was hier aus unserer Sicht die eigentliche Opportunitätskosten sind.

eine grobe Zusammenfassung der Web3 KI-Landschaft

Angesichts der oben genannten Anreize reduziert sich die Web3-KI-Projekt-Taxonomie tatsächlich auf:

  • Legitim (auch unterteilt in Realisten und Idealisten)
  • Halb legitim und
  • Fälscher

Grundsätzlich sind wir der Ansicht, dass Bauherren genau wissen, was erforderlich ist, um mit ihrer Web2-Konkurrenz und den Bereichen, in denen es tatsächlich möglich ist, zu konkurrieren, Schritt zu halten, und in denen es mehr ein Wunschtraum ist, der dennoch für Risikokapitalgeber und unerfahrene Öffentlichkeit umsetzbar ist.

Das Ziel ist es, hier und jetzt wettbewerbsfähig zu sein. Andernfalls könnte die Geschwindigkeit der KI-Entwicklung dazu führen, dass Web3 zurückbleibt, während die Welt zu dem dystopischen Web4 von Corporate AI im Westen gegenüber dem Staats-KI in China springt. Diejenigen, die nicht bald genug wettbewerbsfähig sein können und sich darauf verlassen, dass verteilte Technologien über einen längeren Zeitraum aufholen, sind zu optimistisch, um ernst genommen zu werden.

Offensichtlich handelt es sich hierbei um eine sehr grobe Verallgemeinerung, und selbst die Gate-Gruppe enthält mindestens ein paar ernsthafte Teams (und vielleicht mehr von nur illusionären Träumern). Aber dieser Text ist ein Aufruf zum Handeln, daher beabsichtigen wir nicht, objektiv zu sein, sondern den Leser zum Handeln zu bewegen.[1].

Legitim:

  • Middleware für das „Bringen von KI auf die Chain“. Die Gründer hinter solchen Lösungen, von denen es nicht viele gibt, verstehen, dass ein dezentrales Training oder Inferenz von Modellen, die die Nutzer tatsächlich wollen (das Neueste), im Moment unpraktikabel oder unmöglich ist. Daher ist es für sie ein guter erster Schritt, einen Weg zu finden, um die besten zentralisierten Modelle mit der On-Chain-Umgebung zu verbinden, um von einer anspruchsvollen Automatisierung zu profitieren. Hardware-Schutzräume von TEEs("air-gapped" Prozessoren), die API-Zugriffspunkte, 2-seitige Oracles (zur bidirektionalen Indexierung von On- und Off-Chain-Daten) hosten können und verifizierbare Off-Chain-Berechnungsumgebungen für die Agenten bereitstellen, scheinen im Moment die beste Lösung zu sein. Es gibt auch Co-Prozessor-Architekturen, die Zero-Knowledge-Proofs (ZKPs) für das Snapshotting von Zustandsänderungen verwenden (anstatt die vollständige Berechnung zu überprüfen), was wir auch im mittleren Zeitraum für machbar halten.
    Der eher idealistische Ansatz zum selben Problem versucht, die Off-Chain-Schlussfolgerung zu überprüfen, um sie in Bezug auf Vertrauensannahmen mit der On-Chain-Berechnung gleichzusetzen. Das Ziel sollte sein, KI zu ermöglichen, Aufgaben in einem einzigen kohärenten Laufzeitumgebung sowohl On- als auch Off-Chain durchzuführen, unserer Meinung nach. Die meisten Befürworter der Schlussfolgerungsüberprüfung sprechen jedoch von „Vertrauen in die Modellgewichte“ und anderen haarigen Zielen derselben Art, die tatsächlich in Jahren, wenn überhaupt, relevant werden. Kürzlich begannen Gründer in diesem Lager, alternative Ansätzeum die Verifizierbarkeit zu inferieren, aber ursprünglich war alles auf ZKP basiert. Während viele kluge Teams an ZKML arbeiten, wie es bekannt wurde, gehen sie ein zu großes Risiko ein, indem sie davon ausgehen, dass Krypto-Optimierungen die Komplexität und die Rechenanforderungen von KI-Modellen überholen. Wir halten sie daher für nicht wettbewerbsfähig, zumindest im Moment. Doch @ModulusLabs/Kapitel-14-Der-Welt-1.-On-Chain-LLM-7e389189f85e">Einige jüngste Fortschritte sind interessant und sollten nicht ignoriert werden.

Halb legitim:

  • Verbraucher-Apps, die Wrapper um Close- und Open-Source-Modelle verwenden (z.B. Stable Diffusion oder Midjourney für die Bildgenerierung). Einige dieser Teams sind die ersten auf dem Markt und haben tatsächlich Benutzerbindung. Es ist also nicht fair, sie pauschal als falsch zu bezeichnen, aber nur eine Handvoll von ihnen denkt tiefgreifend darüber nach, wie sie ihre zugrunde liegenden Modelle dezentralisiert weiterentwickeln und sich bei der Anreizgestaltung innovativ betätigen können. Es gibt einige interessante Governance-/Eigentumsansätze bei den Token-Komponenten hier und da. Die Mehrheit der Projekte in dieser Kategorie platziert jedoch einfach einen Token auf einem ansonsten zentralisierten Wrapper, z.B. der OpenAI-API, um eine Bewertungsprämie oder eine schnellere Liquidität für das Team zu erhalten.

Was keines der beiden oben genannten Lager betrifft, ist das Training und die Inferenz für große Modelle in dezentralen Umgebungen. Derzeit gibt es keine Möglichkeit, ein grundlegendes Modell in angemessener Zeit zu trainieren, ohne auf eng verbundene Hardware-Cluster angewiesen zu sein. "Angemessene Zeit" angesichts des Wettbewerbsniveaus ist der Schlüsselfaktor.

Einige vielversprechende Forschungzum Thema ist kürzlich erschienen und theoretisch Ansätze wie Differentielle Datenflusskann in Zukunft auf verteilte Rechennetzwerke erweitert werden, um ihre Kapazität zu steigern (da die Netzwerkfähigkeiten mit den Anforderungen an Datenströme Schritt halten). Der Wettbewerb bei der Modellschulung erfordert jedoch nach wie vor Kommunikation zwischen lokalen Clustern anstelle einzelner verteilter Geräte und hochmoderne Rechenleistung (Einzelhandels-GPUs werden zunehmend unrentabel).

Die Forschung zur Lokalisierung (eine der beiden Möglichkeiten der Dezentralisierung) von Inferenz durch Verkleinerung der Modellgröße wurde ebenfalls durchgeführt kürzlich fortschreitend, aber es gibt keine bestehenden Protokolle in Web3, die es nutzen.

Die Problematik mit dezentralem Training und Inferenz bringt uns logischerweise zum letzten der drei Lager und damit zum mit Abstand wichtigsten und daher für uns emotional triggernd ;-)

Fälscher:

  • Infrastrukturanwendungen befinden sich hauptsächlich im dezentralen Serverbereich und bieten entweder Hardware in Rohform oder auch dezentrale Modelltrainings-/Hosting-Umgebungen an. Es gibt auch Software-Infrastrukturprojekte, die Protokolle für z. B. föderiertes Lernen (dezentrales Modelltraining) vorantreiben oder die sowohl die Software- als auch Hardwarekomponenten in einer einzigen Plattform kombinieren, auf der man im Grunde genommen sein dezentrales Modell von Anfang bis Ende trainieren und bereitstellen kann. Die Mehrheit von ihnen fehlt die erforderliche Raffinesse, um tatsächlich die genannten Probleme anzugehen, und das naive Denken von „Tokenanreiz + Marktrückenwind“ herrscht hier vor. Keine der Lösungen, die wir sowohl auf den öffentlichen als auch privaten Märkten gesehen haben, kommt hier und jetzt in die Nähe eines bedeutsamen Wettbewerbs. Einige können sich zu funktionierenden (aber spezialisierten) Angeboten entwickeln, aber wir benötigen etwas Frisches und Wettbewerbsfähiges hier und jetzt. Und das kann nur durch innovatives Design geschehen, das Engpässe bei verteilten Berechnungen angeht. Im Training ist nicht nur die Geschwindigkeit, sondern auch die Überprüfbarkeit der geleisteten Arbeit und die Koordination der Trainingslast ein großes Problem, was zu Engpässen bei der Bandbreite führt.

Wir benötigen einen Satz wettbewerbsfähiger und wirklich dezentraler Grundmodelle, die dezentrales Training und Inferenz erfordern, um zu funktionieren. Der Verlust von KI könnte alle Errungenschaften "dezentralisierter Weltcomputer" seit dem Aufkommen von Ethereum vollständig zunichte machen. Wenn Computer zu KI werden und KI zentralisiert ist, wird es keinen Weltcomputer mehr geben, von dem man sprechen kann, außer einer dystopischen Version davon.

Training und Inferenz sind das Herz der KI-Innovation. Während der Rest der KI-Welt sich auf immer enger verknüpfte Architekturen zubewegt, benötigt Web3 eine orthogonal Lösung, um zu konkurrieren, da ein direktes Konkurrieren zunehmend weniger machbar ist.

Größe des Problems

Es geht alles um Berechnung. Je mehr Sie sowohl beim Training als auch bei der Inferenz einsetzen, desto besser sind Ihre Ergebnisse. Ja, es gibt hier und da Feinheiten und Optimierungen und die Berechnung selbst ist nicht homogen - es gibt jetzt eine Vielzahl neuer Ansätze, um die Engpässe der traditionellen Von-Neumann-Architektur für Verarbeitungseinheiten zu überwinden - aber letztendlich kommt es darauf an, wie viele Matrixmultiplikationen Sie über wie große Speicherblöcke und wie schnell durchführen können.

Deshalb erleben wir einen so starken Ausbau im Bereich der Rechenzentren durch die sogenannten "Hyperscaler", die alle versuchen, einen vollständigen Stapel mit einem KI-Modell-Kraftwerk an der Spitze und der darunter liegenden Hardware zu schaffen: OpenAI (Modelle)+Microsoft (Berechnung), Anthropic (Modelle)+AWS (Berechnung), Google (beides) und Meta (zunehmend beides durch verstärkte Investitionen in den eigenen Rechenzentren). Es gibt mehr Feinheiten, Wechselwirkungen und beteiligte Parteien, aber wir werden darauf verzichten. Das große Bild ist, dass die Hyperscaler Milliarden von Dollar in den Ausbau der Rechenzentren investieren und Synergien zwischen ihren Berechnungs- und KI-Angeboten schaffen, die voraussichtlich massiv sein werden, wenn KI sich in der globalen Wirtschaft verbreitet.

Lassen Sie uns einfach auf das erwartete Ausbauniveau allein in diesem Jahr von den 4 Unternehmen schauen:

  • Meta anticipates$30-37bnInvestitionen in Sachanlagen im Jahr 2024, die wahrscheinlich stark auf Rechenzentren ausgerichtet sein werden.
  • Microsoft verbrachte rund 11,5 Mrd. US-Dollar im Jahr 2023auf CapEx und es wird weitläufig gemunkelt, dass sie weitere $40-50 Mrd. in '24-'25 investieren! Dies lässt sich teilweise durch die enormen Investitionen in Rechenzentren ableiten, die nur in wenigen Ländern angekündigt werden.3,2 Mrd $in UK, 3,5 Mrd $in Australien, $2.1bnin Spanien, €3.2bnin Deutschland, $1bnim US-Bundesstaat Georgia und $10bnin Wisconsin, bzw. Nur einige der regionalen Investitionen ihres Netzwerks von 300 Rechenzentren in über 60 Regionen. Es gibt auch Gespräche eines Supercomputers für OpenAI, der Microsoft weitere 100 Milliarden Dollar kosten könnte!
  • Amazon-Führungerwartetihr CapEx wird 2024 deutlich wachsen, ausgehend von den 48 Mrd. USD, die sie 2023 ausgegeben haben, hauptsächlich getrieben durch die Erweiterung des AWS-Infrastruktur-Aufbaus für KI.
  • Googeln 11 Milliarden US-Dollar ausgegebenseine Server und Rechenzentren allein im vierten Quartal 2023 zu erweitern. Sie geben zu, dass diese Investitionen getätigt wurden, um die erwartete KI-Nachfrage zu decken, und erwarten, dass sich die Rate und die Gesamtgröße ihrer Infrastrukturausgaben im Jahr 2024 aufgrund der KI deutlich erhöhen werden.

Und so viel wurde bereits 2023 für NVIDIA KI-Hardware ausgegeben:

Jensen Huang, CEO von NVIDIA, hat vorgeschlagen, insgesamt 1 Billion US-Dollar in die KI-Beschleunigung in den nächsten Jahren zu investieren. Eine Vorhersage, die er kürzlich verdoppeltauf 2 Billionen Dollar, angeblich ausgelöst durch das Interesse, das er von den souveränen Akteuren beobachtet hat. Analysten von Altimeter erwarten, dass im Jahr 24 und 25 weltweit jeweils 160 Milliarden Dollar und über 200 Milliarden Dollar in KI-bezogenen Rechenzentren ausgegeben werden.

Nun, um diese Zahlen mit dem zu vergleichen, was Web3 unabhängigen Rechenzentrumsbetreibern bietet, um sie zu incentivieren, CapEx für die neueste KI-Hardware zu erweitern:

  • Die Gesamtmarktkapitalisierung aller Projekte für dezentrale physische Infrastruktur (DePIn) liegt derzeit bei rund 40 Mrd. USD in relativ illiquiden und überwiegend spekulativen Token. Im Wesentlichen entsprechen die Marktkapitalisierungen dieser Netzwerke der Obergrenze der Gesamtkapitalausgaben ihrer Beitragenden, da sie diesen Ausbau mit den Tokens anreizen. Dennoch ist die derzeitige Marktkapitalisierung fast nutzlos, da sie bereits ausgegeben wurde.
  • Also gehen wir davon aus, dass in den nächsten 3-5 Jahren weitere 80 Mrd. US-Dollar (das Doppelte des bestehenden Werts) an privaten und öffentlichen DePIn-Token-Kapitalisierungen auf den Markt kommen und davon ausgehen, dass dies zu 100% für KI-Anwendungsfälle verwendet wird.

Auch wenn wir diese sehr grobe Schätzung durch 3 (Jahre) teilen und den Dollarwert damit vergleichen, den nur die Hyperscaler allein im Jahr 2024 ausgegeben haben, wird klar, dass die Zuweisung von Token-Anreizen zu einer Reihe von „dezentralisierten GPU-Netzwerk“-Projekten nicht ausreicht.

Es bedarf auch Milliarden von Dollar an Investorennachfrage, um diese Tokens aufzusaugen, da die Betreiber solcher Netzwerke einen großen Teil der geschürften Münzen verkaufen, um die erheblichen Kosten für Cap- und OpEX zu decken. Und noch einige Milliarden mehr, um diese Tokens zu pushen und das Wachstum beim Ausbau voranzutreiben, um Hyperscaler zu übertreffen.

Dennoch könnte jemand, der über intime Kenntnisse darüber verfügt, wie die meisten Web3-Server derzeit betrieben werden, erwarten, dass ein großer Teil der „Dezentralen physischen Infrastruktur“ tatsächlich auf den Cloud-Services dieser gleichen Hyperscaler läuft. Und natürlich treibt der Anstieg der Nachfrage nach GPU und anderer auf KI spezialisierter Hardware das Angebot weiter voran, was Cloud-Mieten oder -Kauf letztendlich viel günstiger machen sollte. Zumindest ist das die Erwartung.

Aber bedenken Sie auch: Im Moment muss NVIDIA Kunden für seine GPUs der neuesten Generation priorisieren. Es ist auch wichtig, beginnen zu konkurrierenmit den größten Cloud-Anbietern auf deren eigenem Terrain - bietet KI-Plattformdienste für Unternehmenskunden an, die bereits an diese Hyperscaler gebunden sind. Dies incentiviert sie letztendlich entweder, im Laufe der Zeit ihre eigenen Rechenzentren auszubauen (was im Wesentlichen in die fetten Gewinnmargen eindringt, die sie derzeit genießen, daher weniger wahrscheinlich) oder ihre KI-Hardwareverkäufe signifikant auf ihr Partnerschaftsnetzwerk von Cloud-Anbietern zu beschränken.

Auch Konkurrenten von NVIDIA, die zusätzliche auf KI spezialisierte Hardware auf den Markt bringen, verwenden größtenteils die gleichen Chips wie NVIDIA, hergestellt von TSMC.Also im Grunde genommen sind derzeit alle KI-Hardwareunternehmenum die Kapazität von TSMC zu konkurrieren.Auch TSMC muss bestimmte Kunden gegenüber anderen priorisieren. Samsung und möglicherweise Intel (das bald wieder in die hochmoderne Chipfertigung für seine eigene Hardware einsteigen will) können möglicherweise zusätzliche Nachfrage absorbieren, aber TSMC produziert derzeit die Mehrheit der KI-bezogenen Chips und das Skalieren und Kalibrieren der hochmodernen Chipfertigung (3 und 2 Nanometer) dauert Jahre.

Darüber hinaus wird die gesamte hochmoderne Chip-Fertigung derzeit in der Nähe der Taiwanstraße von TSMC in Taiwan und Samsung in Südkorea durchgeführt, wo ein Risiko eines militärischen Konflikts entstehen kann, bevor die derzeit in den USA gebauten Anlagen zur Kompensation (und auch nicht erwartet, die nächsten Generationen von Chips für einige Jahre zu produzieren) gestartet werden können.

Und schließlich konkurriert China, das im Wesentlichen durch die von den USA auferlegten Beschränkungen für NVIDIA und TSMC vom neuesten AI-Hardware-Generation abgeschnitten ist, um die verbleibende Rechenleistung, genauso wie die Web3 DePin-Netzwerke. Im Gegensatz zu Web3 haben chinesische Unternehmen tatsächlich ihre eigenen Wettbewerbsmodelle, insbesondere die LLMs von z.B. Baidu und Alibaba, die eine Menge der Geräte der vorherigen Generation benötigen, um zu laufen.

Es besteht also ein nicht unwesentliches Risiko, dass aufgrund einer der oben genannten Gründe oder einer Konvergenz von Faktoren Hyperscaler einfach den Zugang zu ihrer KI-Hardware für externe Parteien einschränken, da der Krieg um die KI-Herrschaft intensiver wird und Vorrang vor dem Cloud-Geschäft hat. Im Grunde genommen handelt es sich um ein Szenario, in dem sie die gesamte KI-bezogene Cloud-Kapazität für ihre eigene Nutzung beanspruchen und sie nicht mehr anderen anbieten, während sie auch die gesamte neueste Hardware absorbieren. Dies geschieht und das verbleibende Rechenangebot wird von anderen großen Akteuren, einschließlich souveräner Staaten, noch stärker nachgefragt. Während die für Verbraucher geeigneten GPUs draußen zunehmend unkonkurrenzfähiger werden.

Offensichtlich handelt es sich hier um ein extremes Szenario, aber der Preis ist für die großen Player zu hoch, um im Falle von Hardware-Engpässen nachzugeben. Dies führt dazu, dass dezentrale Betreiber wie Tier-2-Rechenzentren und Besitzer von Hardware im Einzelhandel, die die Mehrheit der Web3 DePIN-Anbieter ausmachen, im Wettbewerb außen vor bleiben.

Die andere Seite der Medaille

Während die Krypto-Gründer schlafen, behalten die KI-Schwergewichte die Krypto-Welt genau im Auge.Regierungsdruckund der Wettbewerb könnte sie dazu bringen, Krypto zu übernehmen, um zu vermeiden, dass sie geschlossen oder stark reguliert werden.

Stabilität AI Gründer vor kurzemzurücktretenUm sein Unternehmen „dezentralisieren“ zu starten, ist dies einer der ersten öffentlichen Hinweise darauf. Zuvor hatte er in öffentlichen Auftritten keine Geheimnisse aus seinen Plänen gemacht, einen Token zu starten, jedoch erst nach dem erfolgreichen Abschluss des Börsengangs des Unternehmens - was irgendwie die wahren Motive hinter dem erwarteten Schritt verrät.

In ähnlicher Weise, während Sam Altman nicht operativ in das Kryptoprojekt involviert ist, das er mitbegründet hat, Worldcoin, handelt sein Token sicherlich wie ein Proxy für OpenAI. Ob es ein Pfad zur Verbindungdas kostenlose Internetgeldprojekt mit dem KI-Forschungs- und Entwicklungsprojekt. Die Zeit wird zeigen, aber das Worldcoin-Team scheint auchanerkennen dass der Markt diese Hypothese testet.

Es macht für uns viel Sinn, dass KI-Giganten möglicherweise verschiedene Wege zur Dezentralisierung erkunden. Das Problem, das wir hier wieder sehen, ist, dass Web3 keine sinnvollen Lösungen hervorgebracht hat. "Governance-Tokens" sind größtenteils ein Meme, während nur diejenigen, die explizit direkte Verbindungen zwischen Vermögensinhabern und der Entwicklung und Betrieb ihres Netzwerks vermeiden - $BTC und $ETH - im Moment wirklich dezentralisiert sind.

Die gleichen Anreize, die die technologische Entwicklung verlangsamen, beeinflussen auch die Entwicklung verschiedener Designs zur Steuerung von Krypto-Netzwerken. Startup-Teams setzen einfach einen „Governance-Token“ oben auf ihr Produkt in der Hoffnung, es herauszufinden, während sie Schwung sammeln, nur um schließlich im „Governance-Theater“ rund um die Ressourcenallokation zu versinken.

Schlussfolgerung

Der Wettlauf um KI ist im Gange und alle nehmen ihn sehr ernst. Wir können keinen Fehler im Denken der großen Tech-Unternehmen identifizieren, wenn es darum geht, ihre Rechenleistung in beispiellosem Maße zu skalieren - mehr Rechenleistung bedeutet bessere KI, bessere KI bedeutet Kostenreduzierung, zusätzliche Einnahmen und Marktanteilserweiterung. Das bedeutet für uns, dass die Blase gerechtfertigt ist, aber alle Fälscher werden dennoch in unvermeidlichen Erschütterungen aussortiert werden.

Zentralisierte große Unternehmens-KI dominiert das Feld, und legitime Startups haben Schwierigkeiten, Schritt zu halten. Der Web3-Bereich ist spät dran, aber beteiligt sich auch am Rennen. Der Markt belohnt Krypto-KI-Projekte im Vergleich zu den Web2-Startups im Raum auch zu reichlich, was die Interessen der Gründer von der Produktbereitstellung auf das Pumpen des Tokens in einer kritischen Phase ablenkt, in der das Zeitfenster, um aufzuholen, schnell schließt. Bisher gab es hier keine orthogonale Innovation, die es umgeht, die Berechnung auf massive Skala zu erweitern, um zu konkurrieren.

Es gibt jetzt eine glaubwürdige Open-Source-Bewegung um Consumer-Facing-Modelle herum, die ursprünglich von einigen zentralisierten Akteuren vorangetrieben wurde, die sich entschieden haben, mit größeren Closed-Source-Rivalen um Marktanteile zu konkurrieren (z. B. Meta, Stability AI). Aber jetzt holt die Community auf und setzt die führenden KI-Unternehmen unter Druck. Diese Drücke werden die Closed-Source-Entwicklung von KI-Produkten weiterhin beeinflussen, aber erst, wenn Open Source auf der Aufholseite ist, auf eine bedeutsame Weise. Dies ist eine weitere große Chance für den Web3-Bereich, aber nur, wenn er dezentrales Modelltraining und Schlussfolgerungen löst.

Also, während auf den ersten Blick „klassische“ Eröffnungen für Störer vorhanden sind, könnte die Realität nicht weiter davon entfernt sein, sie zu bevorzugen. KI ist hauptsächlich an die Berechnung gebunden, und es gibt nichts, was daran geändert werden kann, es sei denn, es gibt eine bahnbrechende Innovation in den nächsten 3-5 Jahren, was eine entscheidende Phase für die Bestimmung ist, wer die KI-Entwicklung kontrolliert und lenkt.

Der Markt selbst kann, obwohl die Nachfrage die Bemühungen auf der Angebotsseite steigert, aufgrund struktureller Faktoren wie der Chipfertigung und den Skaleneffekten den Wettbewerb zwischen den Herstellern nicht wirklich 'hundert Blumen blühen lassen'.

Wir bleiben optimistisch hinsichtlich menschlicher Einfallsreichtum und sind sicher, dass es genug kluge und edle Menschen gibt, die versuchen werden, das KI-Problem auf eine Weise zu lösen, die die freie Welt gegenüber der top-down Unternehmens- oder Regierungskontrolle bevorzugt. Aber die Chancen stehen sehr schlecht und es ist bestenfalls eine Münzwurfentscheidung, aber die Web3-Gründer sind zu beschäftigt damit, die Münze für finanzielle statt realweltliche Auswirkungen zu werfen.

Wenn Sie etwas Cooles bauen, um die Chancen von Web3 zu erhöhen und nicht nur auf der Hype-Welle reiten, kontaktieren Sie uns.

Haftungsausschluss:

  1. Dieser Artikel wurde von [ wieder abgedrucktgagra.vc], Alle Urheberrechte gehören dem Originalautor [gagra.vc]. Wenn es Einwände gegen diesen Nachdruck gibt, wenden Sie sich bitte an die Gate LearnTeam und sie werden es schnell bearbeiten.
  2. Haftungsausschluss: Die Ansichten und Meinungen, die in diesem Artikel geäußert werden, stammen ausschließlich vom Autor und stellen keine Anlageberatung dar.
  3. Übersetzungen des Artikels in andere Sprachen werden vom Gate Learn-Team durchgeführt. Sofern nicht anders angegeben, ist das Kopieren, Verbreiten oder Plagiieren der übersetzten Artikel verboten.

Die KI-Münze umdrehen

Einsteiger5/6/2024, 12:41:32 PM
Der Artikel untersucht das Potenzial und die Herausforderungen der Kombination von KI mit Web3. Der Autor weist darauf hin, dass trotz der optimistischen Stimmung gegenüber "KI + Web3" in der Realität erhebliche Hardware- und Forschungsinvestitionsbarrieren bestehen, die dazu führen, dass große Technologieunternehmen das KI-Feld dominieren. Web3-Projekte nutzen incentiviertes Crowdsourcing durch Verschlüsselung, was es schwierig macht, mit den beträchtlichen Investitionen dieser Unternehmen zu konkurrieren.

TLDR

Dies ist keine weitere rosige VC-Beschreibung von „AI + Web3“. Wir sind optimistisch, beide Technologien zu fusionieren, aber der folgende Text ist ein Aufruf zum Handeln. Andernfalls wird der Optimismus nicht gerechtfertigt sein.

Warum? Weil die Entwicklung und der Betrieb der besten KI-Modelle erhebliche Kapitalausgaben für die neueste und oft schwer zu beschaffende Hardware sowie sehr domänenspezifische F&E erfordern. Das Hinzufügen von Kryptoanreizen zur Crowd-Beschaffung dieser, wie es die meisten Web3-KI-Projekte tun, reicht nicht aus, um den Milliarden von Dollar entgegenzuwirken, die von großen Unternehmen investiert werden, die die KI-Entwicklung fest im Griff haben. Angesichts der Hardwarebeschränkungen könnte dies das erste große Software-Paradigma sein, das kluge und kreative Ingenieure außerhalb etablierter Organisationen nicht haben Ressourcen, um zu stören.

Software frisst die Welt immer schneller auf und wird bald mit der Beschleunigung der KI exponentiell durchstarten. Und all dieser "Kuchen", so wie die Dinge derzeit stehen, geht an die Technik-Giganten - während Endbenutzer, einschließlich Regierungen und Großunternehmen, geschweige denn Verbraucher, noch abhängiger von ihrer Macht werden.

Fehlausrichtung der Anreize

All das hätte nicht zu einem ungeeigneteren Zeitpunkt geschehen können - denn 90% der dezentralen Web-Teilnehmer sind damit beschäftigt, der goldenen Gans leichter Fiat-Gewinne aus der von Narrative getriebenen Entwicklung hinterherzulaufen. Ja, die Entwickler folgen den Investoren in unserer Branche und nicht umgekehrt. Es reicht von offener Zulassung bis zu subtilerer, unterbewusster Motivation, aber die Narrative und die sich um sie bildenden Märkte bestimmen viele Entscheidungen in Web3. Die Teilnehmer sind zu sehr in einer klassischen reflektierenden Blase gefangen, um die Welt außerhalb zu bemerken, außer für Narrative, die diesen Zyklus weiter vorantreiben. Und KI ist offensichtlich die größte, da sie auch einen Boom ihres eigenen durchläuft.

Wir haben mit Dutzenden von Teams an der Schnittstelle zwischen AI und Crypto gesprochen und können bestätigen, dass viele von ihnen sehr fähige, missionsorientierte und leidenschaftliche Entwickler sind. Aber es liegt in der Natur des Menschen, dass wir, wenn wir mit Versuchungen konfrontiert werden, dazu neigen, ihnen zu erliegen und diese Entscheidungen dann im Nachhinein zu rationalisieren.

Der einfache Weg zur Liquidität war ein historischer Fluch der Kryptoindustrie - verantwortlich für die Verlangsamung ihrer Entwicklung und nützlichen Adaption um Jahre. Es lenkt sogar die treuesten Kryptoanhänger in Richtung „Token-Pumping“. Die Rationalisierung ist, dass die Entwickler mit mehr Kapital in Form von Token bessere Chancen haben könnten.

Vergleichsweise geringe Raffinesse sowohl des institutionellen als auch des Einzelhandelskapitals schafft Möglichkeiten für Bauherren, Ansprüche zu erheben, die sich von der Realität abkoppeln, während sie dennoch von Bewertungen profitieren, als ob diese Ansprüche bereits realisiert wären. Das Ergebnis dieser Prozesse ist tatsächlich eine verfestigte moralische Gefahr und Kapitalzerstörung, wobei nur sehr wenige solcher Strategien langfristig erfolgreich sind. Notwendigkeit ist die Mutter aller Erfindungen, und wenn sie verschwunden ist, sind auch die Erfindungen verschwunden.

Es hätte nicht zu einem schlechteren Zeitpunkt passieren können. Während alle klügsten Tech-Unternehmer, staatlichen Akteure und Unternehmen, groß und klein, darum kämpfen, ihren Anteil an den Vorteilen der KI-Revolution sicherzustellen, entscheiden sich Krypto-Gründer und -Investoren für ein "schnelles 10-faches". Anstatt eines Lebens langen 1000-fachen, was hier aus unserer Sicht die eigentliche Opportunitätskosten sind.

eine grobe Zusammenfassung der Web3 KI-Landschaft

Angesichts der oben genannten Anreize reduziert sich die Web3-KI-Projekt-Taxonomie tatsächlich auf:

  • Legitim (auch unterteilt in Realisten und Idealisten)
  • Halb legitim und
  • Fälscher

Grundsätzlich sind wir der Ansicht, dass Bauherren genau wissen, was erforderlich ist, um mit ihrer Web2-Konkurrenz und den Bereichen, in denen es tatsächlich möglich ist, zu konkurrieren, Schritt zu halten, und in denen es mehr ein Wunschtraum ist, der dennoch für Risikokapitalgeber und unerfahrene Öffentlichkeit umsetzbar ist.

Das Ziel ist es, hier und jetzt wettbewerbsfähig zu sein. Andernfalls könnte die Geschwindigkeit der KI-Entwicklung dazu führen, dass Web3 zurückbleibt, während die Welt zu dem dystopischen Web4 von Corporate AI im Westen gegenüber dem Staats-KI in China springt. Diejenigen, die nicht bald genug wettbewerbsfähig sein können und sich darauf verlassen, dass verteilte Technologien über einen längeren Zeitraum aufholen, sind zu optimistisch, um ernst genommen zu werden.

Offensichtlich handelt es sich hierbei um eine sehr grobe Verallgemeinerung, und selbst die Gate-Gruppe enthält mindestens ein paar ernsthafte Teams (und vielleicht mehr von nur illusionären Träumern). Aber dieser Text ist ein Aufruf zum Handeln, daher beabsichtigen wir nicht, objektiv zu sein, sondern den Leser zum Handeln zu bewegen.[1].

Legitim:

  • Middleware für das „Bringen von KI auf die Chain“. Die Gründer hinter solchen Lösungen, von denen es nicht viele gibt, verstehen, dass ein dezentrales Training oder Inferenz von Modellen, die die Nutzer tatsächlich wollen (das Neueste), im Moment unpraktikabel oder unmöglich ist. Daher ist es für sie ein guter erster Schritt, einen Weg zu finden, um die besten zentralisierten Modelle mit der On-Chain-Umgebung zu verbinden, um von einer anspruchsvollen Automatisierung zu profitieren. Hardware-Schutzräume von TEEs("air-gapped" Prozessoren), die API-Zugriffspunkte, 2-seitige Oracles (zur bidirektionalen Indexierung von On- und Off-Chain-Daten) hosten können und verifizierbare Off-Chain-Berechnungsumgebungen für die Agenten bereitstellen, scheinen im Moment die beste Lösung zu sein. Es gibt auch Co-Prozessor-Architekturen, die Zero-Knowledge-Proofs (ZKPs) für das Snapshotting von Zustandsänderungen verwenden (anstatt die vollständige Berechnung zu überprüfen), was wir auch im mittleren Zeitraum für machbar halten.
    Der eher idealistische Ansatz zum selben Problem versucht, die Off-Chain-Schlussfolgerung zu überprüfen, um sie in Bezug auf Vertrauensannahmen mit der On-Chain-Berechnung gleichzusetzen. Das Ziel sollte sein, KI zu ermöglichen, Aufgaben in einem einzigen kohärenten Laufzeitumgebung sowohl On- als auch Off-Chain durchzuführen, unserer Meinung nach. Die meisten Befürworter der Schlussfolgerungsüberprüfung sprechen jedoch von „Vertrauen in die Modellgewichte“ und anderen haarigen Zielen derselben Art, die tatsächlich in Jahren, wenn überhaupt, relevant werden. Kürzlich begannen Gründer in diesem Lager, alternative Ansätzeum die Verifizierbarkeit zu inferieren, aber ursprünglich war alles auf ZKP basiert. Während viele kluge Teams an ZKML arbeiten, wie es bekannt wurde, gehen sie ein zu großes Risiko ein, indem sie davon ausgehen, dass Krypto-Optimierungen die Komplexität und die Rechenanforderungen von KI-Modellen überholen. Wir halten sie daher für nicht wettbewerbsfähig, zumindest im Moment. Doch @ModulusLabs/Kapitel-14-Der-Welt-1.-On-Chain-LLM-7e389189f85e">Einige jüngste Fortschritte sind interessant und sollten nicht ignoriert werden.

Halb legitim:

  • Verbraucher-Apps, die Wrapper um Close- und Open-Source-Modelle verwenden (z.B. Stable Diffusion oder Midjourney für die Bildgenerierung). Einige dieser Teams sind die ersten auf dem Markt und haben tatsächlich Benutzerbindung. Es ist also nicht fair, sie pauschal als falsch zu bezeichnen, aber nur eine Handvoll von ihnen denkt tiefgreifend darüber nach, wie sie ihre zugrunde liegenden Modelle dezentralisiert weiterentwickeln und sich bei der Anreizgestaltung innovativ betätigen können. Es gibt einige interessante Governance-/Eigentumsansätze bei den Token-Komponenten hier und da. Die Mehrheit der Projekte in dieser Kategorie platziert jedoch einfach einen Token auf einem ansonsten zentralisierten Wrapper, z.B. der OpenAI-API, um eine Bewertungsprämie oder eine schnellere Liquidität für das Team zu erhalten.

Was keines der beiden oben genannten Lager betrifft, ist das Training und die Inferenz für große Modelle in dezentralen Umgebungen. Derzeit gibt es keine Möglichkeit, ein grundlegendes Modell in angemessener Zeit zu trainieren, ohne auf eng verbundene Hardware-Cluster angewiesen zu sein. "Angemessene Zeit" angesichts des Wettbewerbsniveaus ist der Schlüsselfaktor.

Einige vielversprechende Forschungzum Thema ist kürzlich erschienen und theoretisch Ansätze wie Differentielle Datenflusskann in Zukunft auf verteilte Rechennetzwerke erweitert werden, um ihre Kapazität zu steigern (da die Netzwerkfähigkeiten mit den Anforderungen an Datenströme Schritt halten). Der Wettbewerb bei der Modellschulung erfordert jedoch nach wie vor Kommunikation zwischen lokalen Clustern anstelle einzelner verteilter Geräte und hochmoderne Rechenleistung (Einzelhandels-GPUs werden zunehmend unrentabel).

Die Forschung zur Lokalisierung (eine der beiden Möglichkeiten der Dezentralisierung) von Inferenz durch Verkleinerung der Modellgröße wurde ebenfalls durchgeführt kürzlich fortschreitend, aber es gibt keine bestehenden Protokolle in Web3, die es nutzen.

Die Problematik mit dezentralem Training und Inferenz bringt uns logischerweise zum letzten der drei Lager und damit zum mit Abstand wichtigsten und daher für uns emotional triggernd ;-)

Fälscher:

  • Infrastrukturanwendungen befinden sich hauptsächlich im dezentralen Serverbereich und bieten entweder Hardware in Rohform oder auch dezentrale Modelltrainings-/Hosting-Umgebungen an. Es gibt auch Software-Infrastrukturprojekte, die Protokolle für z. B. föderiertes Lernen (dezentrales Modelltraining) vorantreiben oder die sowohl die Software- als auch Hardwarekomponenten in einer einzigen Plattform kombinieren, auf der man im Grunde genommen sein dezentrales Modell von Anfang bis Ende trainieren und bereitstellen kann. Die Mehrheit von ihnen fehlt die erforderliche Raffinesse, um tatsächlich die genannten Probleme anzugehen, und das naive Denken von „Tokenanreiz + Marktrückenwind“ herrscht hier vor. Keine der Lösungen, die wir sowohl auf den öffentlichen als auch privaten Märkten gesehen haben, kommt hier und jetzt in die Nähe eines bedeutsamen Wettbewerbs. Einige können sich zu funktionierenden (aber spezialisierten) Angeboten entwickeln, aber wir benötigen etwas Frisches und Wettbewerbsfähiges hier und jetzt. Und das kann nur durch innovatives Design geschehen, das Engpässe bei verteilten Berechnungen angeht. Im Training ist nicht nur die Geschwindigkeit, sondern auch die Überprüfbarkeit der geleisteten Arbeit und die Koordination der Trainingslast ein großes Problem, was zu Engpässen bei der Bandbreite führt.

Wir benötigen einen Satz wettbewerbsfähiger und wirklich dezentraler Grundmodelle, die dezentrales Training und Inferenz erfordern, um zu funktionieren. Der Verlust von KI könnte alle Errungenschaften "dezentralisierter Weltcomputer" seit dem Aufkommen von Ethereum vollständig zunichte machen. Wenn Computer zu KI werden und KI zentralisiert ist, wird es keinen Weltcomputer mehr geben, von dem man sprechen kann, außer einer dystopischen Version davon.

Training und Inferenz sind das Herz der KI-Innovation. Während der Rest der KI-Welt sich auf immer enger verknüpfte Architekturen zubewegt, benötigt Web3 eine orthogonal Lösung, um zu konkurrieren, da ein direktes Konkurrieren zunehmend weniger machbar ist.

Größe des Problems

Es geht alles um Berechnung. Je mehr Sie sowohl beim Training als auch bei der Inferenz einsetzen, desto besser sind Ihre Ergebnisse. Ja, es gibt hier und da Feinheiten und Optimierungen und die Berechnung selbst ist nicht homogen - es gibt jetzt eine Vielzahl neuer Ansätze, um die Engpässe der traditionellen Von-Neumann-Architektur für Verarbeitungseinheiten zu überwinden - aber letztendlich kommt es darauf an, wie viele Matrixmultiplikationen Sie über wie große Speicherblöcke und wie schnell durchführen können.

Deshalb erleben wir einen so starken Ausbau im Bereich der Rechenzentren durch die sogenannten "Hyperscaler", die alle versuchen, einen vollständigen Stapel mit einem KI-Modell-Kraftwerk an der Spitze und der darunter liegenden Hardware zu schaffen: OpenAI (Modelle)+Microsoft (Berechnung), Anthropic (Modelle)+AWS (Berechnung), Google (beides) und Meta (zunehmend beides durch verstärkte Investitionen in den eigenen Rechenzentren). Es gibt mehr Feinheiten, Wechselwirkungen und beteiligte Parteien, aber wir werden darauf verzichten. Das große Bild ist, dass die Hyperscaler Milliarden von Dollar in den Ausbau der Rechenzentren investieren und Synergien zwischen ihren Berechnungs- und KI-Angeboten schaffen, die voraussichtlich massiv sein werden, wenn KI sich in der globalen Wirtschaft verbreitet.

Lassen Sie uns einfach auf das erwartete Ausbauniveau allein in diesem Jahr von den 4 Unternehmen schauen:

  • Meta anticipates$30-37bnInvestitionen in Sachanlagen im Jahr 2024, die wahrscheinlich stark auf Rechenzentren ausgerichtet sein werden.
  • Microsoft verbrachte rund 11,5 Mrd. US-Dollar im Jahr 2023auf CapEx und es wird weitläufig gemunkelt, dass sie weitere $40-50 Mrd. in '24-'25 investieren! Dies lässt sich teilweise durch die enormen Investitionen in Rechenzentren ableiten, die nur in wenigen Ländern angekündigt werden.3,2 Mrd $in UK, 3,5 Mrd $in Australien, $2.1bnin Spanien, €3.2bnin Deutschland, $1bnim US-Bundesstaat Georgia und $10bnin Wisconsin, bzw. Nur einige der regionalen Investitionen ihres Netzwerks von 300 Rechenzentren in über 60 Regionen. Es gibt auch Gespräche eines Supercomputers für OpenAI, der Microsoft weitere 100 Milliarden Dollar kosten könnte!
  • Amazon-Führungerwartetihr CapEx wird 2024 deutlich wachsen, ausgehend von den 48 Mrd. USD, die sie 2023 ausgegeben haben, hauptsächlich getrieben durch die Erweiterung des AWS-Infrastruktur-Aufbaus für KI.
  • Googeln 11 Milliarden US-Dollar ausgegebenseine Server und Rechenzentren allein im vierten Quartal 2023 zu erweitern. Sie geben zu, dass diese Investitionen getätigt wurden, um die erwartete KI-Nachfrage zu decken, und erwarten, dass sich die Rate und die Gesamtgröße ihrer Infrastrukturausgaben im Jahr 2024 aufgrund der KI deutlich erhöhen werden.

Und so viel wurde bereits 2023 für NVIDIA KI-Hardware ausgegeben:

Jensen Huang, CEO von NVIDIA, hat vorgeschlagen, insgesamt 1 Billion US-Dollar in die KI-Beschleunigung in den nächsten Jahren zu investieren. Eine Vorhersage, die er kürzlich verdoppeltauf 2 Billionen Dollar, angeblich ausgelöst durch das Interesse, das er von den souveränen Akteuren beobachtet hat. Analysten von Altimeter erwarten, dass im Jahr 24 und 25 weltweit jeweils 160 Milliarden Dollar und über 200 Milliarden Dollar in KI-bezogenen Rechenzentren ausgegeben werden.

Nun, um diese Zahlen mit dem zu vergleichen, was Web3 unabhängigen Rechenzentrumsbetreibern bietet, um sie zu incentivieren, CapEx für die neueste KI-Hardware zu erweitern:

  • Die Gesamtmarktkapitalisierung aller Projekte für dezentrale physische Infrastruktur (DePIn) liegt derzeit bei rund 40 Mrd. USD in relativ illiquiden und überwiegend spekulativen Token. Im Wesentlichen entsprechen die Marktkapitalisierungen dieser Netzwerke der Obergrenze der Gesamtkapitalausgaben ihrer Beitragenden, da sie diesen Ausbau mit den Tokens anreizen. Dennoch ist die derzeitige Marktkapitalisierung fast nutzlos, da sie bereits ausgegeben wurde.
  • Also gehen wir davon aus, dass in den nächsten 3-5 Jahren weitere 80 Mrd. US-Dollar (das Doppelte des bestehenden Werts) an privaten und öffentlichen DePIn-Token-Kapitalisierungen auf den Markt kommen und davon ausgehen, dass dies zu 100% für KI-Anwendungsfälle verwendet wird.

Auch wenn wir diese sehr grobe Schätzung durch 3 (Jahre) teilen und den Dollarwert damit vergleichen, den nur die Hyperscaler allein im Jahr 2024 ausgegeben haben, wird klar, dass die Zuweisung von Token-Anreizen zu einer Reihe von „dezentralisierten GPU-Netzwerk“-Projekten nicht ausreicht.

Es bedarf auch Milliarden von Dollar an Investorennachfrage, um diese Tokens aufzusaugen, da die Betreiber solcher Netzwerke einen großen Teil der geschürften Münzen verkaufen, um die erheblichen Kosten für Cap- und OpEX zu decken. Und noch einige Milliarden mehr, um diese Tokens zu pushen und das Wachstum beim Ausbau voranzutreiben, um Hyperscaler zu übertreffen.

Dennoch könnte jemand, der über intime Kenntnisse darüber verfügt, wie die meisten Web3-Server derzeit betrieben werden, erwarten, dass ein großer Teil der „Dezentralen physischen Infrastruktur“ tatsächlich auf den Cloud-Services dieser gleichen Hyperscaler läuft. Und natürlich treibt der Anstieg der Nachfrage nach GPU und anderer auf KI spezialisierter Hardware das Angebot weiter voran, was Cloud-Mieten oder -Kauf letztendlich viel günstiger machen sollte. Zumindest ist das die Erwartung.

Aber bedenken Sie auch: Im Moment muss NVIDIA Kunden für seine GPUs der neuesten Generation priorisieren. Es ist auch wichtig, beginnen zu konkurrierenmit den größten Cloud-Anbietern auf deren eigenem Terrain - bietet KI-Plattformdienste für Unternehmenskunden an, die bereits an diese Hyperscaler gebunden sind. Dies incentiviert sie letztendlich entweder, im Laufe der Zeit ihre eigenen Rechenzentren auszubauen (was im Wesentlichen in die fetten Gewinnmargen eindringt, die sie derzeit genießen, daher weniger wahrscheinlich) oder ihre KI-Hardwareverkäufe signifikant auf ihr Partnerschaftsnetzwerk von Cloud-Anbietern zu beschränken.

Auch Konkurrenten von NVIDIA, die zusätzliche auf KI spezialisierte Hardware auf den Markt bringen, verwenden größtenteils die gleichen Chips wie NVIDIA, hergestellt von TSMC.Also im Grunde genommen sind derzeit alle KI-Hardwareunternehmenum die Kapazität von TSMC zu konkurrieren.Auch TSMC muss bestimmte Kunden gegenüber anderen priorisieren. Samsung und möglicherweise Intel (das bald wieder in die hochmoderne Chipfertigung für seine eigene Hardware einsteigen will) können möglicherweise zusätzliche Nachfrage absorbieren, aber TSMC produziert derzeit die Mehrheit der KI-bezogenen Chips und das Skalieren und Kalibrieren der hochmodernen Chipfertigung (3 und 2 Nanometer) dauert Jahre.

Darüber hinaus wird die gesamte hochmoderne Chip-Fertigung derzeit in der Nähe der Taiwanstraße von TSMC in Taiwan und Samsung in Südkorea durchgeführt, wo ein Risiko eines militärischen Konflikts entstehen kann, bevor die derzeit in den USA gebauten Anlagen zur Kompensation (und auch nicht erwartet, die nächsten Generationen von Chips für einige Jahre zu produzieren) gestartet werden können.

Und schließlich konkurriert China, das im Wesentlichen durch die von den USA auferlegten Beschränkungen für NVIDIA und TSMC vom neuesten AI-Hardware-Generation abgeschnitten ist, um die verbleibende Rechenleistung, genauso wie die Web3 DePin-Netzwerke. Im Gegensatz zu Web3 haben chinesische Unternehmen tatsächlich ihre eigenen Wettbewerbsmodelle, insbesondere die LLMs von z.B. Baidu und Alibaba, die eine Menge der Geräte der vorherigen Generation benötigen, um zu laufen.

Es besteht also ein nicht unwesentliches Risiko, dass aufgrund einer der oben genannten Gründe oder einer Konvergenz von Faktoren Hyperscaler einfach den Zugang zu ihrer KI-Hardware für externe Parteien einschränken, da der Krieg um die KI-Herrschaft intensiver wird und Vorrang vor dem Cloud-Geschäft hat. Im Grunde genommen handelt es sich um ein Szenario, in dem sie die gesamte KI-bezogene Cloud-Kapazität für ihre eigene Nutzung beanspruchen und sie nicht mehr anderen anbieten, während sie auch die gesamte neueste Hardware absorbieren. Dies geschieht und das verbleibende Rechenangebot wird von anderen großen Akteuren, einschließlich souveräner Staaten, noch stärker nachgefragt. Während die für Verbraucher geeigneten GPUs draußen zunehmend unkonkurrenzfähiger werden.

Offensichtlich handelt es sich hier um ein extremes Szenario, aber der Preis ist für die großen Player zu hoch, um im Falle von Hardware-Engpässen nachzugeben. Dies führt dazu, dass dezentrale Betreiber wie Tier-2-Rechenzentren und Besitzer von Hardware im Einzelhandel, die die Mehrheit der Web3 DePIN-Anbieter ausmachen, im Wettbewerb außen vor bleiben.

Die andere Seite der Medaille

Während die Krypto-Gründer schlafen, behalten die KI-Schwergewichte die Krypto-Welt genau im Auge.Regierungsdruckund der Wettbewerb könnte sie dazu bringen, Krypto zu übernehmen, um zu vermeiden, dass sie geschlossen oder stark reguliert werden.

Stabilität AI Gründer vor kurzemzurücktretenUm sein Unternehmen „dezentralisieren“ zu starten, ist dies einer der ersten öffentlichen Hinweise darauf. Zuvor hatte er in öffentlichen Auftritten keine Geheimnisse aus seinen Plänen gemacht, einen Token zu starten, jedoch erst nach dem erfolgreichen Abschluss des Börsengangs des Unternehmens - was irgendwie die wahren Motive hinter dem erwarteten Schritt verrät.

In ähnlicher Weise, während Sam Altman nicht operativ in das Kryptoprojekt involviert ist, das er mitbegründet hat, Worldcoin, handelt sein Token sicherlich wie ein Proxy für OpenAI. Ob es ein Pfad zur Verbindungdas kostenlose Internetgeldprojekt mit dem KI-Forschungs- und Entwicklungsprojekt. Die Zeit wird zeigen, aber das Worldcoin-Team scheint auchanerkennen dass der Markt diese Hypothese testet.

Es macht für uns viel Sinn, dass KI-Giganten möglicherweise verschiedene Wege zur Dezentralisierung erkunden. Das Problem, das wir hier wieder sehen, ist, dass Web3 keine sinnvollen Lösungen hervorgebracht hat. "Governance-Tokens" sind größtenteils ein Meme, während nur diejenigen, die explizit direkte Verbindungen zwischen Vermögensinhabern und der Entwicklung und Betrieb ihres Netzwerks vermeiden - $BTC und $ETH - im Moment wirklich dezentralisiert sind.

Die gleichen Anreize, die die technologische Entwicklung verlangsamen, beeinflussen auch die Entwicklung verschiedener Designs zur Steuerung von Krypto-Netzwerken. Startup-Teams setzen einfach einen „Governance-Token“ oben auf ihr Produkt in der Hoffnung, es herauszufinden, während sie Schwung sammeln, nur um schließlich im „Governance-Theater“ rund um die Ressourcenallokation zu versinken.

Schlussfolgerung

Der Wettlauf um KI ist im Gange und alle nehmen ihn sehr ernst. Wir können keinen Fehler im Denken der großen Tech-Unternehmen identifizieren, wenn es darum geht, ihre Rechenleistung in beispiellosem Maße zu skalieren - mehr Rechenleistung bedeutet bessere KI, bessere KI bedeutet Kostenreduzierung, zusätzliche Einnahmen und Marktanteilserweiterung. Das bedeutet für uns, dass die Blase gerechtfertigt ist, aber alle Fälscher werden dennoch in unvermeidlichen Erschütterungen aussortiert werden.

Zentralisierte große Unternehmens-KI dominiert das Feld, und legitime Startups haben Schwierigkeiten, Schritt zu halten. Der Web3-Bereich ist spät dran, aber beteiligt sich auch am Rennen. Der Markt belohnt Krypto-KI-Projekte im Vergleich zu den Web2-Startups im Raum auch zu reichlich, was die Interessen der Gründer von der Produktbereitstellung auf das Pumpen des Tokens in einer kritischen Phase ablenkt, in der das Zeitfenster, um aufzuholen, schnell schließt. Bisher gab es hier keine orthogonale Innovation, die es umgeht, die Berechnung auf massive Skala zu erweitern, um zu konkurrieren.

Es gibt jetzt eine glaubwürdige Open-Source-Bewegung um Consumer-Facing-Modelle herum, die ursprünglich von einigen zentralisierten Akteuren vorangetrieben wurde, die sich entschieden haben, mit größeren Closed-Source-Rivalen um Marktanteile zu konkurrieren (z. B. Meta, Stability AI). Aber jetzt holt die Community auf und setzt die führenden KI-Unternehmen unter Druck. Diese Drücke werden die Closed-Source-Entwicklung von KI-Produkten weiterhin beeinflussen, aber erst, wenn Open Source auf der Aufholseite ist, auf eine bedeutsame Weise. Dies ist eine weitere große Chance für den Web3-Bereich, aber nur, wenn er dezentrales Modelltraining und Schlussfolgerungen löst.

Also, während auf den ersten Blick „klassische“ Eröffnungen für Störer vorhanden sind, könnte die Realität nicht weiter davon entfernt sein, sie zu bevorzugen. KI ist hauptsächlich an die Berechnung gebunden, und es gibt nichts, was daran geändert werden kann, es sei denn, es gibt eine bahnbrechende Innovation in den nächsten 3-5 Jahren, was eine entscheidende Phase für die Bestimmung ist, wer die KI-Entwicklung kontrolliert und lenkt.

Der Markt selbst kann, obwohl die Nachfrage die Bemühungen auf der Angebotsseite steigert, aufgrund struktureller Faktoren wie der Chipfertigung und den Skaleneffekten den Wettbewerb zwischen den Herstellern nicht wirklich 'hundert Blumen blühen lassen'.

Wir bleiben optimistisch hinsichtlich menschlicher Einfallsreichtum und sind sicher, dass es genug kluge und edle Menschen gibt, die versuchen werden, das KI-Problem auf eine Weise zu lösen, die die freie Welt gegenüber der top-down Unternehmens- oder Regierungskontrolle bevorzugt. Aber die Chancen stehen sehr schlecht und es ist bestenfalls eine Münzwurfentscheidung, aber die Web3-Gründer sind zu beschäftigt damit, die Münze für finanzielle statt realweltliche Auswirkungen zu werfen.

Wenn Sie etwas Cooles bauen, um die Chancen von Web3 zu erhöhen und nicht nur auf der Hype-Welle reiten, kontaktieren Sie uns.

Haftungsausschluss:

  1. Dieser Artikel wurde von [ wieder abgedrucktgagra.vc], Alle Urheberrechte gehören dem Originalautor [gagra.vc]. Wenn es Einwände gegen diesen Nachdruck gibt, wenden Sie sich bitte an die Gate LearnTeam und sie werden es schnell bearbeiten.
  2. Haftungsausschluss: Die Ansichten und Meinungen, die in diesem Artikel geäußert werden, stammen ausschließlich vom Autor und stellen keine Anlageberatung dar.
  3. Übersetzungen des Artikels in andere Sprachen werden vom Gate Learn-Team durchgeführt. Sofern nicht anders angegeben, ist das Kopieren, Verbreiten oder Plagiieren der übersetzten Artikel verboten.
Empieza ahora
¡Registrarse y recibe un bono de
$100
!