DEEPTECH

DEEPEXI TECH 01384.HK-Preis

DEEPTECH
$0
+$0(0,00 %)
Keine Daten

*Data last updated: 2026-04-14 21:35 (UTC+8)

As of 2026-04-14 21:35, DEEPEXI TECH 01384.HK (DEEPTECH) is priced at $0, with a total market cap of --, a P/E ratio of 0,00, and a dividend yield of 0,00 %. Today, the stock price fluctuated between $0 and $0. The current price is 0,00 % above the day's low and 0,00 % below the day's high, with a trading volume of --. Over the past 52 weeks, DEEPTECH has traded between $0 to $0, and the current price is 0,00 % away from the 52-week high.

DEEPTECH Key Stats

P/E Ratio0,00
Dividend Yield (TTM)0,00 %
Shares Outstanding0,00

DEEPEXI TECH 01384.HK (DEEPTECH) FAQ

What's the stock price of DEEPEXI TECH 01384.HK (DEEPTECH) today?

x
DEEPEXI TECH 01384.HK (DEEPTECH) is currently trading at $0, with a 24h change of 0,00 %. The 52-week trading range is $0–$0.

What are the 52-week high and low prices for DEEPEXI TECH 01384.HK (DEEPTECH)?

x

What is the price-to-earnings (P/E) ratio of DEEPEXI TECH 01384.HK (DEEPTECH)? What does it indicate?

x

What is the market cap of DEEPEXI TECH 01384.HK (DEEPTECH)?

x

What is the most recent quarterly earnings per share (EPS) for DEEPEXI TECH 01384.HK (DEEPTECH)?

x

Should you buy or sell DEEPEXI TECH 01384.HK (DEEPTECH) now?

x

What factors can affect the stock price of DEEPEXI TECH 01384.HK (DEEPTECH)?

x

How to buy DEEPEXI TECH 01384.HK (DEEPTECH) stock?

x

Risk Warning

The stock market involves a high level of risk and price volatility. The value of your investment may increase or decrease, and you may not recover the full amount invested. Past performance is not a reliable indicator of future results. Before making any investment decisions, you should carefully assess your investment experience, financial situation, investment objectives, and risk tolerance, and conduct your own research. Where appropriate, consult an independent financial adviser.

Disclaimer

The content on this page is provided for informational purposes only and does not constitute investment advice, financial advice, or trading recommendations. Gate shall not be held liable for any loss or damage resulting from such financial decisions. Further, take note that Gate may not be able to provide full service in certain markets and jurisdictions, including but not limited to the United States of America, Canada, Iran, and Cuba. For more information on Restricted Locations, please refer to the User Agreement.

Other Trading Markets

Beliebte Beiträge zu DEEPEXI TECH 01384.HK (DEEPTECH)

SadMoneyMeow

SadMoneyMeow

04-08 04:36
![](https://img-cdn.gateio.im/social/moments-c195308574-89cf3f53e2-8b7abd-badf29) Dipu Technology (01384) stieg im Tagesverlauf zeitweise um über 17%. Zum Zeitpunkt der Veröffentlichung stieg der Kurs um 11,08% und liegt bei 32,48 HKD. Das Handelsvolumen beträgt 199,6 Mio. HKD. Die Geschäftsergebnisse von Dipu Technology für das Jahr 2025 zeigen: Der gesamte Jahresumsatz stieg im Jahresvergleich um 70,8%; die bereinigten Nettoverluste konnten sich deutlich um 71,4% verringern, und die Qualität des operativen Geschäfts wurde spürbar verbessert. Besonders hervorzuheben ist, dass der Umsatz der unternehmensorientierten KI-Lösung „FastAGI“ auf 254 Mio. RMB explodierte und im Jahresvergleich um 181,5% stieg. Damit wurde sie zur größten Erlösquelle und signalisiert, dass der „Business Engine“-Wechsel hin zu KI-Lösungen erfolgreich gelungen ist. Darüber hinaus hatte Dipu Technology zuvor eine neue Produktstrategie veröffentlicht. Dabei wurden die bisherigen drei Komponenten – die FastData-Unternehmensdaten-Fusionsplattform, die FastAGI-Unternehmens-Agenten-Plattform sowie das Deepexi-Unternehmens-Großmodell – tiefgehend integriert und zu einem „DeepexiOS“ auf KI-Niveau entwickelten Unternehmensbetriebssystem aufgerüstet. Die zentrale Produktpositionierung des Unternehmens hat sich außerdem von der Bereitstellung von „Data+AI-Lösungen“ hin zu einer „Basisplattform für digitale Mitarbeitende im Unternehmen im KI-Zeitalter“ verlagert. (Herausgeber: Liu Chang) 【Haftungsausschluss】Dieser Artikel stellt ausschließlich die persönliche Meinung des Autors dar und steht in keiner Verbindung mit Hexun. Die Website von Hexun hält die Aussagen, Standpunkte und Urteile im Text für neutral, übernimmt jedoch keine ausdrückliche oder stillschweigende Gewähr dafür, dass die enthaltenen Inhalte in Bezug auf Genauigkeit, Zuverlässigkeit oder Vollständigkeit korrekt sind. Bitte lesen Sie den Artikel nur als Referenz und tragen Sie sämtliche Verantwortung bitte selbst. E-Mail: [email protected]
0
0
0
0
WuSaidBlockchainW

WuSaidBlockchainW

04-06 23:51
Autor | Stablecoin Insider / McKinsey×Artemis Übersetzung | Deep Tide TechFlow Original-Link: Kurzüberblick:Der gemeinsame Branchenbericht von McKinsey und Artemis hat etwas getan, das in der Branche nur selten jemand macht: Er hat die Handelsvolumen-Daten für Stablecoins in ihre Bestandteile zerlegt. Das Ergebnis: Von rund 35 Billionen US-Dollar an jährlichem On-Chain-Transaktionsvolumen sind nur etwa 3900 Milliarden US-Dollar (ca. 1%) echte Zahlungsaktivitäten; davon entfallen wiederum 58% auf Finanzoperationen von Unternehmen an Unternehmen, mit einem jährlichen Wachstum von 733%. Die Nutzung von Stablecoins auf der Konsumentenseite ist nahezu vernachlässigbar — und das ist kein Zufall — — Der Artikel fasst fünf strukturelle Gründe zusammen und erklärt, warum die Kluft zwischen Institutionen und Privatpersonen nicht nur eine vorübergehende Lücke ist. Der vollständige Text lautet wie folgt: In der Stablecoin-Branche gibt es auf der Ebene der Schlagzeilen ein Problem. Einerseits zeigen die zugrunde liegenden Rohdaten auf der On-Chain-Ebene, dass jedes Jahr Hunderte von Billionen US-Dollar im Netz fließen; diese Zahl sorgt für endlose Vergleiche mit Visa und Mastercard sowie für Prognosen, dass SWIFT bald ersetzt wird. Andererseits hat ein wegweisender Bericht, den McKinsey gemeinsam mit Artemis Analytics im Februar 2026 veröffentlicht hat, all diese Aspekte wieder herausgefiltert und eine direktere Frage gestellt: Wie viel davon sind echte Zahlungen? Die Antwort liegt bei ungefähr 1%. Von dem jährlichen, hochgerechneten Volumen von rund 35 Billionen US-Dollar an Stablecoin-Transaktionen stehen nur etwa 390 Milliarden US-Dollar für echte Zahlungen von Endanwendern, etwa für Lieferantenrechnungen, grenzüberschreitende Überweisungen, Gehaltsauszahlungen und Kartenzahlungen. Der Rest besteht aus Handelsaktivitäten, internem Verschieben von Geldern, Arbitrage-Verhalten und automatisierten Smart-Contract-Zyklen. Der Bericht kommt zu dem Schluss, dass die überhöhten Schlagzeilenzahlen eher der „Ausgangspunkt für die Analyse“ sein sollten und nicht ein Stellvertreterwert, der die Zahlungsakzeptanz misst. Aber innerhalb dieser realen Basis von 390 Milliarden US-Dollar gibt es eine Geschichte, die es wert ist, genauer unter die Lupe zu nehmen — und sie dreht sich fast vollständig um Unternehmensfinanzen, nicht um Wallets von Verbrauchern. B2B dominiert das gesamte Spielfeld: Was die Daten tatsächlich aussagen Laut der Analyse von McKinsey/Artemis (basierend auf den Aktivitätsdaten vom Dezember 2025) entfallen 2260 Milliarden US-Dollar auf Transaktionen von Unternehmen zu Unternehmen, das sind etwa 58% der gesamten echten Stablecoin-Zahlungsmenge. Diese Zahl entspricht einem Wachstum von 733% im Jahresvergleich und wird vor allem durch Lieferkettenzahlungen, grenzüberschreitende Abrechnungen von Lieferanten und das Management finanzieller Liquidität angetrieben. Asien ist bei den geografischen Aktivitäten führend, aber auch Lateinamerika und Europa beschleunigen die Einführung. Der übrige Teil des Bereichs echter Zahlungen verteilt sich auf Gehaltsauszahlungen und Überweisungen (900 Milliarden US-Dollar), Abwicklungen im Kapitalmarkt (80 Milliarden US-Dollar) und Kartenkäufe im Zusammenhang mit verknüpften Karten (45 Milliarden US-Dollar). Laut den Daten von McKinsey wächst das Kartenumsatzvolumen in Verbindung mit Stablecoins im Jahresvergleich um erstaunliche 673%, aber bezogen auf absolute Werte ist es immer noch nur ein kleiner Teil des B2B-Volumens. Als Referenz: Dieses Gesamtvolumen von 390 Milliarden US-Dollar macht nur 0,02% der von McKinsey geschätzten weltweiten jährlichen Gesamtsumme von über 2 Billionen Billionen US-Dollar an Zahlungen aus. B2B-Stablecoin-Flüsse machen im Detail etwa 0,01% des weltweiten Marktes für B2B-Zahlungen in Höhe von rund 160 Billionen US-Dollar aus. Diese Zahlen sind im Stablecoin-Kontext groß, aber im Hintergrund des globalen Finanzsystems sind sie weiterhin verschwindend gering. Die monatlichen Daten zur Umschlaggeschwindigkeit vermitteln das Momentum noch direkter. Laut BVNK, unter Berufung auf Daten aus dem McKinsey/Artemis-Bericht, betrug das monatliche Stablecoin-Zahlungsvolumen im Januar 2024 lediglich 5 Milliarden US-Dollar; bis Anfang 2026 lag diese Zahl bereits bei über 30 Milliarden US-Dollar — — innerhalb von weniger als zwei Jahren hat sich die Zahl also um das Sechsfache vergrößert, wobei die steilste Beschleunigung in der zweiten Jahreshälfte 2025 auftrat. Bei Hochrechnung auf das Jahr liegt diese Umschlaggeschwindigkeit mittlerweile bei über 390 Milliarden US-Dollar. „Echte Stablecoin-Zahlungen liegen deutlich unter üblichen Schätzungen; das schwächt das langfristige Potenzial von Stablecoins als Zahlungsplattform nicht — es schafft lediglich eine klarere Basis, um zu beurteilen, wo der Markt gerade steht.“ — — McKinsey/Artemis Analytics, Februar 2026 Warum es die Kluft gibt: Fünf strukturelle Kräfte, die den Retail ausschließen Die Abweichung zwischen der explosionsartigen Einführung im B2B und der faktischen Bedeutungslosigkeit bei der Nutzung durch Verbraucher ist kein Zufall, sondern das Ergebnis systemischer struktureller Asymmetrien, die Unternehmensfälle gegenüber Retail-Fällen begünstigen. Im Folgenden sind die fünf wichtigsten Kräfte, die die Kluft zwischen Institutionen antreiben: 1)Finanzielle Effizienz schlägt die Bequemlichkeit der Verbraucher Die Finanzchefs von Unternehmen werden von konkreten, messbaren Schmerzpunkten angetrieben: einer Kette von SWIFT-Proxy-Banken, die ein bis fünf Arbeitstage für die Abwicklung benötigen; Geldumtausch-Fenstern, die Liquidität binden; sowie Zwischenhändlerkosten, die in jedem Transaktionsschritt zusätzlich anfallen. Stablecoins lösen gleichzeitig alle drei Probleme. Für ein Unternehmen, das Lieferanten in fünfzehn Ländern bezahlt, ist die Wirtschaftlichkeit auf einen Blick klar; für einen Verbraucher, der Kaffee kauft, hingegen nicht. Die Wechselanreize auf Unternehmensseite sind um Größenordnungen größer als bei einzelnen Privatnutzern. 2)Programmierbarkeit hat im Retail-Bereich keinen gleichwertigen Gegenwert Der B2B-Boom ist zum Teil auch eine Geschichte programmierbarer Zahlungen. Smart Contracts ermöglichen bedingte Logik — — Rechnungs-Auslösung, Lieferbestätigung, Freigabe aus dem Escrow — — und das sind Mechanismen, die den gesamten Prozess der Verbindlichkeiten aus Lieferungen und Leistungen in großem Maßstab automatisieren können. Das passt ganz natürlich zu den Abläufen im Finanzbetrieb von Unternehmen, weil hochwerige, strukturierte und wiederkehrende Zahlungsprozesse enorm von der Automatisierung profitieren. Für Retail-Zahlungen fehlen — in jeder Größenordnung — ähnliche Trigger-Anwendungsfälle. Verbraucher kaufen Lebensmittel nicht mit programmierbaren Bedingungen; sie brauchen etwas, das sich so nutzen lässt wie beim Kartenzahlen. Die kognitive Komplexität nativer Zahlungen auf der Blockchain bleibt weiterhin eine Barriere im Retail — und zur Programmierbarkeit gibt es hier keinerlei hilfreiche Entsprechung. 3)Das regulatorische Rahmenwerk ist auf Institutionen ausgerichtet Nach dem „GENIUS Bill“ ist es den Betreibern von Institutionen gelungen, die Compliance-Strukturen so anzupassen, dass sie Maßnahmen gegen Geldwäsche und Terrorismusfinanzierung, Reisevorschriften, Lizenzanforderungen und dergleichen abdecken — — und sie haben eine rechtliche Infrastruktur aufgebaut, die ihnen ein sicheres Betreiben ermöglicht. Die Finanzteams von Unternehmen verfügen über eigene Compliance-Funktionen, die Reibungsverluste beim Markteintritt aufnehmen können; einzelne Verbraucher können das nicht. Das Ergebnis ist, dass in den meisten Rechtsordnungen die Wege für Stablecoin-Einzahlungen für Retail-Nutzer im operativen Ablauf weiterhin komplex sind, während die Akzeptanzlücke auf Händlerebene global fortbesteht. Jede reibungslose B2B-Zahlung von heute ist ein Datenpunkt, den Institutionen nutzen, um weitere Investitionen zu rechtfertigen; das Verbraucher-Ökosystem hingegen wartet auf einen Compliance- und Nutzererlebnis-Einstieg, der noch nicht in großem Maßstab aufgetaucht ist. 4)Vorteile geschlossener Zyklen Stablecoin-Zahlungen im B2B sind genau deshalb erfolgreich, weil sie in einem geschlossenen Kreislauf stattfinden: Unternehmen senden an Unternehmen, beide Seiten haben Wallets, beide Seiten verfügen über Compliance-Infrastruktur und es ist nicht erforderlich, ein allgemeines Händlernetzwerk zu nutzen. Für Verbraucherzahlungen stellt sich das klassische Henne-Ei-Problem: Bevor Verbraucher Bedarf haben, investieren Händler nicht in den Aufbau einer Stablecoin-Akzeptanzinfrastruktur; und bevor Verbraucher sie breit nutzen können, aktivieren sie auch nicht ihre Wallets. Die Welt der Institutionen umgeht dieses Problem vollständig, indem sie in bilateralen oder Konsortialumgebungen operiert, ohne irgendein offenes Händlernnetzwerk zu benötigen. 5)Institutionelle Anreize zeigen nach oben Finanzchefs von Unternehmen, die Stablecoins halten, können Renditen erzielen, ihr FX-Exposure reduzieren und das Liquiditätsmanagement verbessern — — diese Vorteile sammeln sich intern an; sie nach unten weiterzugeben würde Komplexität erzeugen oder eine wettbewerbsanfällige Verletzbarkeit mit sich bringen. Damit Stablecoin-Nutzung bei Lieferanten der Lieferanten, Mitarbeitenden oder Endverbrauchern beworben wird, muss ein Netzwerk aufgebaut werden, das dafür sorgt, dass diese nachgelagerten Parteien profitieren — und das liegt nicht unbedingt im Interesse des Finanzteams des Initiators. Markthintergrund Die Infrastruktur-Daten von BVNK belegen aus Sicht des Betreibers die Dominanz von B2B. Das Unternehmen verarbeitete 2025 30 Milliarden US-Dollar an jährlich hochgerechneten Stablecoin-Zahlungsvolumen, was einem Anstieg um 2,3-fache entspricht; ein Drittel dieser Menge stammte aus dem US-Markt. Die Kund:innenliste (Worldpay, Deel, Flywire, Rapyd, Thunes) ist eine Führungsriege im Bereich grenzüberschreitender B2B- und Gehaltsauszahlungsinfrastruktur — nicht in Form von Consumer-Apps. Wie BVNK in seinem Rückblick zum Jahresende 2025 selbst hervorhob: „Die anfängliche Annahme, dass Remittances und Consumer-Transfers das Wachstum von Stablecoins anführen würden, hat sich nicht als Hauptantrieb erwiesen; B2B hat stattdessen diese Rolle übernommen.“ Wann der Retail aufholt — — falls überhaupt Die B2B/Basislinie von McKinsey/Artemis macht die aktuelle Lage klar erkennbar. Was sie jedoch nicht beantworten kann, ist, ob sich die Kluft zwischen Institutionen tatsächlich verengt, sich ausweitet oder dauerhaft verfestigt. Im Folgenden drei mögliche Szenarien für die nächsten 18 Monate: In naher Zeit 2026 — — die Kluft weitet sich weiter aus Es gibt keine Anzeichen dafür, dass der B2B-Aufwärtstrend nachlässt. Die durchschnittliche monatliche Umschlaggeschwindigkeit von über 30 Milliarden US-Dollar setzt sich fort, während immer mehr Unternehmen Stablecoins auf der Spur für grenzüberschreitende Verbindlichkeiten aus Lieferungen und Leistungen und für Finanzoperationen nutzen. Das Kartenzahlen mit Stablecoins im Retail wächst nur leicht, aber bezogen auf absolute Mengen ist es im Verhältnis zum B2B-Volumen weiterhin vernachlässigbar. Selbst wenn die Retail-Einführung prozentual langsam voranschreitet, nimmt die Kluft in absoluten Dollarbeträgen dennoch zu. Mitte bis Ende 2026 bis 2027 — — ein Wendepunkt beginnt sich abzuzeichnen Mehrere Katalysatoren könnten beginnen, die Kluft zu schließen: Mehrwährungs-Stablecoins, die von Banken ausgegeben werden, senken die Reibung beim Retail-Onboarding; programmierbare Funktionen über AI-Agent-Payment-Delegation werden auf Consumer-Apps ausgeweitet; und die Lohnarbeit in der Gig Economy, die mit Stablecoins ausgezahlt wird, schafft Guthaben für nachgelagerten Konsum bei Mitarbeitenden. Der US-Finanzminister Scott Bessent prognostiziert, dass das Stablecoin-Angebot bis 2030 möglicherweise 3 Billionen US-Dollar erreichen wird; diese Entwicklungslinie bedeutet, dass schließlich auch Verbraucher-Netzwerkeffekte auftreten werden. Gegenansicht — — der Retail könnte niemals wirklich „aufholen“ — und das könnte genau der entscheidende Punkt sein Die ehrlichste Interpretation der McKinsey-Daten besteht darin, dass Stablecoins sich möglicherweise in Richtung dessen entwickeln, was der Bericht indirekt andeutet: eine programmierbare Abwicklungsschicht im Internet für Maschinen, Finanzabteilungen und Institutionen; die Consumer-Adoption ist dabei ein indirekter, eingebetteter Nutzen, nicht der primäre Use Case. Wenn dieses Rahmenwerk Bestand hat, dann ist die Kluft zwischen Institutionen kein Scheitern der Adoption, sondern ein Merkmal der natürlichen technischen Architektur. Mit Stablecoins ausgezahlte Unternehmenslöhne könnten letztlich nachgelagerte Konsumausgaben schaffen, doch der Weg von der B2B-Infrastruktur bis zur Retail-Wallet ist lang und verschlungen — und er hängt von Durchbrüchen im Nutzererlebnis ab, die bislang noch nicht in großem Maßstab aufgetreten sind. Eine ehrliche Basislinie Der McKinsey/Artemis-Bericht hat etwas getan, das wertvoller ist als die bloße Dokumentation des Stablecoin-Wachstums: Er hat eine ehrliche Basislinie geschaffen, die in der Branche bislang eindeutig fehlte. Indem Transaktionsrauschen, internes Verschieben von Geldern und automatisierte Smart-Contract-Zyklen herausgerechnet werden, wird ein Zahlungsmarkt sichtbar, der tatsächlich wächst — — das reale Zahlungsvolumen hat sich von 2024 bis 2025 verdoppelt — — aber es ist auf eine strukturelle, nicht zufällige Weise in hohem Maße beim institutionellen Segment konzentriert. Das B2B-Wachstum von 733% ist keine verschobene Consumer-Geschichte, sondern eine sich gerade reifende Finanzgeschichte. Die Unternehmen, die heute auf der Stablecoin-Spur aufbauen, lösen echte operative Probleme — — grenzüberschreitende Reibungen, Ineffizienzen bei Korrespondenzbanken, Verzögerungen bei Betriebskapital — — und diese Probleme stehen in keinerlei Zusammenhang damit, ob Verbraucher Stablecoin-Wallets besitzen. Egal wie: Sie werden weiter aufbauen. LAYOUT REFERENCE (source): total_lines=131, non_empty_lines=65, blank_lines=66
2
0
0
0
MaticHoleFiller

MaticHoleFiller

04-05 22:45
>   Beim Börsenhandel kommt es auf die Analysen des Goldene-Kirin-Analystenberichts an: maßgeblich, professionell, zeitnah, umfassend—damit Sie Potenzialthemen und Chancen besser erschließen können! (Quelle: DeepTech Deep Technology) Schreiben Sie eine Funktion, KI ist fast unbesiegbar; aber warum bricht ein System zusammen, wenn man es pflegen muss? Derzeit ist die künstliche Intelligenz bereits in die „zweite Halbzeit“ eingetreten. Mit der kontinuierlichen Verbesserung der KI-Fähigkeit zum Programmieren kommen Produkte wie OpenClaw nach und nach auf den Markt, und „CLI everything“ wird zur Realität: KI muss nicht mehr den Computer bedienen, sondern macht alle Schnittstellen zu einer Kommandozeilenschnittstelle (CLI), sodass sich einzelne Fähigkeiten in einzelne Softwarefunktionen verwandeln. Bisher ist ein Agent nicht mehr nur ein Dialogwerkzeug zur Ausführung einer einzelnen Aufgabe, sondern entwickelt sich zu einem System für langfristigen Betrieb, zur Interaktion mit der realen Welt und zur Ausführung komplexer Aufgaben. Doch dabei taucht ein neues Problem auf: Kann sich die KI im Zuge der fortlaufenden Weiterentwicklung an neue Umgebungen anpassen und gleichzeitig ihre Entwicklungsfähigkeit stabil halten? Der leitende KI-Wissenschaftler des „CEO-/Vorstandsbüros“ von Tencent, Yao Shunyu, erwähnte in einem Blogbeitrag mit dem Titel „The Second Half“, dass reale Programmieraufgaben kontinuierlich voneinander abhängen und nicht unabhängig parallel laufen. Gleichzeitig gibt es in der Forschung heute keinen solchen Maßstab, um die Fähigkeiten der KI in diesem Szenario zu bewerten, ja sogar fehlt die Bereitschaft, die lange Zeit weit verbreiteten Annahmen zu durchbrechen, die zur Vereinfachung eingesetzt werden—nämlich die Idee, Aufgaben seien untereinander unabhängig. Kürzlich veröffentlichten ein gemeinsames Team der University of Southern California, der University of California Riverside, der Stanford University, der Princeton University, OpenHands und weiterer Beteiligter einen neuen Bewertungsmaßstab namens EvoClaw und schlugen damit eine neue Lösung für die oben genannten Fragen vor. Das Forschungsteam extrahierte aus Open-Source-Projekten eine hochwertige Historie der Codeentwicklung, sodass der Agent im selben Code-Repository Dutzende von aufeinander aufbauenden, voneinander abhängigen Funktionsiterationen kontinuierlich umsetzen kann. Die Ergebnisse zeigen: Top-KI kann bei unabhängigen Bewertungsaufgaben hervorragend abschneiden (Punktzahl 80%+). Sobald sie jedoch in ein langzyklisches, reales Szenario geht, erhält selbst das umfassend am höchsten bewertete Claude Opus 4.6 nur 38.03%. Das bedeutet: Bei Aufgaben mit höherer Ausführungsfreiheit neigt die KI eher dazu, von der Spur abzukommen; der Abstand zu dem, was sie tatsächlich für langzyklische, kontinuierliche Software-Evolution leisten kann, bleibt deutlich groß. (Quelle: arXiv) Diese Studie zeigt, dass KI in der langfristigen Evolution sehr leicht in ein Schneeball-ähnliches Muster technischer Schulden gerät. Obwohl sie kontinuierlich neue Funktionen hinzufügen kann, lässt sich das Wiederauftreten und Ansammeln von Fehlern nicht kontrollieren—und am Ende kommt es dazu, dass das System außer Kontrolle gerät. Das bedeutet auch: KI-Programmierung wechselt von „Code schreiben“ hin zu „System-Governance“. Die zugehörige Facharbeit trägt den Titel „EvoClaw: Evaluating AI Agents on Continuous Software Evolution“ (EvoClaw: Bewertung von KI-Agenten für kontinuierliche Software-Evolution) und wurde kürzlich auf der Preprint-Seite arXiv[1] veröffentlicht. Abb. | Zugehörige Facharbeit (Quelle: arXiv) Bisherige KI-Programmier-Bewertung und echte Erfahrung liegen auseinander—wo liegt das Problem? Warum scheitern die Top-Modelle, die in unabhängigen Tests hohe Punktzahlen erreichen, bei EvoClaw gemeinsam? Die Wurzel liegt darin, dass sich das Bewertungsparadigma geändert hat. In früheren Studien konzentrierten sich die gängigen Programmier-Benchmark-Bewertungsmaßstäbe größtenteils auf unabhängige Aufgaben: Man gibt ein Thema (Issue) oder einen Pull Request (PR) vor, und das Modell führt auf einem statischen Code-Snapshot die Reparatur aus; wenn die Verifikation erfolgreich ist, ist die Bewertung abgeschlossen. Doch zwischen den Ergebnissen der bisherigen Benchmarks und der realen Entwicklungsfähigkeit klafft eine Lücke, die man nicht ignorieren kann: Eine statische Umgebung ist ein relativ idealer Zustand, während die reale Umgebung viel komplexer und dynamischer ist. Mit der Zeit kann selbst ein kleiner Bug von vor Monaten—nach Versionseinführungen—so wachsen wie ein Schneeball, immer größer werden und schließlich zum Zusammenbruch des Systems führen. (Quelle: arXiv) Der Erstautor der Studie, Deng Gangda, Doktorand an der University of Southern California, teilte DeepTech mit: „Die gegenwärtige Granularität der Commits und Releases ist entweder zu kleinteilig oder zu grob. Daher können diese Entwicklungshistorien nicht den Prozess der Software-Evolution widerspiegeln.“ Abb. | Deng Gangda (Quelle: Befragter) Das Forschungsteam führte zum ersten Mal die Zeitebene in die Bewertung der KI-Programmierfähigkeit ein. Dabei nutzten sie eine völlig neue Hierarchieebene—Meilensteine (Milestone)—um die Historie der Software-Evolution zu rekonstruieren. Das kann sowohl die semantische Vollständigkeit als auch die Fähigkeit zur Beibehaltung evolutionärer Abhängigkeiten abdecken. Es fordert, dass die KI mehrere Funktionseinheiten in geordneter Reihenfolge im selben Code-Repository abschließt. So wird nicht nur jede einzelne Schritt-Ausgabe erhalten, sondern jede weitere Einheit wird auch zum Ausgangspunkt für den nächsten Schritt. (Quelle: arXiv) Um die hochwertige Software-Evolutionshistorie aus großen Mengen an Open-Source-Code-Repositorys zu extrahieren, schlugen die Forschenden auf Basis der starken Fähigkeiten führender KI eine Agent-getriebene Automatisierungs-Pipeline namens DeepCommit vor. Damit wurde erstmals eine chaotische Git-Entwicklungshistorie in einen verifizierbaren, funktional kohäsiven Milestone-Aufgaben-Abhängigkeitsgraphen (Milestone DAG) umgebaut. Außerdem wurde für jeden Milestone eine Bewertungsumgebung konstruiert. Das umfasst drei Phasen: Vorverarbeitung der Git-Historie, Agent-getriebener Aufbau des DAG und Konfiguration sowie Validierung der Milestone-Umgebung. In der Praxis ist es nicht einfach, die Agent-Historienentwicklung mit Milestones zu rekonstruieren: Es geht nicht nur darum, einen statischen, rein beobachtbaren DAG zu konstruieren, sondern um eine Reihe ausführbarer Bewertungsumgebungen. Gleichzeitig muss die Korrektheit auch dann gewahrt werden, wenn sich evolutionäre Abhängigkeiten ändern. Das bedeutet: Wenn man die gesamte Reihenfolge der Commits durcheinanderbringt und sie neu gruppiert miteinander verbindet, kann es zu Situationen kommen, in denen Commits nicht anwendbar sind, die Schnittstellen nicht zusammenpassen oder massive Kompilierungsfehler auftreten. Um dieses Problem anzugehen, entwarfen die Forschenden einen iterativen Reparatur-Loop: Der Agent analysiert aktiv die Fehlermeldungen, ändert dynamisch das Dockerfile und stellt die Ausführbarkeit sicher. Noch entscheidender ist, dass er auf Basis des ursprünglichen DAG ausgelassene implizite Abhängigkeiten ergänzt: Durch das Anpassen der Reihenfolge-Constraints der Milestones können Schnittstellenkonflikte angemessen gelöst werden. Nach wiederholten Iterationen gelang schließlich die korrekte Erfassung von 87.1% der ursprünglichen Testfälle. „Im Vergleich zu Szenarien mit einer einzelnen Programmieraufgabe ist stabile, zuverlässige und effektive langfristige autonome Programmierung ein noch vordergründigerer Forschungs-Hotspot. Beispielsweise haben Anthropic und OpenAI ganz klar gezeigt, dass sie ihren Schwerpunkt auf die Trainingsfähigkeit von Modellen für langfristige Programmierung verlagert haben.“ so Deng Gangda. Abb. | Diagramm der DeepCommit-Pipeline-Architektur (Quelle: arXiv) Die Forschenden verglichen den automatisch generierten Evolutionsgraphen von DeepCommit mit den manuell vorgenommenen Annotationen menschlicher Experten. Überraschend fanden sie, dass beide eine unterschiedliche Organisationslogik verwenden und sich gegenseitig ergänzen. Konkret: Die Milestones menschlicher Experten liegen typischerweise in einem lokalen Zeitfenster. Zuerst wird eine Fragestellung festgelegt, dann werden Commits entsprechend zusammengeführt—das ist eine semantische Zerlegung von oben nach unten. DeepCommit setzt dagegen für absolute Genauigkeit an den Abhängigkeitsbeziehungen zwischen Commits an und rekonstruiert die Software-Evolutionslinie von unten nach oben—es betont stärker die Topologie-Struktur und Ausführungsconstraints. Für die Bewertung zeigt das genau, dass DeepCommit darin liegt, aus der Code-Entwicklungshistorie eine ausführbare und verifizierbare Milestone-Struktur herauszuziehen. Aus den Ergebnissen lässt sich sehen, dass DeepCommit hochwertige, für die Bewertung geeignete Milestone-Aufgaben selektieren kann und dass sie in einer realen Umgebung ausführbar und verifizierbar sind—was eine Absicherung für die Zuverlässigkeit der Bewertung bietet. Sobald es in die reale Entwicklung geht, warum werden die Modellleistungen gemeinschaftlich „halbiert“? EvoClaw deckt fünf gängige Sprachen ab, darunter Python, Java, Go, Rust und TypeScript. Die ausgewählten Projekte erstrecken sich über den längsten realen Entwicklungszyklus von bis zu 750 Tagen. Bei den Bewertungsmetriken verwendete das Forschungsteam keine einfache Durchlaufquote. Stattdessen führte es zwei zentralere Dimensionen ein—Recall und Precision—und verwendete die F1-gewichtete Summe als Punktzahl für jedes Milestone. Dabei misst der Recall die Vollständigkeit der Funktionsumsetzung, während die Precision den Grad erfasst, in dem das Modell beim Hinzufügen neuer Funktionen vorhandenen Code beschädigt. Das Forschungsteam testete verschiedene Frameworks und Modell-Kombinationen wie Claude Code und OpenHands. Die Ergebnisse zeigen: In unabhängigen Bewertungen liegen die Punktzahlen vieler Top-Modelle typischerweise bei 80%-90%. Nach Durchführung der EvoClaw-Benchmark-Tests brachen sie jedoch gemeinsam drastisch ein. Selbst Claude Opus 4.6 mit der höchsten Punktzahl erhielt nur 38.03%. Abb. | Hauptergebnisse der EvoClaw-Hauptexperimente (Quelle: arXiv) GPT 5.3 Codex erzielt mit einer Gesamtpunktzahl von 28.88% nur knapp hinter Opus4.6 den zweiten Platz. Aufgeschlüsselt nach Repositories zeigt sich: GPT 5.3 Codex ist in zwei Rust-Projekten (Nushell, ripgrep) schwach, kann in den übrigen Repositories jedoch nahe an Opus4.6 herankommen oder es sogar übertreffen. Bei der vollständigen Lösungsquote hat selbst Gemini 3 Pro mit der höchsten Punktzahl nur 13.37%. Und der Großteil der Aufgaben, die korrekt gelöst werden, sind solche ohne vorausgehende Abhängigkeiten. Laut Angaben der Forschenden halten sie die Gesamtkosten im Rahmen. Am Beispiel von Claude Opus 4.5: Eine vollständige Bewertung kostet ungefähr 500 US-Dollar. Kimi K2.5 sowie Gemini 3 Flash liegen innerhalb von 50 US-Dollar; die Kosten für kleinere Modelle sind noch geringer. (Quelle: arXiv) Wenn man dem Modell ein längeres Entwicklungsfenster gibt—kann es am Ende das Projekt zu 100% fertigstellen? Die Studie gibt eine negative Antwort: Egal wie lang das Entwicklungsfenster ist, die Leistungen aller Modelle werden letztlich an eine „Decke“ (Ceiling) stoßen. Je weiter hinten die Ausführungsreihenfolge liegt und je tiefer die Ebene im DAG, desto niedriger werden Punktzahl und Lösungsquote. Ergebnisse aus Sättigungsfunktions-Extrapolation zeigen, dass selbst das beste Opus 4.6 die kumulierte Punktzahl bei etwa 45% auf einer asymptotischen Kurve „deckeln“ lässt. „Obwohl Opus 4.6 auf der offiziellen Anthropic-Website erwähnt, dass es bei langfristigen Aufgaben besser als 4.5 abschneidet, wurden keine detaillierten Bewertungsmetriken angegeben. EvoClaw verifiziert ihre Aussage aus einem anderen Blickwinkel.“ so Deng Gangda. Außerdem wurden in den Experimenten deutliche Unterschiede zwischen verschiedenen Modellfamilien beobachtet. Konkret: Die Leistung von Claude und GPT in Szenarien der kontinuierlichen Evolution steigt mit Aktualisierungen der Versionen schrittweise. Dabei hat Opus 4.6 bei der langfristigen Programmierung bewiesen, dass es die beste Wartungsfähigkeit für Systeme besitzt. GPT 5.3 liegt auf dem zweiten Platz, weil es aufgrund schlechter Leistungen auf dem Rust-Datensatz die Punktzahl drückt. (Quelle: arXiv) Überraschenderweise zeigt die Gemini-Familie einen vollständig anderen Trend: Von 3 Flash zu 3 Pro und weiter zu 3.1 Pro startet jede Generation früher, zeigt in der Frühphase bessere Leistungen—aber ihre Langstrecken-Leistung erfährt nahezu keine signifikante Verbesserung. Deng Gangda erklärte: „Der deutliche Rückgang bei Gemini bei Langzeitläufen bedeutet, dass es nicht nur schlechter Anweisungen folgt und immer mehr die Anforderungen an Software-Spezifikationen (SRS) ignoriert, sondern auch an der Wartung des konstruierten Softwaresystems mangelt.“ Wenn die Forschenden schließlich die Gesamtpunktzahl weiter in Recall und Precision zerlegen, tritt ein noch interessanteres Phänomen auf: Der Recall steigt nahezu kontinuierlich und nähert sich einem linearen Wachstum an. Das bedeutet: Selbst wenn das Code-Repository immer chaotischer und fragiler wird, ist der Agent weiterhin gut darin, die jeweils neu vorgegebenen Ziel-Funktionen umzusetzen. Die eigentliche Engstelle liegt in der Precision: Der Agent hat Schwierigkeiten, bestehende Systeme zu warten; die Geschwindigkeit, mit der Rückkehrfehler sich anhäufen, übersteigt seine Fähigkeit, diese Probleme zu beheben—und genau das ist die grundlegende Ursache, warum die langfristige Entwicklung am Ende ins Stocken gerät. Abb. | Links: schematische Darstellung der Error Chains; rechts: Verteilung der Error Chains (Quelle: arXiv) Um die grundlegende Ursache zu verstehen, warum das Modell in Iterationen außer Kontrolle gerät, schlug das Forschungsteam ein Analyse-Framework für Error Chains vor. Sie verfolgen ab dem ersten Fehltritt jeden Testfall und beobachten, ob Fehler in nachfolgenden Milestones vererbt, sich ausbreiten, übersprungen oder behoben werden. Die Ergebnisse zeigen: Die Entstehungsrate neuer Probleme beschleunigt sich nicht. Das Modell repariert sogar in gewissem Umfang tatsächlich einige frühere Fehler passiv. Doch die Akkumulationsrate der vorausgehenden Fehler liegt weit über der Reparaturgeschwindigkeit. Am Ende gerät es in eine „Insolvenz der technischen Schulden“. Allgemeine Bewertung für Debugging im AI Harness bereitstellen Kürzlich gibt es ein sehr heißes Konzept namens „Harness Engineering“, das darauf abzielt, den gesamten Softwareentwicklungsprozess in eine Umgebung zu konfigurieren, die für Agenten geeignet ist. Der EvoClaw-Benchmark bietet dafür eine allgemeine Spielwiese (playground), die sich zum Debugging der AI-Harness-Frameworks eignet und für die Bewertung langfristiger Code-Evolution ausgelegt ist. Zum Beispiel: Bei den im Rahmen dieser Studie erwähnten Fehlschlägen ist es sehr wahrscheinlich, dass der Agent, wenn er plötzlich sehr aktiv iteriert oder ständig editiert und ständig validiert, auf Schwierigkeiten stößt. In einem solchen Fall kann man an der entsprechenden Stelle Schutzmaßnahmen einbauen, um Probleme frühzeitig zu erkennen und rechtzeitig menschlich einzugreifen—und so die Effizienz zu erhöhen. Wenn die Modellarchitektur dem Agenten diese allgemeine Eigenschaft gibt, dass „das Umsetzen neuer Funktionen deutlich stärker ist als das Warten langfristiger alter Funktionen“, wird dann in der Zukunft neue Softwareformen und Entwicklungsmodelle entstehen? Zum Beispiel wird Software stärker auf Flexibilität und Kompatibilität setzen; oder zuverlässigere großangelegte Umstrukturierungen und Neuzusammensetzungen; oder es wird noch stärker in Richtung „Einmal-nutzbar“ gehen—konkrete Geschäftslogik wird in Echtzeit generiert und muss nicht gewartet werden. Der Fokus liegt dann auf der Stärkung wiederverwendbarer Komponenten und Infrastruktur. Das Forschungsteam ist der Meinung, dass man bei Entwicklungsmodellen die Anforderungen an Softwarequalität angemessen lockern kann, um die Anzahl der menschlichen Eingriffe zu reduzieren, im Austausch für höhere Durchsatzleistung. Das würde letztlich die Iteration von Software beschleunigen. Deng Gangda wies darauf hin: „Diese Studie zeigt, dass wir auf dem richtigen Weg sind: Die langfristige Programmierfähigkeit von KI hat noch keine Engstelle erreicht. Sie kann sich mit der Zeit stabil verbessern. Es besteht Potenzial, dass sich irgendwann ganz plötzlich—vom quantitativen Wandel der Ranking-Punkte hin zum qualitativen Wandel—die Art verändert, wie die Welt beeinflusst wird.“ Mit der Entwicklung der Technik könnte es sein, dass zukünftige KI sich von der schrittweisen Verringerung menschlicher Beteiligung an der Softwareentwicklung hin zu einer Evolution entwickelt, bei der die KI selbst neue Anforderungen stellt, um Code-Repositorys weiterzuentwickeln; bis hin dazu, dass KI Menschen vollständig überholt, Menschen verwirft und am Ende eine ständige Selbstentwicklung erreicht. Referenzen: 1. Zugehörige Facharbeit: 2. Projekt-Homepage: 3. Satz: Liu Yaqun Unmengen an Informationen, präzise Analysen—alles in der Sina Finance App
1
0
0
0