Sora taucht auf: Wird 2024 das Jahr der KI+Web3-Revolution?

EinsteigerFeb 29, 2024
Abgesehen von Depin, welche Art von Funken kann die Verflechtung von Web3 und KI entfachen? Welche Möglichkeiten bietet der Sora-Track? Dieser Artikel befasst sich auch mit den Möglichkeiten von Web3 im Zeitalter der KI.
Sora taucht auf: Wird 2024 das Jahr der KI+Web3-Revolution?

Vorwort

Am 16. Februar kündigte OpenAI sein neuestes generatives Text-zu-Video-Diffusionsmodell namens "Sora" an, das mit seiner Fähigkeit, qualitativ hochwertige Videos über eine Vielzahl visueller Datentypen zu produzieren, einen weiteren Meilenstein in der generativen KI darstellt. Im Gegensatz zu KI-Videogenerierungstools wie Pika, die einige Sekunden Video aus mehreren Bildern generieren, trainiert Sora den komprimierten latenten Raum von Videos und Bildern und zerlegt sie in raumzeitliche Patches für eine skalierbare Videogenerierung. Darüber hinaus demonstriert das Modell die Fähigkeit, sowohl physische als auch digitale Welten zu simulieren, wobei seine 60-sekündige Demo als "universeller Simulator der physischen Welt" beschrieben wird.

Sora setzt den technischen Weg der "Quelldaten-Transformer-Diffusion-Emergenz" fort, der in früheren GPT-Modellen zu beobachten war, was darauf hindeutet, dass seine Entwicklungsreife auch von der Rechenleistung abhängt. Angesichts des größeren Datenvolumens, das für das Videotraining im Vergleich zu Text benötigt wird, ist zu erwarten, dass der Bedarf an Rechenleistung weiter steigen wird. Wie jedoch in unserem früheren Artikel "Promising Sector Preview: The Decentralized Computing Power Market" erläutert, wurde die Bedeutung der Rechenleistung in der KI-Ära untersucht, und mit der steigenden Popularität von KI sind zahlreiche Rechenleistungsprojekte entstanden, von denen andere Depin-Projekte (Speicher, Rechenleistung usw.) mit einem Wertzuwachs profitieren. Über Depin hinaus zielt dieser Artikel darauf ab, vergangene Diskussionen zu aktualisieren und zu vervollständigen, indem er über die Funken nachdenkt, die sich aus der Verflechtung von Web3 und KI ergeben könnten, und über die Möglichkeiten, die sich aus dieser Entwicklung im KI-Zeitalter ergeben.

Die Entwicklung der KI: Drei Hauptrichtungen

Künstliche Intelligenz (KI) ist ein aufstrebendes Feld, das sich auf die Nachahmung, Erweiterung und Bereicherung menschlicher Intelligenz konzentriert. Seit ihren Anfängen in den 1950er und 1960er Jahren hat sich die KI über ein halbes Jahrhundert weiterentwickelt und sich zu einer zentralen Technologie entwickelt, die den gesellschaftlichen Wandel und verschiedene Branchen vorantreibt. Auf diesem Weg hat der verflochtene Fortschritt von drei primären Forschungsrichtungen – Symbolismus, Konnektionismus und Behaviorismus – den Grundstein für den rasanten Fortschritt der heutigen KI gelegt.

Symbolik

Symbolismus, auch als Logikismus oder regelbasiertes Denken bezeichnet, postuliert, dass die Replikation menschlicher Intelligenz durch Symbolverarbeitung machbar ist. Bei diesem Ansatz werden Symbole verwendet, um Objekte, Konzepte und ihre Beziehungen innerhalb einer bestimmten Problemdomäne darzustellen und zu manipulieren, wobei logisches Denken zur Lösung von Problemen eingesetzt wird. Die Symbolik hat vor allem in den Bereichen Expertensysteme und Wissensrepräsentation bemerkenswerte Erfolge erzielt. Sein zentraler Grundsatz ist, dass intelligentes Verhalten durch Symbolmanipulation und logische Schlussfolgerung realisiert werden kann, wobei Symbole als hochrangige Abstraktionen der realen Welt dienen.

Konnektionismus

Der Konnektionismus, auch bekannt als neuronaler Netzwerkansatz, zielt darauf ab, Intelligenz zu erreichen, indem er die Struktur und Funktionalität des menschlichen Gehirns widerspiegelt. Diese Methode konstruiert Netzwerke aus zahlreichen einfachen Verarbeitungseinheiten, die Neuronen ähneln, und passt die Verbindungsstärke zwischen diesen Einheiten, ähnlich wie Synapsen, an, um das Lernen zu erleichtern. Der Konnektionismus betont das Lernen und die Generalisierung aus Daten und eignet sich gut für Aufgaben wie Mustererkennung, Klassifizierung und kontinuierliches Input-Output-Mapping. Deep Learning, eine Weiterentwicklung des Konnektionismus, hat Durchbrüche in Bereichen wie der Bild- und Spracherkennung sowie der Verarbeitung natürlicher Sprache erzielt.

Behaviorismus

Der Behaviorismus, der eng mit der biomimetischen Robotik und der Forschung zu autonomen intelligenten Systemen verbunden ist, unterstreicht, dass intelligente Agenten durch Umweltinteraktion lernen können. Im Gegensatz zu den vorangegangenen Ansätzen konzentriert sich der Behaviorismus nicht auf die Simulation interner Repräsentationen oder kognitiver Prozesse, sondern erreicht adaptives Verhalten durch den Wahrnehmungs-Handlungs-Zyklus. Es geht davon aus, dass sich Intelligenz durch dynamische Umweltinteraktion und Lernen manifestiert, was sie besonders effektiv für mobile Roboter und adaptive Steuerungssysteme macht, die in komplexen und unvorhersehbaren Umgebungen arbeiten.

Trotz ihrer grundlegenden Unterschiede können diese drei Forschungsrichtungen in der praktischen KI-Forschung und -Anwendung synergetisch zusammenarbeiten und sich gegenseitig ergänzen und gemeinsam die Entwicklung des Feldes vorantreiben.

Die Prinzipien von AIGC

Das aufstrebende Feld der Artificial Intelligence Generated Content (AIGC) stellt eine Weiterentwicklung und Anwendung des Konnektionismus dar und erleichtert die Generierung neuartiger Inhalte durch die Nachahmung menschlicher Kreativität. Diese Modelle werden mit riesigen Datensätzen und Deep-Learning-Algorithmen trainiert, um zugrunde liegende Strukturen, Beziehungen und Muster innerhalb der Daten zu erkennen. Angeregt durch Benutzereingaben erzeugen sie verschiedene Ausgaben, darunter Bilder, Videos, Code, Musik, Designs, Übersetzungen, Antworten auf Fragen und Text. Derzeit besteht AIGC im Wesentlichen aus drei Elementen: Deep Learning (DL), Big Data und Massive Computational Power.

Tiefes Lernen

Deep Learning, eine Teilmenge des maschinellen Lernens (ML), verwendet Algorithmen, die den neuronalen Netzen des menschlichen Gehirns nachempfunden sind. So wie das menschliche Gehirn aus miteinander verbundenen Neuronen besteht, die Informationen verarbeiten, bestehen neuronale Deep-Learning-Netze aus mehreren Schichten künstlicher Neuronen, die Berechnungen in einem Computer durchführen. Diese künstlichen Neuronen oder Knoten nutzen mathematische Operationen, um Daten zu verarbeiten und komplexe Probleme durch Deep-Learning-Algorithmen zu lösen.

Neuronale Netze bestehen aus Schichten: Eingabe, Ausgeblendet und Ausgabe, mit Parametern, die diese Schichten miteinander verbinden.

· Eingabeschicht: Die erste Schicht des neuronalen Netzes empfängt externe Eingabedaten. Jedes Neuron innerhalb dieser Schicht entspricht einem Merkmal der Eingabedaten. Bei der Verarbeitung von Bilddaten können beispielsweise einzelne Neuronen Pixelwerte darstellen.

· Verborgene Schichten: Nach der Eingabeschicht verarbeiten und übertragen die verborgenen Schichten Daten über das Netzwerk. Diese Schichten analysieren Informationen auf verschiedenen Ebenen und passen ihr Verhalten an, wenn sie neue Eingaben erhalten. Deep-Learning-Netzwerke können Hunderte von versteckten Schichten haben, die eine facettenreiche Problemanalyse ermöglichen. Wenn beispielsweise ein unbekanntes Tier anhand eines Bildes klassifiziert wird, kann das Netzwerk es mit bekannten Tieren vergleichen, indem es Merkmale wie Ohrform, Beinanzahl und Pupillengröße bewertet. Verborgene Layer funktionieren ähnlich, da sie jeweils unterschiedliche Tiermerkmale verarbeiten, um eine genaue Klassifizierung zu ermöglichen.

· Ausgabeschicht: Die letzte Schicht des neuronalen Netzes erzeugt die Ausgabe des Netzwerks. Neuronen innerhalb dieser Schicht stellen potenzielle Ausgabekategorien oder -werte dar. Bei Klassifizierungsaufgaben kann jedes Neuron einer Kategorie entsprechen, während bei Regressionsaufgaben die Ausgabeschicht ein einzelnes Neuron enthalten kann, dessen Wert das Ergebnis vorhersagt.

· Parameter: In neuronalen Netzen werden Verbindungen zwischen verschiedenen Schichten durch Gewichtungen und Verzerrungen dargestellt, die während des Trainingsprozesses optimiert werden, damit das Netzwerk Muster in den Daten genau erkennen und Vorhersagen treffen kann. Steigende Parameter können die Modellkapazität des neuronalen Netzes erhöhen, d.h. die Fähigkeit, komplexe Muster in den Daten zu erlernen und darzustellen. Damit steigt aber auch der Bedarf an Rechenleistung.

Big Data

Für ein effektives Training neuronaler Netze sind in der Regel umfangreiche, vielfältige, qualitativ hochwertige Daten aus mehreren Quellen erforderlich. Solche Daten bilden den Grundstein für das Training und die Validierung von Machine-Learning-Modellen. Durch Big-Data-Analysen können Modelle des maschinellen Lernens Muster und Beziehungen innerhalb der Daten identifizieren und so Vorhersagen oder Klassifizierungen erleichtern.

Enorme Rechenleistung

Die komplizierte mehrschichtige Struktur neuronaler Netze, zahlreiche Parameter, Anforderungen an die Verarbeitung großer Datenmengen, iterative Trainingsmethoden (einschließlich wiederholter Vorwärts- und Rückwärtsausbreitungsberechnungen, einschließlich Aktivierungs- und Verlustfunktionsberechnungen, Gradientenberechnungen und Gewichtsaktualisierungen), hochpräzise Rechenanforderungen, parallele Rechenkapazitäten, Optimierungs- und Regularisierungstechniken sowie Modellbewertungs- und Validierungsprozesse tragen zusammen zu einer wesentlichen Anforderungen an die Rechenleistung.

Carolinasumpfhuhn

Sora, das KI-Modell der neuesten Videogeneration von OpenAI, steht für einen erheblichen Fortschritt in der Fähigkeit der künstlichen Intelligenz, verschiedene visuelle Daten zu verarbeiten und zu verstehen. Durch den Einsatz von Videokompressionsnetzwerken und raumzeitlichen Patch-Techniken kann Sora große Mengen an visuellen Daten, die weltweit und von verschiedenen Geräten erfasst wurden, in eine einheitliche Darstellung umwandeln. Diese Fähigkeit ermöglicht die effiziente Verarbeitung und das Verständnis komplexer visueller Inhalte. Sora verwendet textkonditionierte Diffusionsmodelle, um Videos oder Bilder zu generieren, die stark mit Textaufforderungen korrelieren, was eine bemerkenswerte Kreativität und Anpassungsfähigkeit zeigt.

Trotz der Durchbrüche von Sora bei der Videogenerierung und der Simulation realer Interaktionen stößt es auf gewisse Einschränkungen. Dazu gehören die Genauigkeit von Simulationen der physischen Welt, die Konsistenz bei der Erstellung langer Videos, das Verständnis komplexer Textanweisungen und die Effizienz beim Training und der Generierung. Im Wesentlichen folgt Sora der technischen Entwicklung "Big Data-Transformer-Diffusion-Emergence", die durch die monopolistische Rechenleistung und den First-Mover-Vorteil von OpenAI erleichtert wird, was zu einer Form der Brute-Force-Ästhetik führt. Andere KI-Unternehmen haben jedoch immer noch das Potenzial, Sora durch technologische Innovationen zu übertreffen.

Während Soras Verbindung zur Blockchain bescheiden bleibt, wird erwartet, dass der Einfluss von Sora in den nächsten ein oder zwei Jahren zur Entstehung und schnellen Entwicklung anderer hochwertiger KI-Generierungstools führen wird. Es wird erwartet, dass sich diese Entwicklungen auf verschiedene Web3-Sektoren wie GameFi, soziale Plattformen, kreative Plattformen, Depin usw. auswirken werden. Folglich ist es wichtig, ein allgemeines Verständnis von Sora zu erlangen, und die Überlegung, wie KI in Zukunft effektiv in das Web3 integriert werden kann, wird zu einer entscheidenden Überlegung.

Die vier Wege der KI x Web3-Integration

Wie bereits erwähnt, lassen sich die grundlegenden Komponenten, die für generative KI unerlässlich sind, in drei Hauptelementen zusammenfassen: Algorithmen, Daten und Rechenleistung. Umgekehrt revolutioniert KI als universelles Werkzeug mit weitreichenden Auswirkungen auf die Produktionsmethoden die Arbeitsweise der Industrie. Inzwischen hat die Blockchain-Technologie zwei wesentliche Auswirkungen: Sie strukturiert Produktionsbeziehungen neu und ermöglicht Dezentralisierung. Somit kann die Konvergenz dieser beiden Technologien zu vier möglichen Wegen führen:

Dezentrale Rechenleistung

Dieser Abschnitt soll Einblicke in die aktuelle Landschaft der Rechenleistung geben. Im Bereich der KI hat die Rechenleistung eine immense Bedeutung. Die Nachfrage nach Rechenleistung in der KI, die nach dem Aufkommen von Sora besonders hervorgehoben wurde, hat ein noch nie dagewesenes Niveau erreicht. Während des Weltwirtschaftsforums in Davos, Schweiz, im Jahr 2024 betonte der CEO von OpenAI, Sam Altman, dass Rechenleistung und Energie derzeit die größten Einschränkungen sind, was auf ihre zukünftige Äquivalenz mit Währungen hindeutet. Am 10. Februar kündigte Sam Altman über Twitter einen bahnbrechenden Plan an, um erstaunliche 7 Billionen USD (entspricht 40 % des chinesischen BIP im Jahr 2023) aufzubringen, um die globale Halbleiterindustrie zu revolutionieren und ein Halbleiterimperium zu errichten. Bisher beschränkten sich meine Überlegungen zur Rechenleistung auf nationale Beschränkungen und Unternehmensmonopole; Die Vorstellung eines einzigen Unternehmens, das danach strebt, den globalen Halbleitersektor zu dominieren, ist jedoch wirklich bemerkenswert.

Die Bedeutung dezentraler Rechenleistung liegt auf der Hand. Die Funktionen der Blockchain bieten Lösungen für die vorherrschenden Probleme der Monopolisierung der Rechenleistung und die exorbitanten Kosten, die mit dem Erwerb spezialisierter GPUs verbunden sind. Aus der Perspektive der KI-Anforderungen kann die Auslastung der Rechenleistung in zwei Aspekte eingeteilt werden: Inferenz und Training. Projekte, die sich primär auf die Ausbildung konzentrieren, sind aufgrund der komplexen Integration dezentraler Netzwerke und der hohen Hardwareanforderungen selten, was erhebliche Hürden für die Umsetzung darstellt. Umgekehrt sind Inferenzaufgaben relativ einfach, mit weniger komplizierten dezentralen Netzwerkdesigns und geringeren Hardware- und Bandbreitenanforderungen, was einen zugänglicheren Weg darstellt.

Die Landschaft der zentralisierten Rechenleistung birgt ein enormes Potenzial, das oft mit dem Deskriptor der "Billionenebene" in Verbindung gebracht wird, und bleibt ein stark sensationslüsternes Thema im KI-Zeitalter. Betrachtet man jedoch die Vielzahl der jüngsten Projekte, so scheinen viele von ihnen voreilig konzipierte Unternehmungen zu sein, die darauf abzielen, aus Trends Kapital zu schlagen. Während diese Projekte oft die Dezentralisierung befürworten, neigen sie dazu, Diskussionen über die Ineffizienzen dezentraler Netzwerke zu umgehen. Darüber hinaus gibt es ein bemerkenswertes Maß an Einheitlichkeit im Design, wobei zahlreiche Projekte ähnliche Ansätze verfolgen (z. B. Ein-Klick-L2 plus Mining-Design), was möglicherweise zum Scheitern führt und die Bemühungen erschwert, sich vom traditionellen KI-Rennen abzuheben.

Kollaborationssystem für Algorithmen und Modelle

Algorithmen des maschinellen Lernens sind so konzipiert, dass sie Muster und Regeln aus Daten lernen, sodass sie auf der Grundlage dieser erlernten Muster Vorhersagen oder Entscheidungen treffen können. Aufgrund der Komplexität, die mit ihrem Design und ihrer Optimierung verbunden ist, sind Algorithmen von Natur aus technologieintensiv und erfordern tiefgreifendes Fachwissen und technologische Innovation. Sie dienen als Rückgrat für das Training von KI-Modellen und geben vor, wie Daten verarbeitet werden, um nützliche Erkenntnisse abzuleiten oder Entscheidungen zu treffen. Bemerkenswerte generative KI-Algorithmen wie Generative Adversarial Networks (GANs), Variational Autoencoder (VAEs) und Transformer sind auf bestimmte Bereiche wie Malerei, Spracherkennung, Übersetzung oder Videogenerierung zugeschnitten und helfen beim Training spezialisierter KI-Modelle.

Die Fülle an Algorithmen und Modellen mit unterschiedlichen Stärken wirft die Frage auf: Können sie in ein vielseitiges Modell integriert werden? Bittensor, ein kürzlich bekanntes Projekt, führt die Bemühungen in diese Richtung an, indem es Anreize für die Zusammenarbeit zwischen verschiedenen KI-Modellen und -Algorithmen schafft und so die Entwicklung effizienterer und leistungsfähigerer KI-Modelle fördert. Andere Initiativen, wie z. B. Commune AI, konzentrieren sich auf die Förderung der Code-Zusammenarbeit, obwohl die gemeinsame Nutzung von Algorithmen und Modellen aufgrund ihres proprietären Charakters innerhalb von KI-Unternehmen nach wie vor eine Herausforderung darstellt.

Das Konzept eines kollaborativen KI-Ökosystems ist faszinierend und nutzt die Blockchain-Technologie, um die Nachteile zu mildern, die mit isolierten KI-Algorithmen verbunden sind. Seine Fähigkeit, einen entsprechenden Wert zu generieren, muss jedoch noch ermittelt werden. Etablierte KI-Unternehmen, die mit proprietären Algorithmen und Modellen ausgestattet sind, verfügen über starke Fähigkeiten bei der Aktualisierung, Iteration und Integration ihrer Technologien. Zum Beispiel hat sich OpenAI innerhalb von zwei Jahren von frühen Textgenerierungsmodellen zu generativen Multi-Domain-Modellen entwickelt. Projekte wie Bittensor müssen möglicherweise innovative Wege in ihren Zielbereichen erkunden, um effektiv konkurrieren zu können.

Dezentrales Big Data

Vereinfacht betrachtet sind die Integration privater Daten zur Förderung von KI und das Kommentieren von Daten Wege, die gut mit der Blockchain-Technologie harmonieren. Die Hauptbedenken drehen sich darum, wie man Datenmüll und böswillige Aktivitäten vereiteln kann. Darüber hinaus kann die Datenspeicherung für Depin-Projekte wie FIL und AR von Vorteil sein.

Aus einem komplexeren Blickwinkel betrachtet, stellt die Nutzung von Blockchain-Daten für maschinelles Lernen (ML) zur Verbesserung der Zugänglichkeit von Blockchain-Daten eine weitere überzeugende Richtung dar, wie von Gizeh untersucht.

Theoretisch sind Blockchain-Daten jederzeit zugänglich und spiegeln den Zustand der gesamten Blockchain wider. Für diejenigen, die nicht am Blockchain-Ökosystem beteiligt sind, ist der Zugriff auf diese umfangreichen Datensätze jedoch nicht einfach. Die Speicherung einer gesamten Blockchain erfordert erhebliches Fachwissen und spezialisierte Hardware-Ressourcen.

Um die Herausforderungen beim Zugriff auf Blockchain-Daten zu meistern, hat die Branche das Aufkommen mehrerer Lösungen erlebt. RPC-Anbieter bieten beispielsweise Knotenzugriff über APIs, während Indexierungsdienste den Datenabruf über SQL und GraphQL erleichtern und eine entscheidende Rolle bei der Entschärfung des Problems spielen. Dennoch haben diese Methoden ihre Grenzen. RPC-Dienste sind für Anwendungsfälle mit hoher Dichte, die umfangreiche Datenabfragen erfordern, unzureichend und erfüllen die Anforderungen oft nicht. Obwohl Indexierungsdienste einen strukturierteren Ansatz für den Datenabruf bieten, macht die Komplexität der Web3-Protokolle die Erstellung effizienter Abfragen äußerst schwierig und erfordert manchmal Hunderte oder sogar Tausende von Zeilen komplexen Codes. Diese Komplexität stellt ein erhebliches Hindernis für allgemeine Datenpraktiker und diejenigen dar, die nur ein begrenztes Verständnis der Web3-Feinheiten haben. Die kollektiven Auswirkungen dieser Einschränkungen unterstreichen die Notwendigkeit einer zugänglicheren und nutzbareren Methode zur Gewinnung und Nutzung von Blockchain-Daten, die eine breitere Anwendung und Innovation in diesem Bereich vorantreiben könnte.

Daher könnte die Verschmelzung von ZKML (Zero-Knowledge Proof Machine Learning, das die Belastung der Kette durch maschinelles Lernen verringert) mit hochwertigen Blockchain-Daten potenziell zu Datensätzen führen, die die Herausforderungen der Zugänglichkeit von Blockchain-Daten angehen. KI hat das Potenzial, die Hürden für den Zugang zu Blockchain-Daten deutlich zu senken. Im Laufe der Zeit könnten Entwickler, Forscher und ML-Enthusiasten Zugang zu qualitativ hochwertigeren, relevanten Datensätzen erhalten, um effektive und innovative Lösungen zu entwickeln.

KI-Empowerment für Dapps

Seit der Explosion von ChatGPT3 im Jahr 2023 ist die KI-Befähigung für Dapps zu einer sehr verbreiteten Richtung geworden. Die breit einsetzbare generative KI kann über APIs integriert werden und so Datenplattformen, Trading-Bots, Blockchain-Enzyklopädien und andere Anwendungen vereinfachen und intelligenter machen. Es kann auch als Chatbot (wie Myshell) oder KI-Begleiter (wie Sleepless AI) fungieren und sogar NPCs in Blockchain-Spielen mit generativer KI erstellen. Aufgrund der geringen technischen Hürden sind die meisten Implementierungen jedoch nur Optimierungen nach der Integration einer API, und die Integration mit den Projekten selbst ist oft nicht perfekt und wird daher selten erwähnt.

Mit dem Aufkommen von Sora glaube ich persönlich, dass die KI-Stärkung für GameFi (einschließlich des Metaverse) und kreative Plattformen in Zukunft der Hauptfokus sein wird. Angesichts des Bottom-up-Charakters des Web3-Bereichs ist es unwahrscheinlich, Produkte zu produzieren, die direkt mit traditionellen Spielen oder kreativen Unternehmen konkurrieren können. Das Auftauchen von Sora hat jedoch das Potenzial, diese Sackgasse zu durchbrechen, möglicherweise innerhalb von nur zwei bis drei Jahren. Nach der Demo von Sora scheint es in der Lage zu sein, mit Mikro-Drama-Unternehmen zu konkurrieren. Darüber hinaus kann die aktive Community-Kultur des Web3 eine Fülle interessanter Ideen fördern. Wenn die einzige Grenze die Vorstellungskraft ist, werden die Barrieren zwischen der Bottom-up-Industrie und der traditionellen Top-down-Industrie bröckeln.

Schlussfolgerung

Da generative KI-Tools weiter voranschreiten, werden wir in Zukunft weitere transformative "iPhone-Momente" erleben. Trotz anfänglicher Skepsis gegenüber der Integration von KI in das Web3 bin ich zuversichtlich, dass die aktuellen Entwicklungen im Allgemeinen auf dem richtigen Weg sind, wenn auch mit drei Hauptproblemen, die Aufmerksamkeit erfordern: Notwendigkeit, Effizienz und Kompatibilität. Auch wenn die Konvergenz dieser Bereiche noch explorativ ist, sollte sie uns nicht davon abhalten, uns eine Mainstream-Einführung im bevorstehenden Bullenmarkt vorzustellen.

Eine Denkweise der Neugier und Empfänglichkeit für neue Ideen ist von entscheidender Bedeutung. Historische Präzedenzfälle, wie der rasche Übergang von Pferdekutschen zu Automobilen und die Entwicklung von Inschriften in früheren NFTs, unterstreichen, wie wichtig es ist, übermäßige Verzerrungen zu vermeiden, die oft zu verpassten Chancen führen.

Verzichtserklärung:

  1. Dieser Artikel ist ein Nachdruck von [Deep Tide], Alle Urheberrechte liegen beim ursprünglichen Autor [YBB Capital Zeke]. Wenn es Einwände gegen diesen Nachdruck gibt, wenden Sie sich bitte an das Gate Learn-Team , das sich umgehend darum kümmern wird.
  2. Haftungsausschluss: Die in diesem Artikel geäußerten Ansichten und Meinungen sind ausschließlich die des Autors und stellen keine Anlageberatung dar.
  3. Übersetzungen des Artikels in andere Sprachen werden vom Gate Learn-Team durchgeführt. Sofern nicht anders angegeben, ist das Kopieren, Verbreiten oder Plagiieren der übersetzten Artikel verboten.
ابدأ التداول الآن
اشترك وتداول لتحصل على جوائز ذهبية بقيمة
100 دولار أمريكي
و
5500 دولارًا أمريكيًا
لتجربة الإدارة المالية الذهبية!
إنشاء حساب الآن