Aethir : un acteur de la puissance de l'informatique en cloud décentralisée avec trois voies.
Le développement des grands modèles LLM et de l'IA est l'un des progrès technologiques les plus remarquables de l'histoire humaine, marquant l'entrée de l'humanité dans l'ère de l'IA. Dans ce nouveau monde, la "puissance de calcul" est la ressource la plus rare. La tendance du développement de la puissance de calcul est le calcul en périphérie, qui peut efficacement réduire la latence physique et devenir la pierre angulaire du développement d'industries nécessitant une faible latence comme le métavers ; le cloud computing décentralisé et distribué offre des avantages en termes de flexibilité, de prix bas et de résistance à la censure, et a des perspectives de développement très vastes.
Aethir est une plateforme de rendu en temps réel décentralisée basée sur le réseau Arbitrum, qui regroupe des GPU à haute capacité de calcul comme les H100 pour fournir des services de puissance de calcul de niveau entreprise aux entreprises de jeux, d'intelligence artificielle, etc. Aethir a déjà collaboré avec plusieurs projets de premier plan ainsi que des studios de jeux et des entreprises de télécommunications, et on s'attend à ce que les revenus annuels récurrents de la première trimestre 2024 dépassent 20 millions de dollars.
Aethir Edge a considérablement abaissé le seuil d'entrée pour les utilisateurs ordinaires souhaitant vendre de la puissance de calcul excédentaire, et a grandement élargi la couverture géographique du réseau Aethir. Aethir a déjà obtenu 80 millions de dollars grâce à la vente de NFT de nœuds vérificateurs, prouvant que les perspectives et le modèle économique de son projet sont très attractifs pour un large public. Le coût d'utilisation par heure de l'A100 sur le réseau Aethir est significativement inférieur à celui des autres concurrents, offrant un avantage concurrentiel évident.
Le changement dans le processus de développement de la société humaine est souvent réalisé grâce à quelques inventions et avancées scientifiques extrêmement importantes. Chaque percée technologique crée directement une nouvelle ère plus efficace et prospère.
La révolution industrielle, la révolution électrique et la révolution de l'information sont des avancées technologiques d'une grande ampleur dans l'histoire de l'humanité, transformant complètement le visage de la société humaine et apportant une productivité et un mode de vie sans précédent. Maintenant, nous ne pouvons plus revenir à l'époque des lampes à huile et des diligences pour transmettre des lettres. Avec la naissance de GPT, l'humanité entre dans une nouvelle grande époque.
LLM libère progressivement l'intelligence humaine, permettant aux gens de consacrer leur énergie et leur intelligence limitées à des réflexions et des pratiques plus créatives. Les gens entrent ainsi dans un monde plus efficace.
Nous considérons GPT comme une autre percée technologique qui change le monde, non seulement en raison des énormes progrès de GPT en compréhension et génération de langage naturel, mais aussi parce que l'humanité a compris dans l'évolution de GPT les lois de la croissance des capacités des grands modèles de langage ------ c'est-à-dire qu'en élargissant constamment les paramètres du modèle et les données d'entraînement, on peut obtenir une augmentation exponentielle des capacités du modèle LLM. Tant que la puissance de calcul est suffisante, ce processus ne montre pas de limites pour le moment.
Les applications des grands modèles de langage ne se limitent pas à comprendre le langage humain et à dialoguer, au contraire, ce n'est qu'un début. Une fois que les machines ont la capacité de comprendre le langage, c'est comme ouvrir une boîte de Pandore, libérant un espace d'imagination infini. Les gens peuvent tirer parti de cette capacité de l'IA pour développer diverses fonctionnalités disruptives.
Actuellement, dans divers domaines technologiques croisés, les modèles LLM commencent à faire leurs preuves. Des domaines humanistes comme la production vidéo et la création artistique, jusqu'aux domaines de la technologie dure comme le développement de médicaments et la biotechnologie, des changements radicaux sont inévitables.
À cette époque, la puissance de calcul est considérée comme une ressource rare, les grandes entreprises technologiques disposant de ressources abondantes, tandis que les développeurs émergents font face à des barrières à l'entrée dues à un manque de puissance de calcul. Dans la nouvelle ère de l'IA, la puissance de calcul est synonyme de pouvoir, ceux qui maîtrisent la puissance de calcul ont la capacité de changer le monde. Les GPU, en tant que pierre angulaire du deep learning et du calcul scientifique, jouent un rôle crucial dans ce domaine.
Dans le domaine de l'intelligence artificielle en rapide évolution (AI), nous devons reconnaître les deux aspects du développement : l'entraînement des modèles et le raisonnement. Le raisonnement concerne les fonctions et les résultats des modèles d'IA, tandis que l'entraînement inclut le processus complexe nécessaire à la construction de modèles intelligents, qui comprend des algorithmes d'apprentissage automatique, des ensembles de données et des capacités de calcul.
Prenons GPT-4 comme exemple. Si l'on souhaite obtenir des raisonnements de haute qualité, les développeurs doivent acquérir un ensemble de données de base complet et une énorme capacité de calcul pour entraîner un modèle d'IA efficace. Ces ressources sont principalement concentrées entre les mains des géants de l'industrie tels qu'NVIDIA, Google, Microsoft et AWS.
Les coûts de calcul élevés et les barrières à l'entrée empêchent davantage de développeurs de pénétrer le marché, renforçant ainsi la position des principaux acteurs. Ils possèdent de grands ensembles de données et une capacité de calcul importante, avec la capacité d'augmenter continuellement leur échelle et de réduire leurs coûts, ce qui rend les barrières sectorielles encore plus solides.
Mais nous ne pouvons nous empêcher de réfléchir : existe-t-il des solutions pour réduire les coûts de calcul et les barrières à l'entrée du secteur en adoptant la technologie blockchain ? La réponse est oui. La Décentralisation de l'informatique en nuage distribuée nous offre une telle solution dans ce contexte.
Malgré la cherté et la rareté actuelle de la puissance de calcul, les GPU ne sont pas pleinement utilisés. Cela est principalement dû à l'absence d'une méthode prête à l'emploi pour intégrer ces puissances de calcul décentralisées et les faire fonctionner de manière commerciale. Voici les chiffres typiques d'utilisation des GPU pour différentes charges de travail :
La plupart des appareils de consommation avec GPU appartiennent aux trois premières catégories, c'est-à-dire inactifs ( viennent de démarrer et entrer dans le système d'exploitation Windows ):
Taux d'utilisation du GPU : 0-2 %;
Tâches de production générales ( rédaction, navigation simple ):0-15%;
Lecture vidéo : 15 - 35 %.
Les données ci-dessus montrent que l'utilisation des ressources de calcul est extrêmement faible, et dans le monde du Web2, il n'existe pas de mesures efficaces pour collecter et intégrer ces ressources. Cependant, la Crypto et l'économie de la blockchain pourraient être le remède idéal à ce défi. L'économie cryptographique construit un marché mondial extrêmement efficace, grâce à une économie de jetons unique et à des caractéristiques de système sans décentralisation, la tarification des ressources, leur circulation et l'adéquation entre l'offre et la demande sur le marché sont très efficaces.
Le développement de l'IA influence l'avenir de l'humanité, et les progrès de la puissance de calcul déterminent le développement de l'IA. Depuis l'invention du premier ordinateur dans les années quarante, les modes de calcul ont connu de nombreuses révolutions. Des ordinateurs centraux encombrants aux ordinateurs portables légers, de l'achat de serveurs centralisés à la location de puissance de calcul, le seuil d'accès à la puissance de calcul diminue progressivement. Avant l'avènement du cloud computing, les entreprises devaient acheter leurs propres serveurs et les mettre à jour constamment avec l'évolution de la technologie, mais l'apparition du cloud computing a complètement changé ce modèle.
Le concept de base de l'informatique en nuage est que le demandeur loue des serveurs, accède à distance et paie en fonction de la quantité utilisée. Aujourd'hui, les entreprises traditionnelles sont perturbées par l'informatique en nuage. Dans le domaine de l'informatique en nuage, la technologie de virtualisation est au cœur du domaine. Les serveurs virtuels peuvent diviser un serveur puissant en très petits serveurs et les louer, et il est possible de mobiliser dynamiquement diverses ressources.
Ce modèle a complètement changé le paysage commercial de l'industrie de la puissance de calcul. Auparavant, les gens devaient acheter leurs propres installations de puissance de calcul pour répondre à leurs besoins en puissance. Mais maintenant, il suffit de payer un loyer sur un site web pour bénéficier de services de puissance de calcul de haute qualité. L'avenir du développement du cloud computing est l'informatique en périphérie. En raison de la distance trop grande des systèmes centralisés par rapport aux utilisateurs, cela peut entraîner un certain degré de latence. Bien que la latence puisse être optimisée, elle ne peut jamais être surmontée en raison de la limite de la vitesse de la lumière.
Cependant, les industries émergentes telles que le métavers, la conduite autonome et la télémédecine ont des exigences de latence très faibles, ce qui nécessite de déplacer les serveurs de cloud computing plus près des utilisateurs. Par conséquent, de plus en plus de petits centres de données sont déployés autour des utilisateurs, c'est ce qu'on appelle le calcul en périphérie.
Par rapport aux fournisseurs de puissance de calcul en nuage centralisés, les avantages de l'informatique en nuage décentralisée résident principalement dans :
Accessibilité et flexibilité : L'accès aux puces de calcul sur des plateformes de fournisseurs de services cloud tels qu'AWS, GCP ou Azure prend généralement plusieurs semaines, et les modèles de GPU hautes performances comme l'A100 et le H100 sont souvent en rupture de stock. De plus, pour obtenir de la puissance de calcul, les consommateurs doivent souvent signer des contrats à long terme et rigides avec ces grandes entreprises, ce qui entraîne non seulement une perte de temps, mais rend également les opérations des entreprises rigides et leur fait perdre une certaine flexibilité. En revanche, une plateforme de calcul décentralisée permet d'accéder à la puissance de calcul à tout moment et offre des choix matériels flexibles, avec une accessibilité accrue.
Prix plus bas : En raison de l'utilisation de puces inactives, et en ajoutant les subventions en tokens de l'interface réseau aux fournisseurs de puces et de puissance de calcul, le réseau de puissance de calcul décentralisé pourrait offrir une puissance de calcul à un coût inférieur.
Résistance à la censure : Certains systèmes Web3 ne se positionnent pas comme des systèmes sans autorisation. Ils ont traité les questions de conformité telles que le RGPD et la HIPAA lors des phases de mise en ligne de GPU, de chargement de données, de partage de données et de partage de résultats.
Avec le développement supplémentaire de l'IA et le déséquilibre persistant entre l'offre et la demande de GPU, cela poussera davantage de développeurs vers des plateformes de cloud computing décentralisées. En même temps, pendant le marché haussier, en raison de l'augmentation des prix des tokens cryptographiques, les fournisseurs de GPU réaliseront plus de bénéfices, ce qui stimulera davantage de fournisseurs de GPU à entrer sur ce marché, créant un effet de volant positif.
(# Problèmes techniques
1. Problème de parallélisation
Les plateformes de calcul distribué regroupent généralement une offre de puces en longue traîne, ce qui signifie qu'un seul fournisseur de puces ne peut presque pas réaliser indépendamment des tâches d'entraînement ou d'inférence de modèles d'IA complexes en peu de temps. Si une plateforme de cloud computing souhaite être compétitive, elle doit décomposer et répartir les tâches par des moyens de parallélisation, afin de réduire le temps total d'achèvement et d'améliorer la capacité de calcul de la plateforme.
Cependant, le processus de parallélisation sera confronté à une série de problèmes, notamment la façon de décomposer les tâches ), en particulier pour les tâches complexes d'apprentissage profond ###, la dépendance des données et les coûts de communication supplémentaires entre les appareils, etc.
2. Risque de substitution technologique
Avec d'importants investissements dans la recherche sur les circuits intégrés spécifiques à l'application ASIC( et des nouvelles inventions comme les unités de traitement de tenseurs TPU), cela pourrait avoir un impact sur les clusters GPU des plateformes de calcul décentralisées.
Si ces ASIC peuvent offrir de bonnes performances et qu'il y a un compromis sur le coût, le marché des GPU actuellement dominé par de grandes organisations d'IA pourrait faire son retour. Cela entraînera une augmentation de l'offre de GPU, ce qui affectera l'écosystème des plateformes de cloud computing décentralisées.
3. Risque réglementaire
En raison du système de cloud computing décentralisé opérant dans plusieurs juridictions et pouvant être soumis à différentes lois et réglementations, il peut y avoir des défis juridiques et réglementaires uniques. Les exigences de conformité, telles que les lois sur la protection des données et la vie privée, peuvent également être complexes et difficiles.
À l'heure actuelle, les utilisateurs des plateformes de cloud computing sont principalement des développeurs professionnels et des institutions, qui préfèrent utiliser une plateforme sur le long terme et ne changent pas facilement. Choisir une plateforme décentralisée ou centralisée, le prix n'est qu'un facteur parmi d'autres, ces utilisateurs accordent une plus grande importance à la stabilité du service. Par conséquent, si une plateforme décentralisée dispose de puissantes capacités d'intégration et d'une puissance de calcul stable et suffisante, elle sera plus susceptible d'attirer ces clients, d'établir des relations de coopération à long terme et de générer des revenus de flux de trésorerie stables.
Je vais maintenant vous présenter le nouveau projet de calcul distribué Aethir, qui se concentre sur le rendu de jeux et l'IA dans ce cycle, et évaluer la valorisation potentielle après son introduction en bourse, en me basant sur les projets d'IA et de calcul distribué similaires actuellement sur le marché.
Introduction à Aethir
Aethir Cloud est une plateforme de rendu en temps réel décentralisée basée sur le réseau Arbitrum, qui aide les entreprises de jeux et d'intelligence artificielle à livrer directement leurs produits aux consommateurs en agrégeant et en redistribuant intelligemment les GPU nouveaux et inactifs provenant des entreprises, des centres de données, des activités de minage de cryptomonnaies et des consommateurs.
L'une des innovations clés de ce projet est le pool de ressources, qui regroupe les contributeurs de puissance de calcul décentralisés sous une interface unifiée, offrant des services aux clients du monde entier. Une caractéristique majeure du pool de ressources est que les fournisseurs de GPU peuvent se connecter ou se déconnecter librement du réseau, permettant ainsi aux entreprises ou aux centres de données disposant d'équipements inutilisés de participer au réseau pendant les temps d'arrêt, améliorant ainsi la flexibilité des fournisseurs et le taux d'utilisation des équipements.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
19 J'aime
Récompense
19
5
Reposter
Partager
Commentaire
0/400
PanicSeller
· 08-01 03:17
La vie et la mort, je les considère avec indifférence, si je ne suis pas d'accord, je me bats.
Voir l'originalRépondre0
SocialFiQueen
· 07-30 19:25
Il vaut la peine d'entrer dans une position pour un coup.
Aethir : Décentralisation du nouveau pouvoir du cloud computing, trois grandes pistes menant à l'ère de l'IA
Aethir : un acteur de la puissance de l'informatique en cloud décentralisée avec trois voies.
Le développement des grands modèles LLM et de l'IA est l'un des progrès technologiques les plus remarquables de l'histoire humaine, marquant l'entrée de l'humanité dans l'ère de l'IA. Dans ce nouveau monde, la "puissance de calcul" est la ressource la plus rare. La tendance du développement de la puissance de calcul est le calcul en périphérie, qui peut efficacement réduire la latence physique et devenir la pierre angulaire du développement d'industries nécessitant une faible latence comme le métavers ; le cloud computing décentralisé et distribué offre des avantages en termes de flexibilité, de prix bas et de résistance à la censure, et a des perspectives de développement très vastes.
Aethir est une plateforme de rendu en temps réel décentralisée basée sur le réseau Arbitrum, qui regroupe des GPU à haute capacité de calcul comme les H100 pour fournir des services de puissance de calcul de niveau entreprise aux entreprises de jeux, d'intelligence artificielle, etc. Aethir a déjà collaboré avec plusieurs projets de premier plan ainsi que des studios de jeux et des entreprises de télécommunications, et on s'attend à ce que les revenus annuels récurrents de la première trimestre 2024 dépassent 20 millions de dollars.
Aethir Edge a considérablement abaissé le seuil d'entrée pour les utilisateurs ordinaires souhaitant vendre de la puissance de calcul excédentaire, et a grandement élargi la couverture géographique du réseau Aethir. Aethir a déjà obtenu 80 millions de dollars grâce à la vente de NFT de nœuds vérificateurs, prouvant que les perspectives et le modèle économique de son projet sont très attractifs pour un large public. Le coût d'utilisation par heure de l'A100 sur le réseau Aethir est significativement inférieur à celui des autres concurrents, offrant un avantage concurrentiel évident.
Le changement dans le processus de développement de la société humaine est souvent réalisé grâce à quelques inventions et avancées scientifiques extrêmement importantes. Chaque percée technologique crée directement une nouvelle ère plus efficace et prospère.
La révolution industrielle, la révolution électrique et la révolution de l'information sont des avancées technologiques d'une grande ampleur dans l'histoire de l'humanité, transformant complètement le visage de la société humaine et apportant une productivité et un mode de vie sans précédent. Maintenant, nous ne pouvons plus revenir à l'époque des lampes à huile et des diligences pour transmettre des lettres. Avec la naissance de GPT, l'humanité entre dans une nouvelle grande époque.
LLM libère progressivement l'intelligence humaine, permettant aux gens de consacrer leur énergie et leur intelligence limitées à des réflexions et des pratiques plus créatives. Les gens entrent ainsi dans un monde plus efficace.
Nous considérons GPT comme une autre percée technologique qui change le monde, non seulement en raison des énormes progrès de GPT en compréhension et génération de langage naturel, mais aussi parce que l'humanité a compris dans l'évolution de GPT les lois de la croissance des capacités des grands modèles de langage ------ c'est-à-dire qu'en élargissant constamment les paramètres du modèle et les données d'entraînement, on peut obtenir une augmentation exponentielle des capacités du modèle LLM. Tant que la puissance de calcul est suffisante, ce processus ne montre pas de limites pour le moment.
Les applications des grands modèles de langage ne se limitent pas à comprendre le langage humain et à dialoguer, au contraire, ce n'est qu'un début. Une fois que les machines ont la capacité de comprendre le langage, c'est comme ouvrir une boîte de Pandore, libérant un espace d'imagination infini. Les gens peuvent tirer parti de cette capacité de l'IA pour développer diverses fonctionnalités disruptives.
Actuellement, dans divers domaines technologiques croisés, les modèles LLM commencent à faire leurs preuves. Des domaines humanistes comme la production vidéo et la création artistique, jusqu'aux domaines de la technologie dure comme le développement de médicaments et la biotechnologie, des changements radicaux sont inévitables.
À cette époque, la puissance de calcul est considérée comme une ressource rare, les grandes entreprises technologiques disposant de ressources abondantes, tandis que les développeurs émergents font face à des barrières à l'entrée dues à un manque de puissance de calcul. Dans la nouvelle ère de l'IA, la puissance de calcul est synonyme de pouvoir, ceux qui maîtrisent la puissance de calcul ont la capacité de changer le monde. Les GPU, en tant que pierre angulaire du deep learning et du calcul scientifique, jouent un rôle crucial dans ce domaine.
Dans le domaine de l'intelligence artificielle en rapide évolution (AI), nous devons reconnaître les deux aspects du développement : l'entraînement des modèles et le raisonnement. Le raisonnement concerne les fonctions et les résultats des modèles d'IA, tandis que l'entraînement inclut le processus complexe nécessaire à la construction de modèles intelligents, qui comprend des algorithmes d'apprentissage automatique, des ensembles de données et des capacités de calcul.
Prenons GPT-4 comme exemple. Si l'on souhaite obtenir des raisonnements de haute qualité, les développeurs doivent acquérir un ensemble de données de base complet et une énorme capacité de calcul pour entraîner un modèle d'IA efficace. Ces ressources sont principalement concentrées entre les mains des géants de l'industrie tels qu'NVIDIA, Google, Microsoft et AWS.
Les coûts de calcul élevés et les barrières à l'entrée empêchent davantage de développeurs de pénétrer le marché, renforçant ainsi la position des principaux acteurs. Ils possèdent de grands ensembles de données et une capacité de calcul importante, avec la capacité d'augmenter continuellement leur échelle et de réduire leurs coûts, ce qui rend les barrières sectorielles encore plus solides.
Mais nous ne pouvons nous empêcher de réfléchir : existe-t-il des solutions pour réduire les coûts de calcul et les barrières à l'entrée du secteur en adoptant la technologie blockchain ? La réponse est oui. La Décentralisation de l'informatique en nuage distribuée nous offre une telle solution dans ce contexte.
Malgré la cherté et la rareté actuelle de la puissance de calcul, les GPU ne sont pas pleinement utilisés. Cela est principalement dû à l'absence d'une méthode prête à l'emploi pour intégrer ces puissances de calcul décentralisées et les faire fonctionner de manière commerciale. Voici les chiffres typiques d'utilisation des GPU pour différentes charges de travail :
La plupart des appareils de consommation avec GPU appartiennent aux trois premières catégories, c'est-à-dire inactifs ( viennent de démarrer et entrer dans le système d'exploitation Windows ):
Les données ci-dessus montrent que l'utilisation des ressources de calcul est extrêmement faible, et dans le monde du Web2, il n'existe pas de mesures efficaces pour collecter et intégrer ces ressources. Cependant, la Crypto et l'économie de la blockchain pourraient être le remède idéal à ce défi. L'économie cryptographique construit un marché mondial extrêmement efficace, grâce à une économie de jetons unique et à des caractéristiques de système sans décentralisation, la tarification des ressources, leur circulation et l'adéquation entre l'offre et la demande sur le marché sont très efficaces.
Le développement de l'IA influence l'avenir de l'humanité, et les progrès de la puissance de calcul déterminent le développement de l'IA. Depuis l'invention du premier ordinateur dans les années quarante, les modes de calcul ont connu de nombreuses révolutions. Des ordinateurs centraux encombrants aux ordinateurs portables légers, de l'achat de serveurs centralisés à la location de puissance de calcul, le seuil d'accès à la puissance de calcul diminue progressivement. Avant l'avènement du cloud computing, les entreprises devaient acheter leurs propres serveurs et les mettre à jour constamment avec l'évolution de la technologie, mais l'apparition du cloud computing a complètement changé ce modèle.
Le concept de base de l'informatique en nuage est que le demandeur loue des serveurs, accède à distance et paie en fonction de la quantité utilisée. Aujourd'hui, les entreprises traditionnelles sont perturbées par l'informatique en nuage. Dans le domaine de l'informatique en nuage, la technologie de virtualisation est au cœur du domaine. Les serveurs virtuels peuvent diviser un serveur puissant en très petits serveurs et les louer, et il est possible de mobiliser dynamiquement diverses ressources.
Ce modèle a complètement changé le paysage commercial de l'industrie de la puissance de calcul. Auparavant, les gens devaient acheter leurs propres installations de puissance de calcul pour répondre à leurs besoins en puissance. Mais maintenant, il suffit de payer un loyer sur un site web pour bénéficier de services de puissance de calcul de haute qualité. L'avenir du développement du cloud computing est l'informatique en périphérie. En raison de la distance trop grande des systèmes centralisés par rapport aux utilisateurs, cela peut entraîner un certain degré de latence. Bien que la latence puisse être optimisée, elle ne peut jamais être surmontée en raison de la limite de la vitesse de la lumière.
Cependant, les industries émergentes telles que le métavers, la conduite autonome et la télémédecine ont des exigences de latence très faibles, ce qui nécessite de déplacer les serveurs de cloud computing plus près des utilisateurs. Par conséquent, de plus en plus de petits centres de données sont déployés autour des utilisateurs, c'est ce qu'on appelle le calcul en périphérie.
Par rapport aux fournisseurs de puissance de calcul en nuage centralisés, les avantages de l'informatique en nuage décentralisée résident principalement dans :
Avec le développement supplémentaire de l'IA et le déséquilibre persistant entre l'offre et la demande de GPU, cela poussera davantage de développeurs vers des plateformes de cloud computing décentralisées. En même temps, pendant le marché haussier, en raison de l'augmentation des prix des tokens cryptographiques, les fournisseurs de GPU réaliseront plus de bénéfices, ce qui stimulera davantage de fournisseurs de GPU à entrer sur ce marché, créant un effet de volant positif.
(# Problèmes techniques
1. Problème de parallélisation
Les plateformes de calcul distribué regroupent généralement une offre de puces en longue traîne, ce qui signifie qu'un seul fournisseur de puces ne peut presque pas réaliser indépendamment des tâches d'entraînement ou d'inférence de modèles d'IA complexes en peu de temps. Si une plateforme de cloud computing souhaite être compétitive, elle doit décomposer et répartir les tâches par des moyens de parallélisation, afin de réduire le temps total d'achèvement et d'améliorer la capacité de calcul de la plateforme.
Cependant, le processus de parallélisation sera confronté à une série de problèmes, notamment la façon de décomposer les tâches ), en particulier pour les tâches complexes d'apprentissage profond ###, la dépendance des données et les coûts de communication supplémentaires entre les appareils, etc.
2. Risque de substitution technologique
Avec d'importants investissements dans la recherche sur les circuits intégrés spécifiques à l'application ASIC( et des nouvelles inventions comme les unités de traitement de tenseurs TPU), cela pourrait avoir un impact sur les clusters GPU des plateformes de calcul décentralisées.
Si ces ASIC peuvent offrir de bonnes performances et qu'il y a un compromis sur le coût, le marché des GPU actuellement dominé par de grandes organisations d'IA pourrait faire son retour. Cela entraînera une augmentation de l'offre de GPU, ce qui affectera l'écosystème des plateformes de cloud computing décentralisées.
3. Risque réglementaire
En raison du système de cloud computing décentralisé opérant dans plusieurs juridictions et pouvant être soumis à différentes lois et réglementations, il peut y avoir des défis juridiques et réglementaires uniques. Les exigences de conformité, telles que les lois sur la protection des données et la vie privée, peuvent également être complexes et difficiles.
À l'heure actuelle, les utilisateurs des plateformes de cloud computing sont principalement des développeurs professionnels et des institutions, qui préfèrent utiliser une plateforme sur le long terme et ne changent pas facilement. Choisir une plateforme décentralisée ou centralisée, le prix n'est qu'un facteur parmi d'autres, ces utilisateurs accordent une plus grande importance à la stabilité du service. Par conséquent, si une plateforme décentralisée dispose de puissantes capacités d'intégration et d'une puissance de calcul stable et suffisante, elle sera plus susceptible d'attirer ces clients, d'établir des relations de coopération à long terme et de générer des revenus de flux de trésorerie stables.
Je vais maintenant vous présenter le nouveau projet de calcul distribué Aethir, qui se concentre sur le rendu de jeux et l'IA dans ce cycle, et évaluer la valorisation potentielle après son introduction en bourse, en me basant sur les projets d'IA et de calcul distribué similaires actuellement sur le marché.
Introduction à Aethir
Aethir Cloud est une plateforme de rendu en temps réel décentralisée basée sur le réseau Arbitrum, qui aide les entreprises de jeux et d'intelligence artificielle à livrer directement leurs produits aux consommateurs en agrégeant et en redistribuant intelligemment les GPU nouveaux et inactifs provenant des entreprises, des centres de données, des activités de minage de cryptomonnaies et des consommateurs.
L'une des innovations clés de ce projet est le pool de ressources, qui regroupe les contributeurs de puissance de calcul décentralisés sous une interface unifiée, offrant des services aux clients du monde entier. Une caractéristique majeure du pool de ressources est que les fournisseurs de GPU peuvent se connecter ou se déconnecter librement du réseau, permettant ainsi aux entreprises ou aux centres de données disposant d'équipements inutilisés de participer au réseau pendant les temps d'arrêt, améliorant ainsi la flexibilité des fournisseurs et le taux d'utilisation des équipements.