La vague de baisse des prix des terminaux d'inférence de grands modèles est arrivée
Le 21 mai, Alibaba Cloud a annoncé une réduction significative des prix d'appel API de son modèle commercial Tongyi Qianwen et de son modèle open source. Parmi eux, le prix d'entrée du modèle phare Qwen-Long est passé de 0,02 yuan/1 000 tokens à 0,5 yuan/1 million de tokens, soit une baisse de 97 %. Cette mesure de réduction des prix a suscité une large attention dans l'industrie.
En fait, Tongyi Qianwen n'est pas le premier grand modèle à réduire les prix pour les développeurs. Depuis mai, plusieurs fournisseurs de grands modèles ont lancé des produits à bas prix ou des mesures de réduction des prix : l'API du modèle Deep Exploration d'une certaine entreprise est tarifée à environ un pour cent de celle de GPT-4-Turbo ; le prix d'appel du modèle GLM-3Turbo d'une certaine entreprise est passé de 5 yuans/ million de tokens à 1 yuan/ million de tokens ; une certaine entreprise a lancé un nouveau modèle dont les performances sont comparables à celles de GPT-4 Turbo, accessible gratuitement à tous les utilisateurs, avec une vitesse d'appel API doublée mais un prix réduit de moitié ; le prix d'entrée pour l'inférence du modèle principal d'une certaine entreprise est aussi bas que 0,0008 yuan/ mille tokens ; une certaine entreprise a annoncé que ses deux principaux modèles seraient entièrement gratuits ; une certaine entreprise a annoncé que son API serait ouverte gratuitement à vie.
La baisse générale des prix des API de grands modèles peut être attribuée aux progrès des techniques d'inférence et à la diminution des coûts. Cette tendance offre objectivement aux développeurs plus d'options, ce qui contribue à favoriser le développement généralisé des applications d'IA.
En attendant, Ali Tongyi a également lancé une série de modèles de langage de grande taille de différentes échelles, avec un nombre de paramètres allant de 500 millions à 110 milliards. Les petits modèles tels que 0,5B et 1,8B peuvent être déployés sur des appareils mobiles et des PC, tandis que les grands modèles comme 72B et 110B peuvent prendre en charge des applications de niveau entreprise et de recherche, et les modèles moyens comme 32B cherchent un équilibre entre performance, efficacité et utilisation de la mémoire. De plus, Tongyi a également open-sourcé plusieurs modèles spécialisés tels que la compréhension visuelle, la compréhension audio, le code et les experts hybrides. Ces initiatives fourniront un soutien solide à une variété de scénarios d'application d'IA.
"Baisse des prix + open source" devient progressivement un consensus parmi les fabricants de grands modèles dans le monde. Cette stratégie devrait résoudre deux grandes douleurs auxquelles font face les développeurs d'applications AI : le coût élevé des API de grands modèles et la qualité insuffisante des modèles open source, ce qui pourrait favoriser la prospérité totale des applications AI.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
23 J'aime
Récompense
23
9
Reposter
Partager
Commentaire
0/400
AirdropHunterKing
· 07-22 16:33
L'ère du profit sans effort est arrivée, attendez-vous à couper les coupons.
Voir l'originalRépondre0
RegenRestorer
· 07-22 05:48
C'est enroulé.
Voir l'originalRépondre0
WhaleMistaker
· 07-21 04:06
Les prix de l'électricité doivent-ils également chuter ?
Voir l'originalRépondre0
LonelyAnchorman
· 07-19 17:33
Roulez jusqu'à saigner !
Voir l'originalRépondre0
rugpull_ptsd
· 07-19 17:32
prendre les gens pour des idiots ne peut plus bouger, n'est-ce pas
Voir l'originalRépondre0
DEXRobinHood
· 07-19 17:31
Dans l'univers de la cryptomonnaie, il faut se battre sur les prix dans l'obscurité.
Voir l'originalRépondre0
NftDeepBreather
· 07-19 17:31
On va encore se retrousser les manches, n'est-ce pas !
Le prix de l'API des grands modèles a été considérablement réduit, provoquant une vague de baisse des prix parmi les fabricants nationaux.
La vague de baisse des prix des terminaux d'inférence de grands modèles est arrivée
Le 21 mai, Alibaba Cloud a annoncé une réduction significative des prix d'appel API de son modèle commercial Tongyi Qianwen et de son modèle open source. Parmi eux, le prix d'entrée du modèle phare Qwen-Long est passé de 0,02 yuan/1 000 tokens à 0,5 yuan/1 million de tokens, soit une baisse de 97 %. Cette mesure de réduction des prix a suscité une large attention dans l'industrie.
En fait, Tongyi Qianwen n'est pas le premier grand modèle à réduire les prix pour les développeurs. Depuis mai, plusieurs fournisseurs de grands modèles ont lancé des produits à bas prix ou des mesures de réduction des prix : l'API du modèle Deep Exploration d'une certaine entreprise est tarifée à environ un pour cent de celle de GPT-4-Turbo ; le prix d'appel du modèle GLM-3Turbo d'une certaine entreprise est passé de 5 yuans/ million de tokens à 1 yuan/ million de tokens ; une certaine entreprise a lancé un nouveau modèle dont les performances sont comparables à celles de GPT-4 Turbo, accessible gratuitement à tous les utilisateurs, avec une vitesse d'appel API doublée mais un prix réduit de moitié ; le prix d'entrée pour l'inférence du modèle principal d'une certaine entreprise est aussi bas que 0,0008 yuan/ mille tokens ; une certaine entreprise a annoncé que ses deux principaux modèles seraient entièrement gratuits ; une certaine entreprise a annoncé que son API serait ouverte gratuitement à vie.
La baisse générale des prix des API de grands modèles peut être attribuée aux progrès des techniques d'inférence et à la diminution des coûts. Cette tendance offre objectivement aux développeurs plus d'options, ce qui contribue à favoriser le développement généralisé des applications d'IA.
En attendant, Ali Tongyi a également lancé une série de modèles de langage de grande taille de différentes échelles, avec un nombre de paramètres allant de 500 millions à 110 milliards. Les petits modèles tels que 0,5B et 1,8B peuvent être déployés sur des appareils mobiles et des PC, tandis que les grands modèles comme 72B et 110B peuvent prendre en charge des applications de niveau entreprise et de recherche, et les modèles moyens comme 32B cherchent un équilibre entre performance, efficacité et utilisation de la mémoire. De plus, Tongyi a également open-sourcé plusieurs modèles spécialisés tels que la compréhension visuelle, la compréhension audio, le code et les experts hybrides. Ces initiatives fourniront un soutien solide à une variété de scénarios d'application d'IA.
"Baisse des prix + open source" devient progressivement un consensus parmi les fabricants de grands modèles dans le monde. Cette stratégie devrait résoudre deux grandes douleurs auxquelles font face les développeurs d'applications AI : le coût élevé des API de grands modèles et la qualité insuffisante des modèles open source, ce qui pourrait favoriser la prospérité totale des applications AI.