Je rencontre un problème étrange avec le modèle de base Llama 405B via une plateforme d'IA décentralisée. J'essaie d'obtenir des logprobs via leur intégration OpenRouter pour des travaux de test, mais la réponse revient toujours vide - littéralement 0 caractères retournés. Quelqu'un d'autre a-t-il déjà rencontré ce mur ? Cela pourrait être un problème de paramètre API ou peut-être une particularité spécifique au modèle avec la version de base. C'est assez frustrant quand vous êtes en pleine investigation et que le pipeline de données devient silencieux.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
9 J'aime
Récompense
9
4
Reposter
Partager
Commentaire
0/400
SleepyValidator
· Il y a 9h
Encore des erreurs d'interface qui s'affichent n'importe comment, c'est vraiment agaçant.
Voir l'originalRépondre0
consensus_failure
· Il y a 9h
La version de base est vraiment trop mauvaise, non ?
Voir l'originalRépondre0
LightningAllInHero
· Il y a 9h
L'explosion a été signalée après le test.
Voir l'originalRépondre0
PumpStrategist
· Il y a 9h
Encore un qui ne sait pas configurer les paramètres et qui se lance dans un grand modèle.
Je rencontre un problème étrange avec le modèle de base Llama 405B via une plateforme d'IA décentralisée. J'essaie d'obtenir des logprobs via leur intégration OpenRouter pour des travaux de test, mais la réponse revient toujours vide - littéralement 0 caractères retournés. Quelqu'un d'autre a-t-il déjà rencontré ce mur ? Cela pourrait être un problème de paramètre API ou peut-être une particularité spécifique au modèle avec la version de base. C'est assez frustrant quand vous êtes en pleine investigation et que le pipeline de données devient silencieux.