Enfrentando um problema estranho com o modelo base Llama 405B através de uma plataforma de IA descentralizada. Tentando obter logprobs através da integração OpenRouter para algum trabalho de teste, mas a resposta continua a voltar vazia - literalmente 0 caracteres retornados. Alguém mais já se deparou com esse obstáculo antes? Pode ser algo relacionado a um parâmetro API ou talvez uma peculiaridade específica do modelo com a versão base. É bastante frustrante quando você está no meio de uma investigação e o pipeline de dados simplesmente fica em silêncio.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
9 Curtidas
Recompensa
9
4
Repostar
Compartilhar
Comentário
0/400
SleepyValidator
· 6h atrás
Mais uma vez, a interface está a reportar erros aleatórios. Estou farto.
Ver originalResponder0
consensus_failure
· 7h atrás
a versão base é realmente muito problemática
Ver originalResponder0
LightningAllInHero
· 7h atrás
Explodiu, deu erro após o teste.
Ver originalResponder0
PumpStrategist
· 7h atrás
Mais um que não sabe configurar parâmetros e ainda assim tenta criar grandes modelos.
Enfrentando um problema estranho com o modelo base Llama 405B através de uma plataforma de IA descentralizada. Tentando obter logprobs através da integração OpenRouter para algum trabalho de teste, mas a resposta continua a voltar vazia - literalmente 0 caracteres retornados. Alguém mais já se deparou com esse obstáculo antes? Pode ser algo relacionado a um parâmetro API ou talvez uma peculiaridade específica do modelo com a versão base. É bastante frustrante quando você está no meio de uma investigação e o pipeline de dados simplesmente fica em silêncio.