Enfrentando um problema estranho com o modelo base Llama 405B através de uma plataforma de IA descentralizada. Tentando obter logprobs através da integração OpenRouter para algum trabalho de teste, mas a resposta continua a voltar vazia - literalmente 0 caracteres retornados. Alguém mais já se deparou com esse obstáculo antes? Pode ser algo relacionado a um parâmetro API ou talvez uma peculiaridade específica do modelo com a versão base. É bastante frustrante quando você está no meio de uma investigação e o pipeline de dados simplesmente fica em silêncio.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
9 gostos
Recompensa
9
4
Republicar
Partilhar
Comentar
0/400
SleepyValidator
· 9h atrás
Mais uma vez, a interface está a reportar erros aleatórios. Estou farto.
Ver originalResponder0
consensus_failure
· 9h atrás
a versão base é realmente muito problemática
Ver originalResponder0
LightningAllInHero
· 9h atrás
Explodiu, deu erro após o teste.
Ver originalResponder0
PumpStrategist
· 9h atrás
Mais um que não sabe configurar parâmetros e ainda assim tenta criar grandes modelos.
Enfrentando um problema estranho com o modelo base Llama 405B através de uma plataforma de IA descentralizada. Tentando obter logprobs através da integração OpenRouter para algum trabalho de teste, mas a resposta continua a voltar vazia - literalmente 0 caracteres retornados. Alguém mais já se deparou com esse obstáculo antes? Pode ser algo relacionado a um parâmetro API ou talvez uma peculiaridade específica do modelo com a versão base. É bastante frustrante quando você está no meio de uma investigação e o pipeline de dados simplesmente fica em silêncio.