Lembra quando demorava uma eternidade apenas para corrigir aqueles irritantes travessões na saída do ChatGPT? Sim, aquela pequena peculiaridade de formatação. E agora as pessoas agem como se os sistemas de IA fossem completamente previsíveis e seguros. Aqui está a realidade: treine um modelo massivo e você obtém uma caixa preta. Você terá uma ideia vaga do que ele faz, claro. Mas garantir cada comportamento? Controlar cada caso limite? Isso é pensamento wishful. Até os menores ajustes tornam-se pesadelos de engenharia quando você está lidando com bilhões de parâmetros.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
17 gostos
Recompensa
17
6
Republicar
Partilhar
Comentar
0/400
ImpermanentLossEnjoyer
· 3h atrás
em dash Aquela pequena coisa não consegue resolver, ainda se atreve a dizer que a Segurança da IA é controlável? Estou a rir até chorar
---
Ajustar um modelo de caixa preta e já se pode morrer, dizer que é previsível é enganar os outros
---
bilhões de parâmetros é apenas uma aposta, não finjas que entendes
---
É difícil até consertar um sinal de pontuação, e ainda esperas que ele aprenda moralidade? É demais
---
Bem dito, mas ninguém quer ouvir essa verdade dolorosa
---
O que eu mais odeio é esse tipo de confiança "totalmente sob meu controle", pura fantasia
Ver originalResponder0
GmGnSleeper
· 3h atrás
O problema da caixa preta realmente é doloroso, bilhões de parâmetros uma alteração e é o efeito borboleta.
Ver originalResponder0
AlwaysQuestioning
· 3h atrás
A caixa preta é realmente difícil, com muitos parâmetros não se consegue controlar nada.
Ver originalResponder0
zkNoob
· 3h atrás
Caramba, a caixa preta é apenas uma caixa preta, com parâmetros que explodem, quem realmente consegue controlá-la?
Ver originalResponder0
digital_archaeologist
· 4h atrás
A caixa preta é uma caixa preta, não importa quantos parâmetros você tenha, isso não muda nada, realmente.
Ver originalResponder0
LiquidatedNotStirred
· 4h atrás
Para ser sincero, a caixa preta é apenas uma caixa preta, não importa o quanto se exalte isso.
---
Com parâmetros que explodem, quem se atreve a dizer que pode controlar cada detalhe...
---
Nem mesmo consegue lidar com aquele problema do em dash, e ainda tem a coragem de dizer que é seguro e controlável? Rir até morrer.
---
Com bilhões de parâmetros, mudar uma coisa afeta tudo, essa é a realidade.
---
Quem entende sabe que quanto maior o modelo, mais difícil é de entender, é pura magia negra.
---
Portanto, aqueles argumentos de que "a IA é completamente previsível" realmente pensam demais.
Lembra quando demorava uma eternidade apenas para corrigir aqueles irritantes travessões na saída do ChatGPT? Sim, aquela pequena peculiaridade de formatação. E agora as pessoas agem como se os sistemas de IA fossem completamente previsíveis e seguros. Aqui está a realidade: treine um modelo massivo e você obtém uma caixa preta. Você terá uma ideia vaga do que ele faz, claro. Mas garantir cada comportamento? Controlar cada caso limite? Isso é pensamento wishful. Até os menores ajustes tornam-se pesadelos de engenharia quando você está lidando com bilhões de parâmetros.