¿Recuerdas cuando tardaba una eternidad en arreglar esos molestos guiones em en la salida de ChatGPT? Sí, esa pequeña peculiaridad de formato. Y ahora la gente actúa como si los sistemas de IA fueran completamente predecibles y seguros. Aquí está la realidad: entrena un modelo masivo y obtendrás una caja negra. Tendrás una idea general de lo que hace, claro. Pero garantizar cada comportamiento? ¿Controlar cada caso límite? Eso es un pensamiento iluso. Incluso los ajustes más pequeños se convierten en pesadillas de ingeniería cuando estás lidiando con miles de millones de parámetros.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
17 me gusta
Recompensa
17
6
Republicar
Compartir
Comentar
0/400
ImpermanentLossEnjoyer
· hace2h
¿No pueden resolver esas tonterías con un guion largo y todavía se atreven a decir que la Seguridad de la IA es controlable? Me muero de risa
---
Ajustar un modelo de caja negra puede llevar a la muerte, decir que es predecible es engañar a los fantasmas
---
Miles de millones de parámetros son solo una apuesta, no finjas que entiendes
---
Hasta cambiar un signo de puntuación es complicado, ¿y esperas que aprenda moralidad? Es excesivo
---
Muy bien dicho, pero nadie quiere escuchar esta dolorosa verdad
---
Detesto ese tipo de confianza de "todo está bajo mi control", es pura fantasía.
Ver originalesResponder0
GmGnSleeper
· hace2h
El problema de la caja negra es realmente doloroso, ajustar miles de millones de parámetros es como el efecto mariposa.
Ver originalesResponder0
AlwaysQuestioning
· hace2h
La caja negra es realmente complicada, una vez que hay demasiados parámetros, no se puede controlar nada.
Ver originalesResponder0
zkNoob
· hace2h
¡Vaya, una caja negra es solo una caja negra! ¿Quién realmente puede controlar tantos parámetros que explotan?
Ver originalesResponder0
digital_archaeologist
· hace3h
La caja negra es la caja negra, por más parámetros que haya, no cambiará este asunto, de verdad.
Ver originalesResponder0
LiquidatedNotStirred
· hace3h
A decir verdad, una caja negra es una caja negra, por mucho que se hable, no se puede cambiar eso.
---
Los parámetros son tan numerosos que explotan, ¿quién se atreve a decir que puede controlar cada detalle...
---
No se puede resolver ni el asunto del guion largo, ¿y todavía tiene la cara de decir que es seguro y controlable? Me hace reír.
---
Con parámetros de nivel de miles de millones, cambiar uno afecta a todo, esa es la realidad.
---
Los que saben del tema saben que cuanto más grande es el modelo, más difícil es entenderlo, es pura magia negra.
---
Así que, esas afirmaciones de que "la IA es completamente predecible" realmente piensan demasiado.
¿Recuerdas cuando tardaba una eternidad en arreglar esos molestos guiones em en la salida de ChatGPT? Sí, esa pequeña peculiaridad de formato. Y ahora la gente actúa como si los sistemas de IA fueran completamente predecibles y seguros. Aquí está la realidad: entrena un modelo masivo y obtendrás una caja negra. Tendrás una idea general de lo que hace, claro. Pero garantizar cada comportamiento? ¿Controlar cada caso límite? Eso es un pensamiento iluso. Incluso los ajustes más pequeños se convierten en pesadillas de ingeniería cuando estás lidiando con miles de millones de parámetros.