Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
New
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Diccionario de jerga de IA (versión marzo de 2026), se recomienda guardar
null
Autor|Gólem(@web 3_golem)
Ahora bien, si la gente del círculo de criptomonedas no presta atención a la IA, es fácil que la gente se burle de la multitud (sí, amigo, piensa en por qué has hecho clic).
¿No sabes nada sobre los conceptos básicos de la IA y preguntas qué significa la abreviatura en cada frase? ¿Estás confundido con varios términos correctos en las actividades offline de IA, y tienes que fingir no soltar la línea?
Aunque es poco realista adentrarse en la industria de la IA en poco tiempo, siempre merece la pena conocer el vocabulario básico de alta frecuencia de la industria. Por suerte, el próximo artículo es para ti ↓ Te recomiendo sinceramente que lo leas y recopiles.
Vocabulario básico (12)
LLM (Modelo de Lenguaje Grande)
En esencia, los LLM son modelos de aprendizaje profundo entrenados con grandes cantidades de datos que son buenos para entender y generar lenguaje, y pueden manejar texto y, en su lugar, otros tipos de contenido.
En cambio, los SLM (modelos de lenguaje pequeños) son modelos de lenguaje que son más económicos, más ligeros de desplegar y más fáciles de localizar.
Agente de IA
AI Agent no es solo un “modelo de chateo”, sino un sistema que entiende los objetivos, llama a herramientas, realiza tareas paso a paso y puede planificar y validar cuando sea necesario. Google define un agente como un software que puede razonar basándose en entradas multimodales y realizar acciones en nombre de los usuarios.
Multimodal
Su modelo de IA no solo lee texto, sino que puede procesar múltiples formas de entrada y salida como texto, imágenes, audio y vídeo al mismo tiempo. Google define explícitamente la multimodalidad como la capacidad de procesar y generar diferentes tipos de contenido.
Prompt
Las instrucciones introducidas por los usuarios en el modelo son los métodos de interacción humano-ordenador más básicos.
IA generativa (IA generativa / AIGC)
Haciendo hincapié en la “generación” de IA en lugar de la mera clasificación o predicción, los modelos generativos pueden generar texto, código, imágenes, memes, vídeos y más basándose en indicaciones.
Ficha
Este es uno de los conceptos más “unidades de gas” en el círculo de la IA. En lugar de entender el contenido por el recuento de palabras, el modelo procesa la entrada y salida por token, y la facturación, la duración del contexto y la velocidad de respuesta suelen estar fuertemente relacionadas con los tokens.
Ventana de contexto
Se refiere al número total de tokens que el modelo “ve” y utiliza a la vez, y también puede referirse al número de tokens que el modelo puede considerar o “recordar” en un solo procesamiento.
Memoria
Deja que el modelo o agente conserve las preferencias del usuario, el contexto de la tarea y el estado histórico.
Formación
El proceso por el cual el modelo aprende parámetros a partir de los datos.
Inferencia
A diferencia del entrenamiento, se refiere al proceso de recibir la entrada y generar la salida tras el lanzamiento del modelo. A menudo se dice en la industria que “la formación es cara, el razonamiento es más caro”, porque muchos costes ocurren en la etapa real de comercialización en la inferencia. La distinción relevante entre formación e inferencia es también el marco básico para que los proveedores convencionales discutan los costes de despliegue.
Uso de herramientas / Llamada de herramientas
Esto significa que el modelo no solo genera texto, sino que también puede llamar a herramientas como búsqueda, ejecución de código, bases de datos y APIs externas, lo que se ha considerado una de las capacidades clave de los agentes.
API (Interfaz)
La infraestructura cuando los productos, aplicaciones y agentes de IA se conectan a servicios de terceros.
Vocabulario avanzado (18)
Transformador
Una arquitectura de modelos que mejora la comprensión de las relaciones contextuales, y que además es la base técnica de la mayoría de los grandes modelos de lenguaje actuales, y su mayor característica es que puede ver la relación entre cada palabra y otras palabras en todo el párrafo al mismo tiempo.
Atención
Es el mecanismo central más crítico del transformador, y su función es permitir que el modelo juzgue automáticamente “qué palabras merecen más atención” al leer una frase.
Flujo de trabajo Agentic / Agentic
Esto es un dicho muy popular últimamente, que significa que un sistema ya no es solo una “pregunta y respuesta”, sino que tiene cierto grado de autonomía para desmontar tareas, decidir el siguiente paso y recurrir a capacidades externas. Muchos fabricantes lo usan como señal de “pasar de chatbots a sistemas ejecutables”.
Subagentes
Un agente entonces divide varios agentes dedicados para gestionar subtareas.
Habilidades (Módulo de Competencias Reutilizables)
Con la explosión de OpenClaw, el término se ha vuelto obviamente común, y es una unidad/manual de capacidades instalable, reutilizable y componible para agentes de IA, pero también advierte del riesgo de abuso de herramientas y exposición de datos.
Alucinación (alucinación de máquinas)
Significa que el modelo habla seriamente tonterías y “percibe un patrón que no existe” para generar un error o una salida absurda, que es una salida demasiado confiada que parece razonable pero que en realidad es incorrecta.
Latencia
El tiempo que tarda un modelo en recibir una solicitud para obtener resultados es una de las jergas de ingeniería más comunes, y aparecerá con frecuencia cuando se habla de implementación y productización.
Barandillas de protección
Se usa para limitar lo que puede hacer el modelo/agente, cuándo parar y qué contenido no se puede generar.
Codificación de vibraciones
Esta palabra es también la palabra coloquial más popular hoy en día, lo que significa que los usuarios expresan directamente sus necesidades a través del diálogo, la IA escribe código y los usuarios no necesitan saber cómo escribir.
Parámetros
La escala digital utilizada para la capacidad de almacenamiento y el conocimiento dentro del modelo suele emplearse para medir aproximadamente el volumen del modelo, y “10 mil millones de parámetros” y “100 mil millones de parámetros” son las afirmaciones de farol más comunes en el círculo de IA.
Modelo de razonamiento
Normalmente se refiere a modelos que son mejores en razonamiento, planificación, validación y ejecución de tareas complejas en varios pasos.
MCP (Protocolo de Contexto de Modelo)
Esta es una palabra coloquial muy popular en el último año, que funciona como establecer una interfaz común entre el modelo y las herramientas/fuentes de datos externas.
Ajuste fino / Afinación
es continuar entrenando sobre el modelo base para hacerlo más adecuado para una tarea, estilo o campo específico. El Glosario de Google utiliza directamente el ajuste y el ajuste fino como conceptos relacionados.
Destilación
Comprimir las capacidades de los modelos grandes en modelos pequeños tanto como sea posible, como permitir que los “profesores” enseñen a los “estudiantes”.
RAG (Generación Aumentada por Recuperación)
Esto casi se ha convertido en la configuración básica de la IA empresarial. Microsoft lo define como un modelo de “búsqueda + LLM”, que utiliza datos externos para fundamentar respuestas, resolviendo el problema de los datos de entrenamiento de modelos obsoletos y la falta de comprensión de bases de conocimiento privadas. El objetivo es basar las respuestas en documentos reales y conocimientos privados, en lugar de limitarse a recordarlos mediante el propio modelo.
Conexión a tierra
A menudo aparece con RAG, lo que significa que las respuestas del modelo se basan en fuentes externas como documentos, bases de datos y páginas web, en lugar de depender únicamente de la memoria de parámetros para “jugar libremente”. Microsoft incluye claramente el fundamento como valor fundamental en la documentación de RAG.
Incrustación (incrustaciones vectoriales / vectores semánticos)
Se trata de codificar texto, imágenes, audio y otros contenidos en vectores digitales de alta dimensión para cálculos de similitud semántica.
Índice de referencia
El método de evaluación de usar un conjunto unificado de estándares para evaluar la capacidad de los modelos es también el lenguaje de clasificación favorito de varios modelos para “demostrar que son fuertes”.
Lecturas recomendadas
Preguntas clave 11 sobre la langosta: El desglose más fácil de entender sobre el principio de OpenClaw