Diccionario de jerga de IA (versión marzo de 2026), se recomienda guardar

robot
Generación de resúmenes en curso

null

Autor|Gólem(@web 3_golem)

Ahora bien, si la gente del círculo de criptomonedas no presta atención a la IA, es fácil que la gente se burle de la multitud (sí, amigo, piensa en por qué has hecho clic).

¿No sabes nada sobre los conceptos básicos de la IA y preguntas qué significa la abreviatura en cada frase? ¿Estás confundido con varios términos correctos en las actividades offline de IA, y tienes que fingir no soltar la línea?

Aunque es poco realista adentrarse en la industria de la IA en poco tiempo, siempre merece la pena conocer el vocabulario básico de alta frecuencia de la industria. Por suerte, el próximo artículo es para ti ↓ Te recomiendo sinceramente que lo leas y recopiles.

Vocabulario básico (12)

LLM (Modelo de Lenguaje Grande)

En esencia, los LLM son modelos de aprendizaje profundo entrenados con grandes cantidades de datos que son buenos para entender y generar lenguaje, y pueden manejar texto y, en su lugar, otros tipos de contenido.

En cambio, los SLM (modelos de lenguaje pequeños) son modelos de lenguaje que son más económicos, más ligeros de desplegar y más fáciles de localizar.

Agente de IA

AI Agent no es solo un “modelo de chateo”, sino un sistema que entiende los objetivos, llama a herramientas, realiza tareas paso a paso y puede planificar y validar cuando sea necesario. Google define un agente como un software que puede razonar basándose en entradas multimodales y realizar acciones en nombre de los usuarios.

Multimodal

Su modelo de IA no solo lee texto, sino que puede procesar múltiples formas de entrada y salida como texto, imágenes, audio y vídeo al mismo tiempo. Google define explícitamente la multimodalidad como la capacidad de procesar y generar diferentes tipos de contenido.

Prompt

Las instrucciones introducidas por los usuarios en el modelo son los métodos de interacción humano-ordenador más básicos.

IA generativa (IA generativa / AIGC)

Haciendo hincapié en la “generación” de IA en lugar de la mera clasificación o predicción, los modelos generativos pueden generar texto, código, imágenes, memes, vídeos y más basándose en indicaciones.

Ficha

Este es uno de los conceptos más “unidades de gas” en el círculo de la IA. En lugar de entender el contenido por el recuento de palabras, el modelo procesa la entrada y salida por token, y la facturación, la duración del contexto y la velocidad de respuesta suelen estar fuertemente relacionadas con los tokens.

Ventana de contexto

Se refiere al número total de tokens que el modelo “ve” y utiliza a la vez, y también puede referirse al número de tokens que el modelo puede considerar o “recordar” en un solo procesamiento.

Memoria

Deja que el modelo o agente conserve las preferencias del usuario, el contexto de la tarea y el estado histórico.

Formación

El proceso por el cual el modelo aprende parámetros a partir de los datos.

Inferencia

A diferencia del entrenamiento, se refiere al proceso de recibir la entrada y generar la salida tras el lanzamiento del modelo. A menudo se dice en la industria que “la formación es cara, el razonamiento es más caro”, porque muchos costes ocurren en la etapa real de comercialización en la inferencia. La distinción relevante entre formación e inferencia es también el marco básico para que los proveedores convencionales discutan los costes de despliegue.

Uso de herramientas / Llamada de herramientas

Esto significa que el modelo no solo genera texto, sino que también puede llamar a herramientas como búsqueda, ejecución de código, bases de datos y APIs externas, lo que se ha considerado una de las capacidades clave de los agentes.

API (Interfaz)

La infraestructura cuando los productos, aplicaciones y agentes de IA se conectan a servicios de terceros.

Vocabulario avanzado (18)

Transformador

Una arquitectura de modelos que mejora la comprensión de las relaciones contextuales, y que además es la base técnica de la mayoría de los grandes modelos de lenguaje actuales, y su mayor característica es que puede ver la relación entre cada palabra y otras palabras en todo el párrafo al mismo tiempo.

Atención

Es el mecanismo central más crítico del transformador, y su función es permitir que el modelo juzgue automáticamente “qué palabras merecen más atención” al leer una frase.

Flujo de trabajo Agentic / Agentic

Esto es un dicho muy popular últimamente, que significa que un sistema ya no es solo una “pregunta y respuesta”, sino que tiene cierto grado de autonomía para desmontar tareas, decidir el siguiente paso y recurrir a capacidades externas. Muchos fabricantes lo usan como señal de “pasar de chatbots a sistemas ejecutables”.

Subagentes

Un agente entonces divide varios agentes dedicados para gestionar subtareas.

Habilidades (Módulo de Competencias Reutilizables)

Con la explosión de OpenClaw, el término se ha vuelto obviamente común, y es una unidad/manual de capacidades instalable, reutilizable y componible para agentes de IA, pero también advierte del riesgo de abuso de herramientas y exposición de datos.

Alucinación (alucinación de máquinas)

Significa que el modelo habla seriamente tonterías y “percibe un patrón que no existe” para generar un error o una salida absurda, que es una salida demasiado confiada que parece razonable pero que en realidad es incorrecta.

Latencia

El tiempo que tarda un modelo en recibir una solicitud para obtener resultados es una de las jergas de ingeniería más comunes, y aparecerá con frecuencia cuando se habla de implementación y productización.

Barandillas de protección

Se usa para limitar lo que puede hacer el modelo/agente, cuándo parar y qué contenido no se puede generar.

Codificación de vibraciones

Esta palabra es también la palabra coloquial más popular hoy en día, lo que significa que los usuarios expresan directamente sus necesidades a través del diálogo, la IA escribe código y los usuarios no necesitan saber cómo escribir.

Parámetros

La escala digital utilizada para la capacidad de almacenamiento y el conocimiento dentro del modelo suele emplearse para medir aproximadamente el volumen del modelo, y “10 mil millones de parámetros” y “100 mil millones de parámetros” son las afirmaciones de farol más comunes en el círculo de IA.

Modelo de razonamiento

Normalmente se refiere a modelos que son mejores en razonamiento, planificación, validación y ejecución de tareas complejas en varios pasos.

MCP (Protocolo de Contexto de Modelo)

Esta es una palabra coloquial muy popular en el último año, que funciona como establecer una interfaz común entre el modelo y las herramientas/fuentes de datos externas.

Ajuste fino / Afinación

es continuar entrenando sobre el modelo base para hacerlo más adecuado para una tarea, estilo o campo específico. El Glosario de Google utiliza directamente el ajuste y el ajuste fino como conceptos relacionados.

Destilación

Comprimir las capacidades de los modelos grandes en modelos pequeños tanto como sea posible, como permitir que los “profesores” enseñen a los “estudiantes”.

RAG (Generación Aumentada por Recuperación)

Esto casi se ha convertido en la configuración básica de la IA empresarial. Microsoft lo define como un modelo de “búsqueda + LLM”, que utiliza datos externos para fundamentar respuestas, resolviendo el problema de los datos de entrenamiento de modelos obsoletos y la falta de comprensión de bases de conocimiento privadas. El objetivo es basar las respuestas en documentos reales y conocimientos privados, en lugar de limitarse a recordarlos mediante el propio modelo.

Conexión a tierra

A menudo aparece con RAG, lo que significa que las respuestas del modelo se basan en fuentes externas como documentos, bases de datos y páginas web, en lugar de depender únicamente de la memoria de parámetros para “jugar libremente”. Microsoft incluye claramente el fundamento como valor fundamental en la documentación de RAG.

Incrustación (incrustaciones vectoriales / vectores semánticos)

Se trata de codificar texto, imágenes, audio y otros contenidos en vectores digitales de alta dimensión para cálculos de similitud semántica.

Índice de referencia

El método de evaluación de usar un conjunto unificado de estándares para evaluar la capacidad de los modelos es también el lenguaje de clasificación favorito de varios modelos para “demostrar que son fuertes”.

Lecturas recomendadas

Preguntas clave 11 sobre la langosta: El desglose más fácil de entender sobre el principio de OpenClaw

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado