Glosario de términos en el ámbito de la Inteligencia Artificial
La llegada de fines de 2022 del ChatGPT representó un hito en la inteligencia artificial que tardó décadas en alcanzarse. Veamos algunos términos de uso frecuente y su significado.
Aprendizaje automático
Apredizaje automático o Machine Learning es el proceso de mejorar gradualmente los algoritmos (conjuntos de instrucciones para lograr un resultado específico) exponiéndolos a grandes cantidades de datos. Al revisar muchas ‘entradas’ y ‘salidas’, una computadora puede ‘aprender’ sin necesariamente tener que estar capacitada en los detalles del trabajo en cuestión.
Como ejemplo, se puede analizar la aplicación de fotos para iPhone: inicialmente, no sabe cómo te ves físicamente. Pero una vez que comienzas a etiquetarte a ti mismo como el rostro en fotos tomadas durante muchos años, y en una variedad de entornos, la máquina adquiere la capacidad de conocerlo.
Chatbots
Estas herramientas pueden mantener conversaciones con personas sobre temas que van desde curiosidades históricas hasta nuevas recetas de comida. Los primeros ejemplos son las herramientas que los proveedores de servicio utilizan en sus páginas. ‘Contáctenos’ como primer recurso para los clientes que necesitan ayuda.
Se espera es que los chatbots como ChatGPT de OpenAI y Bard de Google mejoren rápidamente como resultado de los avances recientes en Inteligencia Artificial y transformen la forma en que buscamos en Internet.
IA generativa
Se refiere a obras, -imágenes, ensayos, poesía, salmodias marinas- a partir de simples preguntas y órdenes. Incluye a DALL-E y ChatGPT, que pueden crear imágenes, elaboradas y detalladas en segundo, y MusicLM de Google, que genera música a partir de las descripciones de texto.
La IA generativa crea un nuevo trabajo después de ser entrenada en grandes cantidades de material preexistente. Ha dado lugar a algunas demandas de los titulares de derechos de autor que se quejan de que su propio trabajo ha sido copiado.
Redes neuronales
Este es un tipo de IA en el que una computadora está programada para aprender, más o menos de la misma manera que lo hace un cerebro humano: a través de prueba y error. El éxito o el fracaso influye en futuros intentos y adaptaciones, al igual que un cerebro joven aprende a mapear las vías neuronales en función de lo que se le ha enseñado al niño. El proceso puede implicar millones de intentos para lograr la competencia.
Modelos de lenguaje grande
Éstas son redes “neuronales” muy grandes que se entrenan utilizando cantidades masivas de texto y datos, incluidos libros electrónicos, artículos de noticias y páginas de Wikipedia. Con miles de millones de parámetros para aprender, los LLM son la columna vertebral del procesamiento de lenguaje natural, que permite reconocer, resumir, traducir, predecir y generar texto.
GPT
Un transformador preentrenado generativo es un tipo de LLM. ‘Transformador’ se refiere a un sistema que puede tomar cadenas entradas y procesarlas todas juntas, y no de forma aislada, de modo que se puede capturar el contexto y el orden de las palabras. Esto es importante en la traducción de idiomas.