1

Condiciones habilitantes: ¿Qué necesita mi organización para implementar IA?

Imparte: Álvaro Soto
La implementación de modelos de IA tiene tres elementos fundamentales que cualquier organización debe considerar antes de avanzar: en primer lugar, el almacenamiento y calidad de los datos; en segundo lugar, la infraestructura de cómputo (nube o propia) para la inferencia y en tercer lugar el talento para el desarrollo, o ser contraparte de quien desarrolle. Este módulo profundiza en qué cosas mirar para elaborar un diagnóstico apropiado de brechas y oportunidades en la organización.
2

ML Ops: Herramientas de IA para optimizar la toma de decisiones en la empresa.

Imparte: Javier Rojas
El aprendizaje de máquinas (ML) permite automatizar procesos, abaratando costos y ofreciendo información para incrementar la generación de valor, liberando recursos de la organización para dedicarse a elementos más críticos de gestión. En este módulo estudiaremos diferentes aplicaciones de ML en operaciones.
3

Gobernanza de proyectos de IA: ¿Cómo estructurar un equipo para gestionar un proyecto con IA?

Imparte: Juan Ignacio Stark
La gestión de proyectos de IA tiene similitudes con el desarrollo de proyectos de innovación al interior de las organizaciones, pero ciertas particularidades, a propósito de su aplicación y necesidades. En este módulo estudiaremos metodologías que permitan una gestión eficiente y efectiva de proyectos de innovación basados en IA.
4

¿Qué son los GPT y los LLM?. Historia, desarrollo y resultados. Chat GPT y GPT-4: la revolución de la IA.

Imparte: Felipe Urrutia
Detrás del interfaz de OpenAI hay millones de horas, texto e imágenes de entrenamiento, miles de millones de GPU funcionando y décadas de investigación, con más frustraciones que éxitos. ¿Cuáles son las bases que sostienen esta herramienta? Estudiaremos los modelos grandes de lenguaje (LLM) y los GPT (generative pre trained transformers). Chat GPT, de la organización sin fines de lucro OpenAI, alcanzó 100 millones de usuarios en menos de dos meses. ¿Cómo se entrenó? ¿Cómo se construyó? ¿Cuáles son sus secretos?
5

Modelos con soporte para problemáticas multimodales. ¿Qué son? ¿Qué ventajas presentan?

Imparte: Sebastián Donoso
Para muchos, la inteligencia artificial multimodal es un camino promisorio para desarrollar los LLMs del futuro próximo. Si bien este es un paradigma relativamente nuevo para los LLMs, ya existen exponentes que permiten trabajar con textos, imágenes, audios, y muchas otras modalidades en forma integrada. En esta exposición se busca presentar este paradigma y mostrar los beneficios que trae en comparación con utilizar modelos especialistas en cada una de las modalidades.
6

Agentes usando LLMs: ¿Qué es el prompting y qué técnicas pueden usarse para explotar las capacidades de los LLMs? ¿Es posible integrar diferentes modelos?

Imparte: Ignacio Zurita
En esta sección se introducirán conceptos como “prompting”, es decir, cómo formular las preguntas o instrucciones a los LLMs para que proporcionen las respuestas deseadas. Aprenderemos diferentes técnicas de prompting que pueden usarse para maximizar las capacidades de los LLMs. Revisaremos cómo se pueden integrar varios modelos de naturaleza diferente para resolver en conjunto tareas más complejas, y explicaremos cómo convertir un modelo de lenguaje en un sistema de chatbot. Junto con esto, revisaremos herramientas de integración como LangChain y revisaremos casos de aplicación exitosos que han aprovechado estas tecnologías para sus negocios.
7

Refinamiento del modelo: Reentrenar LLMs con datos propios y/o para tareas a la medida.

Imparte: Sebastián Cifuentes
Los últimos avances en Inteligencia Artificial han demostrado que estos modelos tienen una versatilidad enorme para trabajar en problemas diversos, a pesar de no haber sido entrenados para resolver esas tareas en particular. A pesar de esto, para dominios muy específicos o problemáticas muy particulares pueden tener rendimientos inferiores a los que requiere una determinada aplicación. Esta exposición busca plantear alternativas para atacar este problema mediante una adaptación (refinamiento) de estos modelos, donde las técnicas eficientes en cómputo y parámetros presentan ventajas notables para su aplicación concreta.
8

Desafíos del entrenamiento y manejo de LLMs. Revisión de plataformas disponibles.

Imparte: Tomás Gómez
Entrenar y manejar LLMs es un proceso que presenta varios desafíos, tanto a nivel de software como de hardware. En esta sección, discutiremos las dificultades inherentes al entrenamiento de estos modelos. Además, revisaremos algunas plataformas disponibles para el entrenamiento y el despliegue de estos modelos, proporcionando una visión global de las ventajas y desventajas de cada una.
9

Precauciones y límites: hasta dónde pueden llegar los modelos generativos.

Imparte: Carlos Aspillaga
Los usos potenciales de estos modelos parecen no tener límites, pero no están exentos de dilemas. ¿Cómo promovemos un uso ético de esta herramienta? ¿Cómo evitamos replicar y aumentar los sesgos que ya tienen los datos con los que entrenamos? ¿Qué desafíos surgen de la interacción entre el hombre y la máquina, entre la sociedad y la inteligencia artificial?