Modelos personalizados de inteligencia artificial generativa: desarrolla tu propio chatbot

ONP20_0187

20 horas

Online

150,00 €

Fechas y horario libre

Objetivos

Identificar y explicar los componentes clave y la funcionalidad de los Modelos de Lenguaje de Gran Escala (LLMs) y la Recuperación de Información Generativa (RAG).
Evaluar ejemplos de aplicaciones RAG y describir cómo se integran con LLMs para mejorar la recuperación de información.
Aplicar técnicas de procesamiento para transformar datos no estructurados en formatos adecuados para el uso en LLMs.
Desarrollar habilidades para implementar y utilizar Sentence Transformers en la creación de bases de datos vectoriales para aplicaciones RAG.
Implementar y evaluar estrategias de búsqueda y recuperación utilizando consultas vectoriales y modelos LLM.
Implementar y desplegar modelos LLM en entornos locales y en la nube, utilizando herramientas avanzadas para facilitar el acceso y la interacción.
Utilizar frameworks de código abierto para desarrollar y desplegar aplicaciones RAG, demostrando comprensión y habilidad en la integración de estos componentes.

Dirigido a:

Profesionales y estudiantes de tecnologías de la información, ciencias de datos, inteligencia artificial y áreas afines que desean adquirir conocimientos fundamentales sobre los Modelos de Lenguaje de Gran Escala (LLMs) y su aplicación en la inteligencia artificial generativa. Es ideal para:

Desarrolladores de software y programadores interesados en inteligencia artificial.
Analistas de datos y científicos de datos que buscan mejorar sus habilidades en procesamiento y recuperación de información.
Ingenieros de sistemas y arquitectos de soluciones que desean implementar soluciones basadas en LLMs.
Estudiantes y académicos interesados en las aplicaciones prácticas de la inteligencia artificial generativa.

Temario

1. Conceptos básicos sobre LLMs y recuperación de datos
•     LLMs y Transformers: Superan las limitaciones de redes clásicas (CNNs, RNNs) mediante autoatención y paralelización.
•     Herramientas: Uso de Hugging Face y Google Colab para operar LLMs.
•     RAG: Recuperación de datos integrada con LLMs para mejorar búsquedas.
2. Procesamiento de datos no estructurados
•     Texto y multimedia: Limpieza, fragmentación, vectorización y procesamiento de documentos, imágenes y videos.
•     Indexación: Preparación de datos para consultas eficientes con técnicas modernas.
3. Embeddings y bases de datos vectoriales
• Bases vectoriales: Ventajas frente a métodos tradicionales y su • integración con Sentence Transformers.
• Almacenamiento y Fine-tuning: Generación de embeddings y ajuste de modelos personalizados.
4. Crea tu chatbot con datos personalizados
•    Desarrollo: Creación de un chatbot alojado en Hugging Face o servidores locales.
•    Evaluación: Estrategias para medir efectividad (Recall, MRR).
5. Despliegues de LLMs, plataformas y herramientas
•    Entornos locales y en la nube: Configuración, optimización y mantenimiento de despliegues.
•    Herramientas: Amazon Sagemaker, Google Vertex AI, entre otros.
•    Desafíos y seguridad: Métodos para optimizar rendimiento y garantizar seguridad.