Curso de Modelos de Lenguaje Grande (LLMs) para Reconocimiento y Síntesis de Voz
Large Language Models (LLMs) se utilizan en diversas aplicaciones de IA, como el reconocimiento y la síntesis de voz, para procesar y generar texto y voz similares a los humanos.
Esta capacitación en vivo dirigida por un instructor (en línea o en el sitio) está dirigida a desarrolladores de software y científicos de datos de nivel principiante a intermedio que deseen implementar LLM en sistemas de síntesis y reconocimiento de voz.
Al final de esta capacitación, los participantes serán capaces de:
- Comprender el papel de los LLM en las tecnologías del habla.
- Implemente LLM para un reconocimiento de voz preciso y una síntesis de voz con sonido natural.
- Integre los LLM con motores de reconocimiento de voz y sintetizadores de voz.
- Evalúe y mejore el rendimiento de los sistemas de voz utilizando LLM.
- Manténgase informado sobre las tendencias actuales y las direcciones futuras en las tecnologías del habla.
Formato del curso
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
- Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertar una cita.
Programa del Curso
Introducción a Speech Recognition y Síntesis
- Fundamentos de las tecnologías del habla
- Conceptos básicos de los sistemas de reconocimiento de voz
- Visión general de la síntesis de voz
Papel de los LLM en las tecnologías del habla
- Comprender los LLM en el reconocimiento de voz
- Maestría en Síntesis de Voz
- Ventajas de los LLM frente a los modelos tradicionales
Datos para Speech Recognition y Síntesis
- Recopilación y procesamiento de datos para tecnologías del habla
- Conjuntos de datos de entrenamiento para LLM
- Consideraciones éticas en el tratamiento de datos
Formación de LLM para aplicaciones de voz
- Técnicas de aprendizaje profundo en el reconocimiento de voz
- Arquitecturas de redes neuronales para la síntesis de voz
- Ajuste fino de los LLM para tareas de voz específicas
Implementación de LLM en sistemas de voz
- Integración de LLMs con motores de reconocimiento de voz
- Desarrollo de sintetizadores de voz con sonido natural
- Diseño de interfaz de usuario para aplicaciones de voz
Pruebas y evaluación de sistemas de voz
- Métodos para probar la precisión del reconocimiento de voz
- Evaluación de la naturalidad del habla sintetizada
- Estudios de usuarios y recopilación de comentarios
Retos y soluciones en las tecnologías del habla
- Abordar problemas comunes en el reconocimiento de voz
- Superando obstáculos en la síntesis de voz
- Casos de estudio: implementaciones exitosas de LLM
Direcciones futuras en las tecnologías del habla
- Tendencias emergentes en reconocimiento y síntesis de voz
- El papel de los LLM en los sistemas de voz multilingües
- Innovaciones y oportunidades de investigación
Proyecto y Evaluación
- Diseño e implementación de un sistema de reconocimiento o síntesis de voz mediante LLM
- Revisiones por pares y discusiones grupales
- Evaluación final y retroalimentación
Resumen y próximos pasos
Requerimientos
- Comprensión de los conceptos básicos de programación
- Se recomienda tener experiencia con Python programación, pero no es obligatorio
- La familiaridad con los conceptos básicos de aprendizaje automático y redes neuronales es beneficiosa
Audiencia
- Desarrolladores de software
- Científicos de datos
- Jefes de producto
Los cursos de formación abiertos requieren más de 5 participantes.
Curso de Modelos de Lenguaje Grande (LLMs) para Reconocimiento y Síntesis de Voz - Booking
Curso de Modelos de Lenguaje Grande (LLMs) para Reconocimiento y Síntesis de Voz - Enquiry
Modelos de Lenguaje Grande (LLMs) para Reconocimiento y Síntesis de Voz - Consulta de consultoría
Consulta de consultoría
Próximos cursos
Cursos Relacionados
Avanzado de LangGraph: Optimización, Depuración y Monitoreo de Grafos Complejos
35 HorasLangGraph es un marco para construir aplicaciones LLM multiactor con estado, como gráficos componibles con estado persistente y control de ejecución.
Esta formación en vivo dirigida por instructores (en línea o presencial) está destinada a ingenieros avanzados de plataformas AI, DevOps para AI y arquitectos ML que desean optimizar, depurar, monitorear y operar sistemas LangGraph de grado de producción.
Al finalizar esta formación, los participantes serán capaces de:
- Diseñar y optimizar topologías complejas de LangGraph para velocidad, costo y escalabilidad.
- Diseñar confiabilidad con reintentos, tiempos de espera, idempotencia y recuperación basada en puntos de control.
- Depurar y rastrear ejecuciones del gráfico, inspeccionar el estado y reproducir sistemáticamente problemas de producción.
- Instrumentar gráficos con registros, métricas y trazas, implementar en producción y monitorear SLAs y costos.
Formato del Curso
- Sesión interactiva de lectura y discusión.
- Numerosos ejercicios y prácticas.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor póngase en contacto con nosotros para concertar la fecha.
Depuración y Evaluación Avanzada de Modelos Ollama
35 HorasAdvanced Ollama Model Debugging & Evaluation es un curso detallado centrado en el diagnóstico, la prueba y la medición del comportamiento de los modelos al ejecutar implementaciones locales o privadas de Ollama.
Esta formación en vivo dirigida por instructores (en línea o presencial) se dirige a ingenieros de IA avanzados, profesionales de ML Ops y practicantes de QA que desean garantizar la fiabilidad, la fidelidad y la preparación operativa de los modelos basados en Ollama en producción.
Al final de esta formación, los participantes serán capaces de:
- Ejecutar un depurado sistemático de modelos alojados en Ollama y reproducir modos de fallo de manera confiable.
- Diseñar y ejecutar pipelines de evaluación robusta con métricas cuantitativas y cualitativas.
- Implementar la observabilidad (logs, trazas, métricas) para monitorear la salud del modelo y el deriva.
- Automatizar pruebas, validaciones y controles de regresión integrados en los pipelines CI/CD.
Formato del Curso
- Conferencia interactiva y discusión.
- Laboratorios prácticos y ejercicios de depuración utilizando implementaciones de Ollama.
- Casos de estudio, sesiones grupales de solución de problemas y talleres de automatización.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para arreglarlo.
Creando Flujos de Trabajo de IA Privada con Ollama
14 HorasEsta formación en vivo y presidida por un instructor (en línea o en el sitio) está dirigida a profesionales avanzados que desean implementar flujos de trabajo impulsados por IA seguros y eficientes utilizando Ollama.
Al finalizar esta formación, los participantes podrán:
- Implementar y configurar Ollama para el procesamiento de IA privada.
- Integrar modelos de IA en flujos de trabajo empresariales seguros.
- Optimizar el rendimiento de la IA mientras se mantiene la privacidad de los datos.
- Automatizar procesos de negocio con capacidades de IA alojadas localmente.
- Asegurar el cumplimiento con las políticas de seguridad y gobernanza empresariales.
Implementación y Optimización de Modelos de Lenguaje Grande (LLMs) con Ollama
14 HorasEste entrenamiento dirigido por un instructor, en vivo en Chile (en línea o presencial), está dirigido a profesionales de nivel intermedio que deseen implementar, optimizar e integrar LLMs utilizando Ollama.
Al finalizar este entrenamiento, los participantes podrán:
- Configurar e implementar LLMs utilizando Ollama.
- Optimizar modelos de IA para mejorar el rendimiento y la eficiencia.
- Aprovechar la aceleración de GPU para mejorar la velocidad de inferencia.
- Integrar Ollama en flujos de trabajo y aplicaciones.
- Monitorear y mantener el rendimiento de los modelos de IA a lo largo del tiempo.
Fine-Tuning y Personalización de Modelos de IA en Ollama
14 HorasEste entrenamiento en vivo dirigido por un instructor (en línea o presencial) en Chile está destinado a profesionales de nivel avanzado que desean afinar y personalizar modelos AI en Ollama para mejorar el rendimiento y aplicaciones específicas del dominio.
Al finalizar este entrenamiento, los participantes podrán:
- Configurar un entorno eficiente para afinar modelos AI en Ollama.
- Preparar conjuntos de datos para el ajuste supervisado y el aprendizaje por refuerzo.
- Optimizar los modelos AI para rendimiento, precisión y eficiencia.
- Implementar modelos personalizados en entornos de producción.
- Evaluar mejoras del modelo y asegurar la robustez.
Aplicaciones de LangGraph en Finanzas
35 HorasLangGraph es un marco para construir aplicaciones LLM multiactor con estado como gráficos componibles con estado persistente y control sobre la ejecución.
Esta formación en vivo (en línea u on-site) dirigida por instructores está destinada a profesionales de nivel intermedio a avanzado que desean diseñar, implementar y operar soluciones financieras basadas en LangGraph con una adecuada gobernanza, observabilidad y cumplimiento.
Al finalizar esta formación, los participantes podrán:
- Diseñar flujos de trabajo específicos de finanzas de LangGraph alineados con requisitos regulatorios y de auditoría.
- Integrar estándares de datos financieros y ontologías en el estado del gráfico y las herramientas.
- Implementar confiabilidad, seguridad y controles human-in-the-loop para procesos críticos.
- Deploy, monitorizar y optimizar sistemas LangGraph para rendimiento, costo y SLAs.
Formato del Curso
- Conferencias interactivas y discusiones.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para organizarlo.
Fundamentos de LangGraph: Generación y Enlazado Basados en Grafos de LLM
14 HorasLangGraph es un marco para construir aplicaciones LLM estructuradas en grafos que admiten planificación, ramificación, uso de herramientas, memoria y ejecución controlada.
Esta formación en vivo dirigida por instructores (en línea o presencial) está destinada a desarrolladores principiantes, ingenieros de prompts y profesionales de datos que desean diseñar y construir flujos de trabajo LLM multi-etapas confiables utilizando LangGraph.
Al finalizar esta formación, los participantes podrán:
- Explicar conceptos básicos de LangGraph (nodos, bordes, estado) y cuándo utilizarlos.
- Construir cadenas de prompts que se ramifiquen, invoquen herramientas y mantengan la memoria.
- Integrar recuperaciones y APIs externas en los flujos de trabajo gráficos.
- Probar, depurar y evaluar aplicaciones LangGraph para confiabilidad y seguridad.
Formato del Curso
- Charla interactiva y discusión facilitada.
- Laboratorios guiados y revisión de código en un entorno de sandbox.
- Ejercicios basados en escenarios sobre diseño, prueba y evaluación.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para acordarlo.
LangGraph en la Salud: Orquestación de Flujos de Trabajo para Entornos Regulados
35 HorasLangGraph habilita flujos de trabajo multiactor y con estado, impulsados por LLMs, con un control preciso sobre las rutas de ejecución y la persistencia del estado. En el ámbito de la salud, estas capacidades son cruciales para cumplir con los requisitos normativos, garantizar la interoperabilidad y desarrollar sistemas de apoyo a la toma de decisiones que se alineen con los flujos de trabajo médicos.
Esta formación en vivo dirigida por un instructor (en línea o presencial) está destinada a profesionales de nivel intermedio a avanzado que deseen diseñar, implementar y gestionar soluciones basadas en LangGraph para la salud, abordando desafíos regulatorios, éticos y operativos.
Al finalizar esta formación, los participantes podrán:
- Diseñar flujos de trabajo específicos del sector sanitario con LangGraph, teniendo en cuenta la conformidad y la auditoría.
- Integrar aplicaciones LangGraph con ontologías médicas y estándares (FHIR, SNOMED CT, ICD).
- Aplicar las mejores prácticas para confiabilidad, trazabilidad y explicabilidad en entornos sensibles.
- Distribuir, supervisar y validar aplicaciones LangGraph en entornos de producción sanitaria.
Formato del Curso
- Conferencias interactivas y discusiones.
- Ejercicios prácticos con estudios de casos reales.
- Ejercitación en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor póngase en contacto con nosotros para coordinar.
LangGraph para Aplicaciones Legales
35 HorasLangGraph es un marco para construir aplicaciones LLM multiactor con estado, como gráficos componibles con un estado persistente y un control preciso sobre la ejecución.
Este entrenamiento en vivo dirigido por un instructor (en línea o presencial) está destinado a profesionales de nivel intermedio a avanzado que desean diseñar, implementar y operar soluciones legales basadas en LangGraph con los controles necesarios de cumplimiento, trazabilidad y gobernanza.
Al finalizar este entrenamiento, los participantes podrán:
- Diseñar flujos de trabajo específicos para la legalidad en LangGraph que preserven la auditoría y el cumplimiento.
- Integrar ontologías legales y estándares de documentos en el estado del gráfico y su procesamiento.
- Implementar barreras de seguridad, aprobaciones con intervención humana y caminos de decisiones trazables.
- Desplegar, monitorear y mantener servicios LangGraph en producción con observabilidad y controles de costos.
Formato del Curso
- Sesiones interactivas de lectura y discusión.
- Numerosos ejercicios y prácticas.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para coordinar.
Creación de Flujos de Trabajo Dinámicos con LangGraph y Agentes LLM
14 HorasLangGraph es un marco para componer flujos de trabajo estructurados en gráficos que admiten ramificación, uso de herramientas, memoria y ejecución controlada.
Este entrenamiento en vivo guiado por instructores (en línea o presencial) está destinado a ingenieros de nivel intermedio y equipos de productos que desean combinar la lógica gráfica de LangGraph con los bucles de agentes LLM para construir aplicaciones dinámicas y conscientes del contexto, como agentes de soporte al cliente, árboles de decisiones y sistemas de recuperación de información.
Al finalizar este entrenamiento, los participantes podrán:
- Diseñar flujos de trabajo basados en gráficos que coordinen agentes LLM, herramientas y memoria.
- Implementar enrutamiento condicional, reintentos y respaldos para una ejecución robusta.
- Integrar la recuperación, APIs y salidas estructuradas en los bucles de agentes.
- Evaluar, monitorear y fortalecer el comportamiento del agente para mejorar la confiabilidad y seguridad.
Formato del Curso
- Conferencia interactiva y discusión facilitada.
- Laboratorios guiados y repaso de código en un entorno sandbox.
- Ejercicios de diseño basados en escenarios y revisiones entre pares.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para organizarlo.
LangGraph para Automatización de Marketing
14 HorasLangGraph es un marco de orquestación basado en grafos que permite flujos de trabajo condicionales y multi-pasos para LLM y herramientas, ideal para automatizar y personalizar canales de contenido.
Esta formación en vivo dirigida por instructores (en línea o presencial) se dirige a marketers de nivel intermedio, estrategas de contenidos y desarrolladores de automatización que deseen implementar campañas de correo electrónico dinámicas y ramificadas y canales de generación de contenido utilizando LangGraph.
Al finalizar esta formación, los participantes podrán:
- Diseñar flujos de trabajo de contenido y correo electrónico estructurados en grafos con lógica condicional.
- Integrar LLMs, APIs y fuentes de datos para personalización automatizada.
- Gestionar estado, memoria y contexto a lo largo de campañas multi-paso.
- Evaluar, monitorear y optimizar el rendimiento del flujo de trabajo y los resultados de entrega.
Formato del Curso
- Conferencias interactivas y discusiones grupales.
- Laboratorios prácticos implementando flujos de trabajo de correo electrónico y canales de contenido.
- Ejercicios basados en escenarios sobre personalización, segmentación y lógica ramificada.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para organizarlo.
Aplicaciones Multimodales con Ollama
21 HorasOllama es una plataforma que permite ejecutar y ajustar modelos de lenguaje grandes y multimodales localmente.
Esta formación en vivo dirigida por un instructor (en línea o presencial) está destinada a ingenieros ML avanzados, investigadores de IA y desarrolladores de productos que desean construir y desplegar aplicaciones multimodales con Ollama.
Al finalizar esta formación, los participantes podrán:
- Configurar y ejecutar modelos multimodales con Ollama.
- Integrar entradas de texto, imagen y audio para aplicaciones del mundo real.
- Desarrollar sistemas de comprensión de documentos y QA visual.
- Crear agentes multimodales capaces de razonar entre modalidades.
Formato del Curso
- Conferencia interactiva y discusión.
- Ejercicios prácticos con conjuntos de datos multimodales reales.
- Implementación en laboratorio vivo de tuberías multimodales usando Ollama.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para coordinar.
Introducción a Ollama: Ejecución de Modelos de IA Locales
7 HorasEsta formación en vivo, dirigida por un instructor (en línea u on-site), está orientada a profesionales principiantes que desean instalar, configurar y usar Ollama para ejecutar modelos de IA en sus máquinas locales.
Al finalizar esta formación, los participantes podrán:
- Comprender los fundamentos y capacidades de Ollama.
- Configurar Ollama para ejecutar modelos locales de IA.
- Implementar e interactuar con LLMs utilizando Ollama.
- Optimizar el rendimiento y el uso de recursos para cargas de trabajo de IA.
- Explorar casos de uso para la implementación local de IA en diversos sectores.
Escalado de Ollama y Optimización de la Infraestructura
21 HorasOllama es una plataforma para ejecutar modelos de lenguaje y multimodales a gran escala de manera local y escalable.
Este entrenamiento en vivo dirigido por un instructor (en línea o presencial) está destinado a ingenieros de nivel intermedio a avanzado que desean escalar las implementaciones de Ollama para entornos de múltiples usuarios, alta capacidad de procesamiento y eficiencia de costos.
Al finalizar este entrenamiento, los participantes podrán:
- Configurar Ollama para cargas de trabajo multiusuario y distribuidas.
- Optimizar la asignación de recursos GPU y CPU.
- Implementar estrategias de escalado automático, batching y reducción de latencia.
- Monitorear y optimizar la infraestructura para el rendimiento y la eficiencia de costos.
Formato del Curso
- Conferencias interactivas y discusiones.
- Laboratorios prácticos de implementación y escalado.
- Ejercicios de optimización en entornos en vivo.
Opciones de Personalización del Curso
- Para solicitar un entrenamiento personalizado para este curso, por favor contáctenos para concertarlo.
Maestría en Ingeniería de Prompt con Ollama
14 HorasOllama es una plataforma que permite ejecutar modelos de lenguaje y multimodales de gran tamaño localmente.
Esta formación en vivo dirigida por un instructor (en línea u onsite) está destinada a profesionales de nivel intermedio que desean dominar técnicas de ingeniería de prompts para optimizar las salidas de Ollama.
Al final de esta formación, los participantes podrán:
- Diseñar prompts efectivos para casos de uso diversos.
- Aplicar técnicas como el priming y la estructuración en cadena de pensamiento.
- Implementar plantillas de prompts y estrategias de gestión de contexto.
- Construir pipelines de promping multi-etapas para flujos de trabajo complejos.
Formato del Curso
- Conferencia interactiva y discusión.
- Ejercicios prácticos con diseño de prompts.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para coordinar.