En este episodio hablamos de lo costoso que puede ser entrenar un modelo dependiendo del algoritmo y la cantidad de features. Hablamos de las diferentes optimizaciones que podemos hacer en nuestros algortimos a la hora de entrenar o de inferir.
Introducimos el concepto del *MLOps* y cómo la idea es automatizar todo el proceso para hacerlo repetible. Contamos como se puede conseguir con herramientas como Kubeflow, o utilizando herramientas nativas como las SageMaker Pipelines
Este es el episodio #2.20 del Podcast de Charlas Técnicas de AWS.
Secciones
00:00 | Introducción |
02:42 | Resumen de los episodios anteriores |
11:40 | Optimización de los modelos grandes |
38:40 | Optimización en base a los dispositivos de inferencia |
58:00 | MLOps |
01:06:37 | ¿Cómo empezar? |
🔗 Links mencionados en este episodio:
– Encuentra a Javier Ramírez en las redes: @supercoco9
– Episodio sobre la nueva región de España: https://youtu.be/ORUKQRDViK4
– Hugging face: https://huggingface.co/
– Episodio de IoT: https://youtu.be/_1Ryarag_pE
– Episodio de Servicios de Inteligencia Artificial: https://youtu.be/ie5ucXlZIqw
– Capa gratuita de AWS: https://aws.amazon.com/es/free/
– Tips para ahorrar y pagar muy poco usando AWS: https://youtu.be/yn1VsP65kOY
– Lista de reproducción con los episodios anteriores de ML: https://www.youtube.com/playlist?list=PLQh2jfOGN_IgJe01v7J0OZdvc8603pctS
✉️ Si quieres escribirnos puedes hacerlo a este correo: [email protected]
Puedes encontrar el podcast en este link: https://aws-espanol.buzzsprout.com/
O en tu plataforma de podcast favorita
Más información y tutoriales en el canal de Youtube de Charlas Técnicas
#foobar #AWSenEspañol