Charlas técnicas
¿Qué pasa cuando juntás a un dev, una sysops y manager, y un obsesivo del compute y la observabilidad a tomar un café?
Charlas Técnicas.
Cada episodio nos sentamos a hablar de lo que está pasando en cloud, inteligencia artificial y tecnología.
Tres perfiles técnicos, tres perspectivas distintas, opiniones honestas y cero formalidad. Sin guiones rígidos, sin marketing. Solo conversaciones reales de gente que trabaja en esto todos los días.
Escribinos a: podcast-aws-espanol@amazon.com
Charlas técnicas
#4.12 - Inteligencia Artificial Generativa
Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.
En este episodio, Antonio Rodriguez, Senior AI/ML Specialist en AWS, nos muestra el poder creativo de la IA Generativa y su potencial al alcance de todos. Prepárate para un viaje fascinante hacia el futuro de la inteligencia artificial en nuestro nuevo episodio.
Este es el episodio 11 de la cuarta temporada del podcast de Charlas Técnicas de AWS.
📑Tabla de contenidos:
02.06 - Qué es la IA Generativa?
04.23 - Es ChatGPT la solución a todo?
07.07 - CodeWhisperer
08.20 - La privacidad de los Datos
10.40 - Optimizando los modelos de IA
13.00 - Qué es un LLM (Large Language Model)?
14.44 - Qué es un Modelo Fundacional (FM)?
15.20 - Cómo elegir un modelo?
19.30 - Qué ofrece AWS para aprovechar la potencia de estos modelos?
22.45 - Técnicas Transformadoras en IA: Prompt Engineering
27.22 - Técnicas Transformadoras en IA: Embeddings
29.57 - Técnicas Transformadoras en IA: Fine-tuning
32.37 - Cómo impacta esto en los equipos de Data Scientists?
35.06 - Qué nos espera en un futuro inmediato? Bedrock! Bedrock!
39.22 - Por dónde empiezo?
40.21 - La recomendación de la semana
🔗 Links mencionados en este episodio:
- IA Generativa en AWS: https://aws.amazon.com/generative-ai/
- Solución para la comprensión de documentos: https://aws.amazon.com/es/solutions/implementations/document-understanding-solution/
- Creando aplicaciones de IA generativa en datos empresariales utilizando Amazon Kendra, LangChain y LLMs: https://aws.amazon.com/es/blogs/machine-learning/quickly-build-high-accuracy-generative-ai-applications-on-enterprise-data-using-amazon-kendra-langchain-and-large-language-models/
- Presentando el contenedor de inferencia LLM HugginFace para Amazon SageMaker: https://huggingface.co/blog/sagemaker-huggingface-llm
- OpenLLM Leaderboard: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard
✉️ Si quieren escribirnos pueden hacerlo a este correo: podcast-aws-espanol@amazon.com
Podes encontrar el podcast en este link: https://podcast.marcia.dev/
O en tu plataforma de podcast favorita
Más información y tutoriales en el canal de youtube de Charlas Técnicas
☆☆ NUESTRAS REDES SOCIALES ☆☆
🐦Guille LinkedIn: https://www.linkedin.com/in/gruizesteban/
🐦 Isa LinkedIn: https://www.linkedin.com/in/isahuerga/
🐦 Marcia LinkedIn: https://www.linkedin.com/in/marciavillalba/
🐦 Podcast Charlas Técnicas: https://www.linkedin.com/company/podcast-aws-es
#charlasTecnicas