On vous a gentiment (ou pas) annoncé : "Il faut qu’on mette de l’IA dans le produit". Vous ouvrez un chat avec un LLM… Et là, panique : prompts, context window, tokens, mcp, system messages… Par où commencer ?
Ce talk s’adresse aux devs, tech leads, PO et architectes qui doivent intégrer un LLM dans un projet réel, mais qui n’ont pas encore la comprehension pour le faire sereinement.
Nous verrons, de façon très concrète :
- Comment fonctionne un LLM vu du dev (et ce qu’il ne fait pas).
- Les bases du prompt engineering : rôles, contraintes, exemples, formats structurés.-
- Les principes du context engineering : fenêtre de contexte, découpages, RAG, historique, limites.
- Les patterns simples pour passer d’un “chat magique” à une brique logicielle fiable.
L’objectif : repartir avec un socle mental clair et quelques recettes réutilisables pour ne plus subir l’IA… mais l’utiliser intelligemment.