L’anatomie d’un géant : De l’algèbre linéaire à l’intelligence
Les grands modèles de langage (Large Language Models ou LLM) semblent magiques, mais une fois le capot soulevé, la magie s'efface au profit d'une élégante mécanique mathématique. Comment de simples multiplications de matrices peuvent-elles aboutir à un raisonnement complexe?
Dans cette session technique, nous disséquerons l'architecture d'un modèle SOTA pour tracer le voyage de la donnée. Nous partirons des fondations de l'algèbre linéaire, vecteurs, matrices et tenseurs, pour remonter jusqu'aux mécanismes d'attention et aux probabilités qui génèrent le langage.
Oubliez les prompts. Ici, on remonte à la source : structure interne, fonctions d’activation, géométrie vectorielle — tout ce qui transforme des calculs bruts en une forme d’intelligence apparente. Une plongée from scratch pour saisir, enfin, ce que ces modèles « pensent » vraiment.
Salle 4
- Développement

Alexis Fortin-Côté
Lead AI Scientist, Vooban
Alexis Fortin-Côté, ingénieur titulaire d’un doctorat en robotique, conçoit des solutions d’IA chez Vooban pour optimiser les processus et tirer le meilleur parti des données des clients. Il se concentre sur l’élaboration de stratégies et de solutions permettant aux entreprises d’intégrer l’IA de manière fluide, de maximiser la valeur de leurs données et d’automatiser leurs opérations.