Vous recherchez une définition d'un terme particulier ?La liste du jargon est ci-dessous :
Le protocole A2A (Agent-to-Agent) est un standard ouvert proposé par Google en avril 2025 pour permettre à des agents IA de différents fournisseurs de communiquer et collaborer. Complémentaire du MCP (Model Context Protocol), il standardise la découverte, la négociation et l'échange de tâches entre agents.
Un agent IA est un système d'intelligence artificielle capable de percevoir son environnement, raisonner et agir de manière autonome pour accomplir des objectifs, sans intervention humaine constante.
L'AI Act est le règlement européen qui encadre le développement et l'utilisation des systèmes d'intelligence artificielle dans l'UE, avec des obligations graduées selon le niveau de risque.
Un AI Champion est un collaborateur formé pour accélérer l'adoption de l'intelligence artificielle au sein de son équipe ou département. Il fait le pont entre l'expertise technique et les métiers, identifie les cas d'usage pertinents et accompagne ses collègues dans la prise en main des outils IA.
Un AI copilot est un assistant IA intégré dans un outil métier qui augmente la productivité de l'utilisateur en suggérant, corrigeant et automatisant des tâches dans son flux de travail. À la différence d'un agent IA autonome, le copilot assiste l'humain qui garde le contrôle des décisions.
L'AI Death Cycle est le cercle vicieux dans lequel les projets IA échouent faute de fondations data solides, renforçant le scepticisme de l'organisation, réduisant les investissements et dégradant les conditions de succès des projets suivants. Comprendre ce cycle est la première étape pour en sortir.
L'AI Governance désigne le cadre organisationnel — politiques, processus, rôles et comités — qui encadre le développement et l'utilisation de l'IA dans une organisation. Elle couvre la gestion des risques, la conformité réglementaire, l'éthique et la transparence des systèmes IA.
L'AI Ops désigne l'ensemble des pratiques et le rôle dédié à structurer, accélérer et piloter l'adoption de l'intelligence artificielle à l'échelle d'une organisation.
L'AI Product Manager est un profil qui combine les compétences du product management avec une compréhension approfondie de l'IA et du machine learning. Il pilote la conception de produits intégrant de l'intelligence artificielle en faisant le lien entre les équipes techniques, business et les utilisateurs.
L'AI Readiness (maturité IA) mesure la capacité d'une organisation à adopter et exploiter l'intelligence artificielle de manière effective. Elle évalue la maturité sur plusieurs axes : qualité des données, compétences internes, culture d'entreprise, infrastructure technique et gouvernance.
L'analyse des erreurs est une methode systematique pour identifier, categoriser et corriger les faiblesses d'un modele de Machine Learning. Elle guide les iterations d'amelioration en ciblant les sous-populations ou le modele echoue le plus.
L'Analytics Engineer applique les bonnes pratiques du Software Engineering (tests, CI/CD, versioning) à la transformation des données, comblant le fossé entre Data Engineer et Data Analyst.
L'architecture Transformer est un type de réseau de neurones basé sur le mécanisme d'attention, introduit par Google en 2017. Elle constitue le fondement technique de tous les grands modèles de langage actuels (GPT, Claude, Llama, Mistral) et a transformé le traitement du langage naturel.
AWS (Amazon Web Services) est la plateforme de cloud computing d'Amazon, leader mondial du marché avec plus de 200 services couvrant le calcul, le stockage, les bases de données, l'IA et le machine learning.
Une base de données vectorielle est un système de stockage optimisé pour indexer et rechercher des vecteurs d'embeddings. Elle permet la recherche sémantique en trouvant les éléments les plus proches dans un espace mathématique, et constitue une brique fondamentale des architectures RAG.
ChatGPT est l'application d'IA conversationnelle développée par OpenAI, basée sur les modèles GPT. Son lancement fin 2022 a déclenché l'adoption massive de l'IA générative dans le grand public et en entreprise.
Un Citizen Data Scientist est un professionnel métier capable d'utiliser des techniques d'analyse de données et de machine learning grâce à des outils no-code/low-code, sans formation spécialisée en data science.
Le Cloud Computing permet d'accéder à des ressources informatiques (serveurs, stockage, bases de données, IA) via Internet, sans posséder ni gérer l'infrastructure physique sous-jacente.
Un Compound AI System est un système d'IA composé de plusieurs composants orchestrés (LLMs, retrievers, outils, code) pour résoudre des tâches complexes. Plutôt que de tout confier à un seul modèle, cette approche modulaire combine les forces de chaque composant pour obtenir de meilleurs résultats.
Le context engineering consiste à concevoir et optimiser l'ensemble du contexte fourni à un LLM pour obtenir des réponses fiables. Au-delà du prompt, il intègre la sélection dynamique d'informations, la gestion de la mémoire et l'orchestration des sources de données.
CRISP-ML(Q) est une méthodologie qui standardise le cycle de vie des projets de Machine Learning en 7 étapes, de la compréhension du problème au monitoring en production, avec un prisme qualité.
Le Data Analyst collecte, nettoie et analyse les données de l'entreprise pour produire des indicateurs, des rapports et des recommandations qui éclairent la prise de décision stratégique et opérationnelle.
Le Data as a Product est une approche qui consiste a traiter les donnees comme un produit a part entiere, avec un responsable, des utilisateurs et des standards de qualite. C'est l'un des 4 piliers du Data Mesh.
Le Data Business Model Canvas est un outil de cadrage qui adapte le Business Model Canvas d'Alex Osterwalder aux projets Data, en structurant la reflexion autour de 9 sections centrees sur la donnee.
Un Data Contract est un accord formel entre un producteur et un consommateur de données qui définit la structure, le format, la qualité attendue et les SLAs des données échangées. Il formalise les engagements de chaque partie et rend les dépendances data explicites et vérifiables.
Le Data Drift designe le changement de distribution des donnees en entree d'un modele de Machine Learning au fil du temps, pouvant degrader ses performances sans que le modele lui-meme ait change.
Le Data Engineer concoit, construit et maintient les pipelines et infrastructures de donnees qui permettent aux organisations de collecter, transformer et mettre a disposition leurs donnees a grande echelle.
La Data Governance est le cadre strategique et operationnel qui definit les regles, les roles et les processus pour gerer les donnees d'une organisation de maniere fiable, securisee et conforme.
Le Data Lineage retrace le parcours complet des donnees au sein d'une organisation : leur origine, les transformations subies et les systemes traverses, de la source jusqu'a la consommation finale.
La Data Literacy (litteratie des donnees) designe la capacite a lire, comprendre, analyser et communiquer avec les donnees. C'est une competence transversale, necessaire a tous les metiers.
Le Data Mesh est un paradigme d'architecture de donnees decentralise, fonde sur 4 piliers : ownership par domaine, Data as a Product, plateforme en self-service et gouvernance federee. Il est l'application du Domain-Driven Design a la data.
Une Data Platform est l'ensemble des outils, services et infrastructure qui permettent de collecter, stocker, transformer, analyser et distribuer les donnees au sein d'une organisation. C'est le socle technique de toute strategie data.
Le Data Product Manager pilote la strategie et la roadmap des produits fondes sur les donnees. Il combine expertise produit, comprehension des donnees et vision business pour maximiser la valeur creee.
Le Data Steward est le garant de la qualite des donnees au sein d'une organisation. Responsable du glossaire business et du Data Catalog, il est le premier point de contact pour tous les utilisateurs de donnees.
Le Data Storytelling est l'art de transformer des donnees en recits convaincants. En combinant donnees, narration et visualisation, il rend les analyses accessibles et actionables pour tous les publics.
Le Data Strategist definit et pilote la strategie data d'une entreprise. Il aligne les initiatives data avec les objectifs business pour maximiser la creation de valeur a partir des donnees.
dbt (data build tool) est un outil open source de transformation de donnees qui permet aux Analytics Engineers d'appliquer les bonnes pratiques du genie logiciel (versioning, tests, documentation) a leurs pipelines SQL.
Les données synthétiques sont des données générées artificiellement qui reproduisent les propriétés statistiques de données réelles sans contenir d'informations personnelles. Elles servent à entraîner des modèles IA, tester des systèmes ou partager des datasets dans le respect de la vie privée.
Les ecueils Data sont les pieges recurrents qui empechent les organisations d'exploiter leurs donnees a l'echelle. Ils se repartissent en trois categories : organisationnels, methodologiques et techniques.
Un embedding est une représentation numérique d'une donnée (texte, image, audio) sous forme de vecteur dans un espace mathématique. Les embeddings capturent le sens sémantique des données et mesurent la similarité entre elles, ce qui les rend indispensables au RAG et à la recherche sémantique.
L'évaluation IA désigne les méthodes et métriques pour mesurer la qualité et la fiabilité des systèmes d'IA, en particulier les LLM. Elle couvre les benchmarks, les évaluations automatisées (LLM-as-a-judge), les évaluations humaines et les métriques spécifiques au RAG.
Un Feature Store est une plateforme qui centralise le stockage, la gestion et le partage des features utilisees pour entrainer et servir des modeles de Machine Learning, en garantissant la coherence entre entrainement et production.
Le fine-tuning est le processus d'adaptation d'un modèle de langage pré-entraîné (LLM) à un domaine ou une tâche spécifique, en le réentraînant sur un jeu de données ciblé. Il permet d'obtenir un modèle spécialisé sans supporter le coût d'un entraînement complet.
La Fresque de la Data et de l'IA est un atelier collaboratif cree par Hymaia qui sensibilise les participants aux enjeux de la donnee et de l'intelligence artificielle a travers un format ludique et interactif.
Le GEO (Generative Engine Optimization) est l'optimisation de contenus pour être sélectionnés et cités par les moteurs de recherche génératifs comme Google AI Overviews, Perplexity ou ChatGPT Search. C'est l'évolution du SEO classique à l'ère de l'IA générative.
Le GraphRAG combine les knowledge graphs et le RAG pour permettre aux LLMs de raisonner sur des relations complexes entre entités. En structurant les données sous forme de graphe avant la récupération, cette approche améliore les réponses aux questions nécessitant plusieurs sauts logiques.
Le grounding est la technique d'ancrage factuel des réponses d'un LLM dans des sources de données vérifiables. En connectant le modèle à des documents, des bases de données ou des APIs, le grounding réduit les hallucinations et permet de sourcer les affirmations générées.
Les guardrails IA sont des mécanismes de contrôle appliqués aux entrées et sorties des LLMs pour garantir la sécurité, la conformité et la qualité des réponses. Ils filtrent les contenus inappropriés, valident les formats, détectent les tentatives de manipulation et vérifient la cohérence factuelle.
Une hallucination en IA désigne une réponse générée par un LLM qui semble plausible et confiante, mais qui contient des informations factuellement fausses ou inventées. C'est l'un des principaux obstacles à l'adoption des LLM en entreprise.
L'IA agentique (Agentic AI) désigne une catégorie de systèmes d'intelligence artificielle capables de planifier, raisonner et agir de manière autonome pour atteindre un objectif. Contrairement à un LLM utilisé en mode conversationnel, un système agentique prend des décisions, utilise des outils et itère sans intervention humaine à chaque étape.
L'IA generative designe les systemes d'intelligence artificielle capables de creer du contenu original (texte, image, code, audio) a partir de consignes en langage naturel. Elle repose principalement sur des modeles de type LLM et Transformer.
L'IA multimodale désigne les systèmes d'IA capables de traiter et générer plusieurs types de données -- texte, images, audio, vidéo -- de façon intégrée. Contrairement aux modèles spécialisés sur une seule modalité, les modèles multimodaux comprennent et relient les informations entre formats.
L'IA Responsable designe l'ensemble des pratiques qui garantissent que les systemes d'intelligence artificielle sont developpes et deployes de maniere ethique, equitable, transparente et securisee.
L'IA souveraine désigne la capacité d'un État ou d'une zone économique à développer, héberger et contrôler ses propres systèmes d'IA sans dépendance vis-à-vis d'acteurs étrangers. En Europe, cet enjeu couvre les modèles, les infrastructures de calcul, les données et les compétences.
L'ingestion batch consiste a traiter des donnees par lots a intervalles reguliers, contrairement au streaming temps reel. C'est le pattern dominant des pipelines de donnees modernes.
Un knowledge graph (graphe de connaissances) est une structure de données qui organise l'information sous forme d'entités reliées par des relations sémantiques. Utilisé pour structurer les connaissances d'une organisation, il connaît un regain d'intérêt avec l'IA générative et le GraphRAG.
La Knowledge Infrastructure désigne l'ensemble des systèmes, processus et pratiques qui permettent de capturer, structurer et distribuer la connaissance organisationnelle. Elle inclut les knowledge graphs, les bases vectorielles, les taxonomies et les processus de curation.
Un LLM (Large Language Model) est un modèle d'intelligence artificielle entraîné sur de vastes corpus de texte, capable de comprendre et générer du langage naturel. GPT, Claude, Llama et Mistral sont des exemples de LLM qui alimentent les applications d'IA générative.
Le LLMOps désigne les pratiques d'ingénierie pour déployer, monitorer et maintenir des applications basées sur des LLM en production. Extension du MLOps adaptée aux grands modèles de langage, il couvre la gestion des prompts, l'évaluation des sorties, le suivi des coûts et la gouvernance.
Le MCP (Model Context Protocol) est un protocole open-source créé par Anthropic qui standardise la connexion entre les LLM et les sources de données ou outils externes. Il joue pour l'IA le rôle que l'USB a joué pour les périphériques : une interface universelle.
Le ML Engineer concoit, entraine et deploie des modeles de machine learning en production. A mi-chemin entre Data Scientist et ingenieur logiciel, il transforme les prototypes en systemes fiables et scalables.
Le MLOps applique les principes du DevOps au machine learning : automatisation du deploiement, monitoring des modeles en production et gestion du cycle de vie complet, de l'entrainement au reentrainement.
Le MLOps Engineer automatise le cycle de vie des modeles de machine learning en production : pipelines d'entrainement, deploiement, monitoring et qualite des donnees. C'est le DevOps du ML.
La Modern Data Stack designe l'ensemble des outils cloud-native utilises pour collecter, stocker, transformer et analyser les donnees. Elle remplace les architectures monolithiques par des briques specialisees et interoperables.
L'orchestration multi-agents désigne la coordination de plusieurs agents IA spécialisés qui collaborent pour résoudre des tâches complexes. Chaque agent a un rôle et des outils propres, un orchestrateur gérant le flux d'exécution, la délégation et la synthèse des résultats.
Une organisation AI-native est une entreprise conçue ou transformée pour fonctionner avec l'IA au coeur de ses processus, produits et culture. Au-delà de l'adoption ponctuelle d'outils, elle repense ses façons de travailler, ses rôles et sa gouvernance autour des capacités de l'intelligence artificielle.
Poetry est un outil de gestion de dependances et de packaging pour Python. Il unifie la declaration des dependances, la creation d'environnements virtuels et la publication de packages dans un seul workflow.
Le Product Builder est un nouvel archétype du product manager qui utilise l'IA et les outils no-code pour prototyper, tester et itérer directement, sans dépendre systématiquement d'une équipe de développement. Il incarne l'évolution du rôle de PM à l'ère de l'IA générative et du vibe coding.
Le Product Manager definit la vision d'un produit, priorise les fonctionnalites et coordonne les equipes pour delivrer de la valeur aux utilisateurs. Avec l'essor de la data et de l'IA, ce role integre de nouvelles competences.
Le prompt engineering est la discipline qui consiste à formuler des instructions précises et structurées pour obtenir les meilleurs résultats d'un LLM. Il regroupe un ensemble de techniques — few-shot, chain-of-thought, system prompts — pour guider le comportement du modèle.
Le RAG (Retrieval-Augmented Generation) est une architecture qui enrichit les réponses d'un LLM en lui fournissant des documents pertinents extraits d'une base de connaissances. Cette approche réduit les hallucinations et permet d'exploiter des données internes sans réentraîner le modèle.
La recherche sémantique est une méthode de recherche d'information basée sur le sens des mots plutôt que sur leur correspondance exacte. En utilisant des embeddings pour représenter textes et requêtes sous forme de vecteurs, elle retrouve des documents pertinents même quand les mots diffèrent. C'est l'infrastructure clé du RAG.
Le Shadow AI désigne l'utilisation non autorisée ou non encadrée d'outils d'IA par les collaborateurs d'une organisation, en dehors des systèmes approuvés. Analogue du Shadow IT, il expose l'entreprise à des risques de fuite de données, de non-conformité réglementaire et de décisions fondées sur des résultats non fiables.
Apache Spark est un framework open source de calcul distribue concu pour le traitement de donnees a grande echelle. Il se distingue par son execution en memoire, qui le rend bien plus rapide que Hadoop MapReduce.
La tokenization est le processus de découpage du texte en unités élémentaires (tokens) que les LLMs peuvent traiter. Ce mécanisme détermine les coûts d'utilisation, les limites de contexte et la capacité du modèle à traiter différentes langues. Chaque modèle utilise son propre tokenizer.
Le vibe coding est une approche de développement logiciel où le développeur décrit ce qu'il veut en langage naturel et laisse une IA générer le code correspondant. Popularisé par Andrej Karpathy en février 2025, ce terme désigne un mode de programmation où l'on "code au feeling" avec l'IA comme exécutant.
4 heures
16 participants
Vous souhaitez aligner vos équipes Data et métiers autour d'un vocabulaire commun ? Cet atelier collaboratif inspiré de la Fresque du Climat permet de se familiariser avec les concepts de la Data et de l'IA, tout en favorisant le team building.
6 à 30 participants
Comment aligner toute l'organisation sur les enjeux IA ? Un atelier collaboratif pour créer un vocabulaire commun et une culture partagée.
2 jours
4 à 8 personnes
Deux jours pour construire votre Personal OS PM de A à Z et décrocher la certification RS6891.