index - Confiance.ai Accéder directement au contenu

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

GPU Adversarial attack Anomaly detection Adversarial Training Fiabilité Neural ODEs Fault detection AI-Based Critical Systems XAI Long Short-Term Memory Neural Network ODD Enalty Bayesian Neural Networks Bias Detection Christoffel functions Branch-and-Bound algorithm Anomaly Detection Machine Learning Trustworthiness Assessment Custom search space Explicability Recurrent Neural Networks Monitoring AI Confiance explicabilité AI-Based Systems Deep Reinforcement Learning Robustness Adversarial Attacks Adversarial Training Example-based Attack transferability Sûreté Complexity Explicabilité FOS Computer and information sciences Realization theory Adversarial attacks Neural network Deep neural network classifiers Conformal Prediction System Identification Deep learning Data Quality Distributed learning AI System Characterization Bayesian inference Robustness Confiance Concepts Evaluation Generative Models Anomaly Influence Functions Explainable AI Explanations Embedded AI Automated vehicle Cryptography and Security Adversarial physical attack Computer vision Case-based Cycle-accurate simulator Intelligence Articifielle Decision tree Federated Learning Data-driven reachability Trustworthiness Attributes Adversarial Attacks Fault tolerance Computer Vision and Pattern Recognition Artificial intelligence Conformal prediction Engineering Processes Adversarial examples Ingénierie algorithmique de l’IA Calibration Embarqué Bayesian Optimization Critical systems Sûreté de fonctionnement Robustesse Hardware Fault tolerant systems Data Stream Data Analysis Data Visualization Gas Distribution Distribution based method AI component evaluation methodology Mixed Integer Programming Arcadia Method Distributed Machine Learning AI-based systems Computer Vision Contextual Evaluation AI engineering Deep Reinforcement Learning Data Stream Processing Semantic segmentation Artificial Intelligence Explainability Counterfactuals