index - Confiance.ai Accéder directement au contenu

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

Conformal Prediction Counterfactuals Multi-fidelity BO Reliability Robustness Realization theory Deployment Concepts Bayesian Optimization Data trustworthiness Deep learning Trustworthiness Assessment Recurrent Neural Networks Explicabilité AI systems Certification Explainability Computer Vision and Pattern Recognition AI-Based Critical Systems Sûreté Contextual Evaluation Cryptography and Security Sûreté de fonctionnement Data Quality Deep Reinforcement Learning Cycle-accurate simulator Collaboration Human-IA Critical systems Attack transferability Adversarial attacks Complexity Anomaly Conformal prediction Bayesian inference Confiance Confiance explicabilité Neural ODEs Neural Network Intelligence Articifielle Computer Vision Arcadia Method AI engineering Calibration ED-324/ARP6983 Case-based Deep Ensembles Custom search space Neural network Machine Learning Deep Reinforcement Learning Robustness Adversarial Attacks Adversarial Training Aide à la décision Data Stream Processing Dempster Shafer theory AI component evaluation methodology Computer vision AI System Characterization Adversarial physical attack Robustesse Adversarial examples Deep neural network classifiers Anomaly Detection Bayesian optimization Edge computing Data-driven reachability AI-Systems Engineering AI-based systems Bias Detection Distributed Machine Learning Monitoring Artificial Intelligence Anomaly detection Data Visualization Branch-and-Bound algorithm Adversarial attack Data Stream Mixed Integer Programming XAI Decision tree Christoffel functions Adversarial Attacks AI-Based Systems Long Short-Term Memory Machine learning Automated vehicle AI Assurance case Distributed learning Artificial intelligence Neural Architecture Search Trustworthiness Attributes Explainable AI Adversarial Training System Identification Autonomous system Generative Models Semantic segmentation Assurance Cases Distribution based method Data Analysis ODD