index - Confiance.ai Accéder directement au contenu

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

Data Visualization Adversarial attack Bayesian Optimization Computer vision Conformal Prediction Mixed Integer Programming Adversarial Training AI System Characterization Neural Network Artificial intelligence Attack transferability Explainable AI Decision tree Anomaly detection Adversarial Attacks Conformal prediction AI-Based Critical Systems Deep Reinforcement Learning ODD Realization theory Distributed Machine Learning Complexity Case-based Anomaly Detection Branch-and-Bound algorithm AI component evaluation methodology Machine Learning Recurrent Neural Networks Automated vehicle Data-driven reachability Robustness Fault detection Data Stream Processing Data Quality Influence Functions Artificial Intelligence Cycle-accurate simulator Embedded AI Calibration Confiance explicabilité Evaluation Cryptography and Security Fault tolerance Data Stream Embarqué Bias Detection Computer Vision and Pattern Recognition Intelligence Articifielle Gas Distribution AI-based systems Deep Reinforcement Learning Robustness Adversarial Attacks Adversarial Training Explainability Semantic segmentation Trustworthiness Attributes Adversarial examples Neural ODEs AI-Based Systems Fiabilité AI Christoffel functions Fault tolerant systems Custom search space Enalty Bayesian Neural Networks Sûreté Distributed learning Confiance Adversarial attacks Computer Vision Anomaly XAI Explicabilité Trustworthiness Assessment Generative Models Deep neural network classifiers Data Analysis Bayesian inference System Identification Concepts AI engineering Explanations GPU Example-based Robustesse Monitoring FOS Computer and information sciences Contextual Evaluation Long Short-Term Memory Counterfactuals Adversarial physical attack Distribution based method Arcadia Method Ingénierie algorithmique de l’IA Explicability Engineering Processes Neural network Hardware Critical systems Sûreté de fonctionnement Deep learning Federated Learning