Sécurisation des modèles d'Intelligence Artificielle
Objectif du défi
L'objectif est de fournir des approches où les utilisateurs d'intelligence artificielle, les fournisseurs de solutions et les autres parties prenantes gardent sous contrôle la confidentialité de leurs données, informations et connaissances.
Les enjeux
De nombreuses solutions d'intelligence artificielle nécessitent une grande quantité de données pour garantir des résultats précis. Cependant, les entreprises et les organisations dans la plupart des domaines ont toujours été prudentes quant au partage de leurs données et informations afin de préserver le secret et, plus récemment, de se conformer aux réglementations en matière de protection des données. Cela limite souvent le volume des ensembles de données disponibles pour l'apprentissage de l'IA à des tailles beaucoup trop petites pour générer rapidement des solutions fiables en s'appuyant sur des modèles/algorithmes d'IA pré-entraînés. L'Europe et la Wallonie restent particulièrement fortes dans les segments B2B dans divers domaines d'application tels que la fabrication et la santé, où les PME collaborent avec les grandes entreprises pour fournir des solutions innovantes. Cependant, à l'ère de l'IA, le manque d'accès à des ensembles de données importants pourrait avoir un impact significatif sur la viabilité commerciale de ces entreprises européennes et wallonnes. Il est donc crucial de créer des approches permettant de développer rapidement des solutions d'IA fiables sans compromettre la confidentialité des données et des propriétés intellectuelles, ainsi que le consentement des utilisateurs sur l'utilisation des données.
Challenges
Lorsque les entreprises et les organisations commencent à explorer la voie de l'IA, elles se rendent vite compte qu'elle comporte un certain nombre de défis :
Les ensembles de données de bonne qualité disponibles sont trop petits pour le développement d'une IA fiable, et le partage et la mise en commun des données sont difficiles à mettre en œuvre dans la pratique, notamment dans le secteur des soins de santé et de l'industrie manufacturière, où la Wallonie possède des entreprises de premier plan au niveau mondial ;
L'interopérabilité des données provenant de différentes sources est souvent complexe à déterminer et à aligner.
L'accès aux données est devenu plus difficile car les organisations et les citoyens sont de plus en plus conscients de la valeur qui peut être extraite de leurs données ;
Outre la confidentialité des données utilisées pendant les sessions de formation, il est tout aussi important de protéger les données d'entrée/sortie alimentées ou générées par les modèles et algorithmes d'IA déployés dans les opérations (c'est-à-dire protéger les données d'entrée/sortie pendant l'inférence lorsque des modèles d'IA formés sont utilisés) ;
Les modèles d'IA doivent également être protégés contre le vol de propriété intellectuelle, indépendamment de la manière dont les modèles/algorithmes d'IA sont intégrés/incorporés dans une solution et du type d'infrastructure matérielle utilisée pour exécuter la solution.