Les résultats d’un sondage commandé par Zama montrent que les développeurs voient dans l’intelligence artificielle un risque au moins équivalent à la cybercriminalité pour la confidentialité des données. Voici pourquoi.
Un sondage sur la confidentialité de l’IA mené pour Zama, une entreprise spécialisée dans le chiffrement homomorphe, révèle que 53 % des développeurs voient l’IA comme une menace à la confidentialité des données. 55 % d’entre eux disent même que le cybercrime n’est que marginalement problématique face au risque que l’IA fait peser sur la confidentialité des données.
Les répondants la voient au moins comme une menace équivalente à la cybercriminalité, à mesure que son utilisation se généralise au sein des organisations. La crainte derrière cette affirmation est de voir une nouvelle génération de cybercriminels se saisir des outils d’IA pour mener leurs attaques.
Des responsables pas suffisamment sensibilisés
Le risque est aussi à voir dans les capacités inhérentes de cette technologie. « Un aspect particulièrement alarmant est le risque de sécurité associé aux systèmes d'IA qui nécessitent de vastes ensembles de données pour l'entraînement, qui incluent souvent des informations personnelles sensibles. »
Des ensembles de données qui attisent la convoitise des acteurs de la menace. D’après l’enquête, il y a urgence à réglementer ce secteur encore naissant. Or, selon 30 % des développeurs interrogés, les responsables sont insuffisamment informés sur le sujet. « Les développeurs sont préoccupés par les cadres réglementaires actuels, 98 % préconisant des mesures proactives pour aborder les risques futurs en matière de confidentialité des données », peut-on lire.