Toutes les entreprises vont collecter des données, tandis que les gouvernements réagiront par de nouvelles réglementations et que les utilisateurs commenceront à considérer la vie privée comme une offre pour laquelle ils sont prêts à payer, affirme Kaspersky, qui livrent ces prévisions sur le sujet.
1 La protection de la vie privée des consommateurs va devenir une proposition de valeur des entreprises qui, dans la plupart des cas, sera facturée aux utilisateurs. L’intensification de la collecte de données pendant la pandémie et la propagation des troubles politiques sur les réseaux sociaux ont eu pour conséquence de sensibiliser le public à la collecte de données. Alors que de plus en plus d’utilisateurs cherchent à préserver leur vie privée et font plus attention aux données qu’ils acceptent de partager au regard des services dont ils bénéficient, les entreprises réagissent en proposant un grand nombre et une grande variété de produits axés sur la protection de la vie privée.
2 Les fabricants d’appareils de santé connectés vont collecter une plus grande variété de données et les utiliser de manière beaucoup plus vaste. Les données recueillies par les appareils de suivi de santé, les tensiomètres et autres instruments fournissent des informations si précieuses qu’elles ont déjà été utilisées dans des affaires judiciaires, sans parler des spécialistes du marketing et des assureurs qui les trouvent également extrêmement utiles. A l’heure où la santé est une préoccupation publique, la collecte de ces données ne fera que croître.
3 Les gouvernements vont entrer en concurrence concernant la collecte de données de haute technologie et seront plus actifs pour les réglementer. L’accès aux données personnelles ouvre un large éventail de possibilités – aussi bien pour lutter contre la maltraitance des enfants que pour fluidifier la circulation urbaine ou encore exercer des pressions politiques. Pourtant, comme la majorité des entreprises refusent de partager ces données, les gouvernements réagiront sans doute en multipliant les réglementations qui entravent la protection de la vie privée en ligne. Les débats les plus intenses porteront probablement sur les technologies de préservation de la vie privée telles que le cryptage de bout en bout, le DNS-sur-HTTPS et les cryptomonnaies.
4 Les sociétés de données vont faire preuve de plus de créativité, et seront parfois intrusives, pour alimenter leurs modèles d’analyses comportementales. L’analyse comportementale fondée sur les données est un jeu dangereux puisque les erreurs peuvent être préjudiciables aux personnes, alors que la qualité réelle de ces systèmes est souvent un secret commercial. Pourtant, cela n’empêchera pas les organisations travaillant dans ce domaine de trouver des moyens plus créatifs de “profiler” les utilisateurs en fonction de ce qu’ils aiment et font – et d’influencer ainsi leur vie. Pour protéger les citoyens et encadrer entres autres cette pratique, le Parlement Européen a déjà formulé des recommandations en faveur d’éléments constitutifs d’une IA de confiance tels que l’éthique, la responsabilité, la sécurité et la transparence.
5 Les calculs multipartites, la confidentialité différentielle[1], l’apprentissage fédéré[2] et l’informatique en périphérie de réseau vont être plus largement adoptés. À mesure que les entreprises prennent conscience des données dont elles ont réellement besoin et que les consommateurs s’opposent à la collecte incontrôlée des leurs, nous observons l’apparition et l’adoption croissante d’outils de protection de la vie privée plus avancés. En effet, les grandes entreprises technologiques s’efforcent de garantir de nouvelles normes strictes en matière de protection de la vie privée des utilisateurs. Des matériels plus perfectionnés vont apparaître, permettant aux développeurs de créer des outils capables de traiter des données avancées tout en réduisant la quantité de données partagées par les utilisateurs avec les organisations.
[1] L’objectif de la confidentialité différentielle (« differential privacy ») est d’éviter l’extraction d’informations sensibles individuelles dans des bases de données.
[2] L’apprentissage fédéré est une technique d’apprentissage automatique qui implique l’entraînement d’un même algorithme sur plusieurs périphériques ou serveurs distincts et décentralisés, sans les échanger.