Comment protéger les données que les GAFA utilisent pour vous surveiller ?

deep tech innovation
deep tech innovation
Image par Pete Linforth de Pixabay

L. Bardon . – En 2017, Google publiait un billet sur une nouvelle approche de l’apprentissage automatique. Contrairement aux techniques utilisées auparavant, qui nécessitent que les données soient centralisées en un seul endroit, la nouvelle méthode saurait exploiter une série de sources de données distribuées sur plusieurs dispositifs. L’apprentissage fédéré a permis à Google d’entraîner son modèle de texte prédictif en utilisant les messages envoyés et reçus par les utilisateurs d’Android, sans jamais les lire ni les récupérer de leurs téléphones. Malgré son ingéniosité, l’apprentissage fédéré n’a guère gagné en popularité au sein de la communauté AI à l’époque. Cette situation pourrait changer. Son approche axée sur la protection de la vie privée pourrait très bien être la réponse au plus grand obstacle à l’adoption de l’IA dans les soins de santé aujourd’hui.

Chaque jour, votre vie laisse des traces numériques que les géants de la technologie utilisent pour vous suivre. Vous envoyez un courrier électronique, commandez un repas, regardez une émission en streaming. Ils reçoivent en retour de précieux paquets de données qui leur permettent de mieux comprendre vos préférences. Ces données sont utilisées par des algorithmes d’apprentissage automatique pour vous adresser des publicités et des recommandations. Google encaisse vos données pour plus de 120 milliards de dollars par an de recettes publicitaires.

Aujourd’hui, des chercheurs de l’université Northwestern proposent de nouveaux moyens de corriger ce déséquilibre des pouvoirs en traitant nos données collectives comme une monnaie d’échange. Les géants de la technologie peuvent disposer d’algorithmes sophistiqués, mais ils n’ont aucun sens s’ils ne disposent pas d’un nombre suffisant de données appropriées pour s’entraîner. Dans un nouveau document présenté la semaine prochaine à la conférence Fairness, Accountability, and Transparency de l’Association for Computing Machinery, des chercheurs, dont les doctorants Nicholas Vincent et Hanlin Li, proposent trois façons dont le public peut exploiter cette situation à son avantage :

  • La grève des données, inspirée de l’idée des grèves du travail, qui consiste à retenir ou à supprimer vos données afin qu’une entreprise technologique ne puisse pas les utiliser – en quittant une plateforme ou en installant des outils de protection de la vie privée, par exemple.
  • L’empoisonnement des données, qui consiste à fournir des données inutiles ou nuisibles. AdNauseam, par exemple, est une extension de navigateur qui clique sur chacune des publicités qui vous sont proposées, ce qui perturbe les algorithmes de ciblage publicitaire de Google.
  • La contribution consciente aux données, qui consiste à fournir des données significatives au concurrent d’une plateforme que vous voulez protester, par exemple en téléchargeant vos photos Facebook sur Tumblr.

La suite ici (Karen Hao)

(Visited 78 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *