INTERVIEW-Aucun secret secret n’est en sécurité au moment de l’intelligence artificielle, déclare un émissaire numérique français

INTERVIEW-Aucun secret secret n’est en sécurité au moment de l’intelligence artificielle, déclare un émissaire numérique français

Par Layli Foroudi

TUNIS, 13 juin (Thomson Reuters Foundation) – Qu'il s'agisse d'une maladie ou d'une affaire, votre secret ne sera peut-être plus en sécurité, l'intelligence artificielle donnant au gouvernement et aux entreprises le pouvoir de fouiller dans les données personnelles, a annoncé jeudi l'envoyé français en charge du numérique.

Les informations recueillies dans les communications de tous les jours pourraient ensuite être utilisées pour exclure des personnes d'un emploi, leur refuser une assurance ou une multitude de libertés, a déclaré Henri Verdier, premier spécialiste français du numérique, appelant à des règles plus strictes en matière de protection de la vie privée.

Selon lui, les pouvoirs prédictifs de l'intelligence artificielle pourraient entraîner de graves problèmes si des informations – un tweet rédigé à la hâte ou même une réservation de vacances – étaient utilisées pour deviner le profil futur d'un individu.

«Nous pourrions ne pas employer ou assurer une personne parce qu'elle risquerait de souffrir de dépression, ou un pays pourrait utiliser des prédictions concernant votre orientation sexuelle contre vous», a déclaré Verdier.

«L’intelligence artificielle va changer les règles du jeu, car je peux prendre beaucoup de données, éduquer une machine et l’utiliser pour tout savoir sur vous», a-t-il déclaré à la Fondation Thomson Reuters, en marge de Rights Con, un logiciel numérique conférence à Tunis.

La plus grande modification de la législation de l'Union européenne en matière de confidentialité des données depuis plus de deux décennies est entrée en vigueur il y a un an. Elle donne aux citoyens un contrôle accru sur leurs informations en ligne et permet aux autorités d'imposer de lourdes amendes.

Mais les lois ne vont pas assez loin, a déclaré M. Verdier, exhortant l'UE à limiter les pouvoirs prédictifs des entreprises et des gouvernements.

De plus, il est déjà trop tard pour simplement désactiver les réseaux sociaux et espérer que votre vie privée reste ainsi.

Une étude publiée en janvier a révélé que les plateformes de médias sociaux telles que Twitter peuvent être utilisées pour glaner des informations sur les préférences des anciens utilisateurs en surveillant aussi peu que huit de leurs contacts uniques.

Verdier a cité des études qui montrent que les données bancaires peuvent prédire un divorce deux ans avant qu'il ne survienne. Une étude réalisée en 2017 a révélé que les annonceurs sont en mesure de déduire la sexualité d'un utilisateur de Facebook en se basant sur trois "J'aime".

«Nous vivons dans les données, nous les partageons partout. Je pense que nous devons réfléchir à ce que nous ne devrions pas être autorisés à prédire sur les gens »a-t-il déclaré.

«Il y a un précédent historique. Dans l'évaluation du crédit, vous ne pouvez utiliser certaines informations. Par exemple, en France, il est interdit d’utiliser des informations sur la religion d’une personne pour prédire son pointage de crédit. "

Les citoyens ne sont généralement pas conscients de l’importance de la protection de leurs données, a expliqué M. Verdier, ce qu’il a attribué à la nature complexe et opaque des règles de confidentialité.

"Il y a une célèbre pièce française appelée" Cyrano de Bergerac "(…) il y a plus de mots dans les termes et conditions d'Amazon que dans cette pièce", a-t-il expliqué. (Reportage de Layli Foroudi, édité par Lyndsay Griffiths et Zoe Tabary. Merci de créditer la Fondation Thomson Reuters, la branche caritative de Thomson Reuters, qui couvre les actualités humanitaires, les droits des femmes et des LGBT +, la traite des êtres humains, les droits de propriété et le changement climatique. Visitez http: //news.trust.org)

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *