Ce ne sont pas vos données qu’ils vendent…

A voir, le documentaire: The social dilemma

Ce documentaire sorti le 20 septembre 2020 sur Netflix donne la parole à une dizaine d’anciens cadres dirigeants qui ont démissionné de grandes entreprises de la Silicon Valley. Comment ces entreprises s’emparent de nos données et au bout du compte façonneent le monde.

“Quand l’accès à un réseau est gratuit, c’est que les utilisateurs sont le produit”. On a tous entendu cette sentence. Mais non! Nous disent ces témoins. Ce ne sont pas vos données qu’ils vendent, mais les modèles comportementaux qu’ils élaborent à partir de vos données. Dès que vous vous connectez, dès que vous téléchargez une application, vous envoyez  à chaque instant des données à partir desquels les firmes élaborent leurs modèles.

Ces modèles, ils les proposent à des entreprises pour caler leur stratégie de communication. Ensuite à chaque fois que vous vous connectez à une application, à un réseau, vous recevrez des notifications, des messages correspondants à vos attentes, vous renforçant dans vos prédispositions, dans vos opinions.
C’est vrai aux plans de la mode, des affaires, des choix culturels… Mais c’est vrai aussi aux plans politique et moral.

Les réseaux sociaux créent des bulles, isolent les groupes sociaux les uns des autres, développent les antagonismes. Ils fragilisent le corps social.Les témoins expliquent ainsi les profonds clivages qui traversent nos sociétés et tout particulièrement les USA.
Les réseaux sociaux plutôt que de favoriser le débat, la rencontre entre des appréciations différentes, confortent au contraire chacun dans ses positions en lui envoyant les informations qu’il attend.

Les témoins tirent le signal d’alarme et dénoncent le chemin vers la guerre civile que prennent les USA. Ils tirent le même signal en direction de l’Europe.

Mais alors Que faire?
Deux propositions ressortent de ce documentaire:

  • A titre individuel, refuser tous les cookies et les notifications proposés par les sites auxquels nous connectons, n’utiliser que des moteurs de recherche comme Qwant qui ne conservent pas nos données.
  • A titre collectif, prendre des mesures pour obliger les entreprises numériques à retreindre leurs collectes. Il suffirait de créer un impôt sur le volume des données collectées.

En savoir plus sur le documentaire:

Révolutions technologiques, pour le meilleur ou pour le pire?

Les 1er et 2 octobre, se déroulaient à Caen le « Forum mondial pour la Paix ». Le Mouvement européen 76 y participait. Retrouvez ici le compte rendu de la conférence du 2 octobre.

Thème de la conférence:

” Dans notre monde interconnecté, les nouvelles technologies imprègnent notre quotidien et impactent de nombreux secteurs. La gestion du Big Data, le recours à l’intelligence artificielle, l’essor de la reconnaissance faciale rendent impérative une réflexion sur la maîtrise et l’encadrement de ces nouveaux procédés, tant d’éventuelles dérives seraient porteuses de déstabilisation majeure, y compris dans les pays démocratiques. Déploiement de robots tueurs, armes intelligentes ou généralisation de la surveillance : sur le terrain militaire également, de nouvelles formes d’intervention et d’affrontement émergent.

Génératrices d’inquiétudes, ces révolutions technologiques sont aussi de formidables leviers d’innovation, porteurs de changements profonds et multiples, y compris pour le meilleur. À l’image de la Green Tech ou de la Tech for Good, elles permettent d’œuvrer en faveur de la transition écologique. Elles  apportent des réponses concrètes à des problématiques contemporaines. Au cœur de la réflexion sur le monde de demain, les révolutions technologiques seront-elles pour le meilleur ou pour la guerre?”

Nicole Gnesotto: Science sans conscience ?

Lors d’une courte introduction, Nicole Gnesotto introduit la notion de rupture civilisationnelle. Jusqu’à nos jours les innovations technologiques ont toujours été ambivalentes. On pouvait les utiliser pour le meilleur ou le pire. On connaît tous cette citation de Rabelais tirée du Pantagruel : “science sans conscience n’est que ruine de l’âme”. Récemment encore on a vu comment des outils comment Twitter pouvaient tout à la fois contourner la censure mais aussi surveiller les comportements de chacun… Mais aujourd’hui?  Que sont les développements de l’intelligence artificielle?  Quelle place  prennent les algorithmes dans la gestion du monde. Quel poids de la conscience humaine? On sait comment les automatismes ont accéléré la crise financière de 2008. Qu’en sera-t-il demain? La question mérite d’être posée.
Nicole Gnesotto: Professeure au CNAM, titulaire de la Chaire Europe : L’Europe indispensable éditions du CNRS   .

Justice : le danger de l’arbitraire

Christiane Feral Shul a pointé le recours de plus en plus importants des cours de justice aux outils numériques. Certes, l’accès aux données est une formidable source d’informations utiles aux différentes parties prenantes. Mais au-delà , Christiane Feral Shul s’inquiète de la tentation pour les juges de recourir à l’intelligence artificielle comme auxiliaire de justice, voire même pour rendre la justice dans certaines situations.

C’est déjà le cas en Estonie où dans les affaires civiles portant sur une créance inférieure à 7000€ la procédure est automatisée. Si cette manière de faire peut paraître objective, rigoureuse, elle présente une faiblesse énorme. Elle ne tient pas compte des circonstances qui sont à l’origine du délit. Elles sont pourtant essentielles pour comprendre les situations et formuler les décisions justes.
La France résiste à une telle évolution mais jusqu’à quand? Il faut se méfier de l’arbitraire de l’Intelligence artificielle.
Il est indispensable de poser des règles éthiques, de mettre sous surveillance les algorithmes, de maintenir l’intervention humaine dans le processus judiciaire.
Le conseil national des barreaux s’est tourné vers le Conseil de l’Europe.
Cette instance est à l’origine de plusieurs conventions qui ont inspiré le législateur: protection des données, cybercriminalités. Il pourrait ici se mobiliser à bon escient, même s’il ne faut surestimer le poids de ces conventions qui ne sont des textes contraignants.
Christiane Feral Schul est avocate: Présidente du conseil national des barreaux.

L’extension du domaine de la lutte :

Jean Marc Vigilant, Général d’Aviation, Directeur de l’école de guerre pointe l’extension de l’environnement stratégique. Très récemment ont été intégrés trois nouveaux domaines: l’Espace, le cyber espace et l’information. Les conflits ne se déroulent plus aujourd’hui uniquement sur les champs de bataille.
Cette extension du domaine de la lutte exprime une double tendance: le recul de l’influence de l’Ouest à l’échelle du monde, et l’importance essentielle du Capital humain.

Pour tenir compte de tout cela, la France élargit son approche stratégique.
– Elle crée des outils: une agence sur l’innovation numérique en lien avec les entreprises, un commandement de la cyberdéfense et de l’espace, l’armée de l’air est aussi celle de l’espace maintenant. Développement de nouvelles bases de données en lien avec l’Intelligence artificielle.
– elle développe une approche globale en réseau pour mettre en œuvre des réponses complexes, multi localisées, répondant en de nombreux points en cas d’agression.

Dans le prolongement ,

Jean-Louis Gergorin, (un ancien du quai d’Orsay) souligne la rupture introduite par le numérique dans le rapport à la guerre. Aujourd’hui la frontière est devenue volatile. Il existe des zones hybrides.
Grâce aux outils numériques, une puissance étrangère peut agresser un territoire. On l’a vu par exemple en Ukraine avec les coupures d’électricité.
Les cyberattaques sont devenues l’équivalent des notes diplomatiques. Elles envoient un message, expriment une menace, invitent à un repositionnement. On peut lire ainsi la cyberattaque de mars dernier sur les hôpitaux de Paris.

Si la France a su prendre la mesure du problème, il faut aller beaucoup plus loin et bien prendre en considération la dimension globale du problème. Il faut tout à la fois:
– traiter de l’information: si les médias traditionnels sont contrôlés, ce n’est pas le cas des réseaux sociaux. On peut dire ce que l’on veut.
– agir dans les domaines militaires et civils: les attaques numériques en demandes de rançon se sont multipliées par 8 depuis 2017.
– les frontières s’estompent entre les groupes mafieux, les attaques “militaires” l’espionnage économique…
– agir à l’échelle internationale: mettre en place pour la circulation de l’information des instances du même type que ce qu’il existe dans l’aviation civile, la santé par exemple…

En contrepoint Nicole Gnesotto réagit  soulignant que  la gouvernance doit aller au-delà des Etats et associer l’ensemble des acteurs de la société civile.

Pour conclure Science et éthique ?

Fréderic Bordry a développé une approche plutôt optimiste en soulignant la dimension géopolitique de la science. Il a cité en exemple plusieurs programmes du CERN qui associent étroitement des soi-disant ennemis. Que ce soit entre Israël et la Palestine, ou entre les différents pays des Balkans
il a souligné la dimension universelle du langage de la science qui permet de jeter des ponts, de s’affranchir des susceptibilités et de jeter des ponts entre des territoires séparés.
Fréderic Bordry est directeur au CERN à Genève.

– Gabriela Ramos Patino est revenue sur la nécessité d’encadrer à l’échelle internationale l’usage des outils numériques et notamment l’Intelligence artificielle. Aujourd’hui 200 entreprises dans le monde régulent 80% des outils numériques.
Quelle que soit la performance des outils, il faut en revenir à l’origine, c’est à dire à la commande et sa régulation, aux valeurs qui la cadrent. C’est possible. Regardons ce qu’a fait l’Europe avec le RGPD. L’Unesco agit en ce sens à l’échelle internationale.
Gabriela Ramos Patino Directrice générales sciences sociales UNESCO

 

Retrouvez, les principaux moments  du forum en videés sur: https://www.facebook.com/NormandiePourLaPaix/