• Temps de consultation : 0s

03/__Le_partage_de_l’information_et_la_liberté_d’expression

Une des valeurs importante d’Internet est sa neutralité, ou plutôt son universalité, c’est-à-dire que n’importe quelle personne sur la planète a le droit d’accéder à tout Internet et de participer à tout Internet. Cette universalité est clef, car elle est le reflet de ce que pourrait être une société hyperconnectée sans barrière de langue, de religion ou géographique. Les uns et les autres pourraient s’entraider et inventer ensemble, à limage des logiciels Open source qui sont créés collectivement par des gens aux quatre coins du monde.

C’est cette idée d’humanisme qu’est l’universalité d’Internet, le problème aujourd’hui est que des intérêts industriels et politiques rêvent d’attenter à cette universalité. Lorsqu'un acteur qu’il soit institutionnel ou économique va faire le choix de restreindre telle partie de notre accès à Internet, que ce soit en fonction de qui ont est, de qui avec on communique ou la nature même des données que l’on échange, cela va d’une part porter atteinte à notre liberté d’expression directement liée à Internet aujourd’hui mais va également créer des distorsions de concurrence ou des barrières à l’innovation.

Il faut un net neutre et universel. C'est un vrai enjeu de politique publique, afin de permettre un meilleur développement d’Internet et de tous les bénéfices social, économique et culturel que l'on peut en tirer.

Cette neutralité est essentielle pour préserver la vie privée des utilisateurs.

 

La maîtrise de la connaissance de la technologie est le point de bascule entre le contrôle et la surveillance d’une part et la liberté d’autre part. Toutes ces technologies nécessitent une prise en mains de l’utilisateur et une appropriation. Grâce aux logiciels libres, nous avons tout notre avenir en main parce que nous avons la maîtrise des outils et des technologies et donc au final nous maîtrisons notre destin dans le monde numérique.

3.1/__La_neutralité_du_Net_une_valeur_importante

Aux États Unis l’opérateur Internet Verizon a été jugé pour avoir favorisé un accès plus rapide à certains sites comme YouTube, en créant des voies rapides et en réduisant le débit pour certains autres sites. Cet exemple fait débat et pose clairement la question de la neutralité du net. Un fournisseur Internet a-t-il le pouvoir de décider de ce qui passe dans ses tuyaux ? Et dans ce cas, est-il responsable des données sensibles qui circulent par le biais de son réseau ?

 

La neutralité du Net est un principe fondateur d’Internet qui garantit que les opérateurs télécoms ne discriminent pas les communications de leurs utilisateurs, mais demeurent de simples transmetteurs d’informations. Ce principe permet à tous les utilisateurs, quelles que soient leurs ressources, d’accéder à un même réseau dans sa totalité. Il n’y a pas de liberté d’expression possible s’il n’y a pas de neutralité du net. Or, cet aspect des choses est aujourd’hui remis en cause dans la mesure où les opérateurs développent des modèles économiques restreignant l’accès à Internet de leurs abonnés, en bridant ou en bloquant l’entrée à certains contenus, services ou applications en ligne (protocoles, sites Web, etc.), ainsi qu’en limitant leur capacité de publication. Le monde politique tente aussi de contrôler cette neutralité du net aux travers de différentes lois et discours aussi contradictoires que controversés.

 

Le 10 novembre 2014, Barack Obama a fait le vœu d’un Internet libre et ouvert. Dans un communiqué, le président américain a demandé à la Federal Communications Commission (FCC), l’autorité du marché des télécommunications aux États-Unis, d’appliquer les règles les plus strictes possibles afin de préserver la neutralité d’Internet, martelant ainsi sa ferme opposition à un Internet à deux vitesses.

Il faut rappeler qu’en 2011 et 2012, les projets de lois américaines PIPA (PROTECT IP Act) et SOPA (Stop Online Piracy Act) visaient à élargir les capacités d’application du droit d’auteur et des ayants droit pour lutter contre sa violation en ligne et les contrefaçons.

Ils réclamaient également des sanctions judiciaires contre des sites situés hors de la juridiction des États-Unis et soupçonnés d’enfreindre la législation sur le copyright ou de faciliter ce type d’infraction. Dans cette optique, le procureur général des États-Unis pourrait exiger des opérateurs, des moteurs de recherches comme Google, ou des services de transaction comme PayPal, qu’ils cessent d’entretenir toute relation commerciale avec ces sites. Il pourrait prendre également des mesures techniques faisables et raisonnables pour empêcher tout accès à ces derniers, notamment en exigeant le retrait de tout lien y conduisant depuis les moteurs de recherches ou en bloquant l’accès des internautes américains vers ces sites. Ces projets de lois donneraient également pouvoir au gouvernement américain et aux détenteurs de droits pour limiter l’accès aux sites dédiés au piratage et aux contrefaçons.

En 2012, La France comme 22 des états de l’Union européenne, a signé le traité international ACTA (Anti-Counterfeiting Trade Agreement) qui à la base est un accord commercial anti-contrefaçon, mais qui une fois appliqué à Internet, sanctionne toute personne ne respectant pas les droits d’auteur.

Say no to ACTA _ La quadrature du Net  _ 2011

Néanmoins Angela Merkel s’est prononcée contre la neutralité du net lors de son allocution à la Digitising Europe conférence organisée par Vodafone à Berlin en décembre 2014. Elle a appelé à un Internet à deux vitesses, « l’une pour l’Internet gratuit » tel qu’il existe aujourd’hui et « une autre pour les services spéciaux ».

Elle n’a pas pour autant avancé des arguments mercantiles, contrairement à ce que prétendent les partisans de la neutralité, de son point de vue cet Internet à deux vitesses permettrait le développement de services de hautes priorités : « Un Internet accueillant pour l’innovation signifie qu’il y a une garantie de performances pour les services spéciaux », estime-t-elle. « Ceux-ci ne peuvent se développer que lorsque des standards de qualité prévisible sont disponibles ». « Si nous voulons avoir des voitures sans chauffeur ou si nous avons des applications spécifiques pour la télémédecine, alors il est impératif d’avoir des connexions fiables et toujours sécurisées ».

Précisant « nous ne pouvons pas parler de la neutralité du net si la capacité de la mettre en place n’est pas disponible ». Arguments maintes fois exprimés par les lobbyistes des télécommunications pour justifier la création d’un Internet à deux voies. Rappelons tout de même que la conférence où la chancelière a tenu ces propos était organisée par Vodafone (groupe de télécommunications britannique).

 

Le 26 février 2015, au États-Unis, La Federal Communication Commission (FCC), a voté une nouvelle réglementation en faveur de la neutralité du Net, ce qui signifie que les fournisseurs d’accès à Internet seront régulés de manière plus stricte par la FCC. Internet passe donc du simple service d’information a un service d’utilité publique. Il sera donc impossible pour les sociétés de payer des sommes colossales afin de profiter d’une bande passante plus importante. De plus, le fait qu’Internet devienne un service public oblige les fournisseurs d’accès à Internet à protéger plus efficacement les données privées de leurs clients ainsi que de donner un accès à Internet aux personnes handicapées et dans les zones ou les infrastructures ne sont pas forcement au rendez-vous.

The History of Net Neutrality _ The Verge _ 2015

Fort heureusement, ces lois (PIPA, SOPA et ACTA) visant à brider le partage et la création sur Internet n’ont pas été appliquées, grâce à la mobilisation des citoyens et au soutien de plusieurs sites Internet différents. Si tel avait été le cas, les conséquences sur la liberté d’information et de création sur Internet auraient été considérables et Internet comme nous le connaissons actuellement aurait disparu. Aaron Swartz a fortement contribué aux États-Unis à la lutte contre ces lois.

 

Des groupes de hackers tels que le Chaos Computeur Club ou La Quadrature du Net s’élèvent et se regroupent pour protéger la vie privée et faire diminuer la surveillance sur Internet. Ils recherchent un accès à l’information pour tous avec moins de concentration de pouvoir.

 

Contrairement à ce que l’on peut penser, les hackers ne sont pas à l’origine des pirates informatiques. En effet, la culture « hacker », apparue dans les années 1980, désigne un ensemble de valeurs et de convictions nées au sein de réseaux d’informaticiens dans lesquels le facteur clef est la liberté. La liberté de créer, la liberté de s’approprier toute connaissance disponible et de la redistribuer sous toute forme que ce soit et par tout canal choisi par le hacker.

 

Face à ces velléités de mettre à mal l’architecture décentralisée d’Internet, et la liberté de communication et d’innovation qu’elle rend possible, il est indispensable que le législateur garantisse la neutralité du Net. Les opérateurs doivent être sanctionnés s’ils discriminent de manière illégitime les communications Internet, que ce soit en fonction de la source, du destinataire ou de la nature même de l’information transmise. À défaut, seuls les utilisateurs d’Internet en mesure de payer un accès privilégié pourront bénéficier des pleines capacités du réseau.

3.2/__Le_partage_de_connaissances_et_Open_Source

Envisager l’ordinateur uniquement comme un outil pour créer des textes, des sons ou des images sur support fixe (papier, pellicule...) revient à nier sa richesse culturelle, c’est-à-dire l’apparition de nouveaux genres liés à l’interactivité. Par exemple l’art numérique qui s’est développé à partir des années 60 et qui regroupe des pratiques variées comme la vidéo, la peinture numérique, le son...

 

L’ordinateur est donc en premier lieu une aide à la concrétisation de l’information, à savoir qu’en partant d’une base de données initiales, d’un modèle…, un programme peut calculer et créer une infinité de représentations visibles, audibles ou tangibles différentes, tout cela en fonction de la situation dans laquelle se trouve l’utilisateur ou en fonction de sa demande.

 

Avec les ordinateurs, il n’y a que deux possibilités, soit l’utilisateur contrôle le logiciel, soit le logiciel contrôle l’utilisateur et si le logiciel contrôle les utilisateurs, alors le propriétaire dudit logiciel contrôle les utilisateurs. Ce logiciel devient un instrument de pouvoir : son propriétaire peut contrôler et influer la façon de s’en servir des utilisateurs.

 

Pour cette raison ont été créés les logiciels open sources dans le but de permettre aux différents utilisateurs de s’approprier ces différents logiciels et de les adapter à leurs propres besoins sans dépendre de tierces personnes.

 

Dans le domaine de l’art numérique, l’utilisation de logiciels open source a modifié la façon dont les artistes travaillent et conçoivent. L’utilisation de l’OpenFrameworks a permis d’adapter les outils de programmation à un contexte artistique, ces logiciels gratuits ont été réalisés par des artistes, pour des artistes.

L’open source permet le partage d’un processus de création artistique auquel tout le monde peut contribuer. Traditionnellement, les artistes conservent leurs façons de travailler et ne les divulguent qu’à certaines personnes. Mais à l’heure d’Internet et des nouvelles technologies, il est difficile de travailler seul et de garder pour soi ses secrets de création.

 

Le libre partage et l’enseignement de l’open source sont « incompatibles avec la notion de génie solitaire » explique Golan Levin, artiste et professeur en arts électroniques à l’université de Carnegie Mellon. Certains artistes travaillent désormais ensemble, dans le bavardage constant des réseaux sociaux, contribuant souvent à améliorer et peaufiner les projets des autres. L’open source remet également en perspective l’idée du seul auteur. Dans les communautés artistiques de l’art numérique, le travail est collectif et il peut devenir difficile de savoir qui a contribué à tel ou tel aspect du projet.

 

L’artiste numérique Kyle McDonald a fortement contribué à l’élaboration de l’OpenFrameworks,

qui est une boîte à outils open source C++ conçu pour aider le processus créatif en fournissant un cadre simple et intuitif pour l’expérimentation. Son travail est très axé sur les processus, et il a notamment réalisé en 2011, un programme nommé Face Substitution permettant de substituer à son propre visage celui d’une autre personne. Il a également réalisé une installation nommée Sharing Face qui a permis pendant huit mois, de partager des photos entre Anyang, en Corée et Yamaguchi, au Japon. L’installation projetait sur un écran situé en face du spectateur, une photo correspondant à sa position et son expression, mais d’une personne s’étant présentée devant la même installation dans l’autre pays.

À une époque où le travail est rarement individuel, et change souvent au fil du temps, le concept de la paternité d’une œuvre devient dynamique et fluide.

Un des aspects les plus importants de l’open source par rapport au monde de l’art ordinaire est qu’il rend les outils artistiques innovants, plus transparents et accessibles : les artistes qui travaillent avec des technologies open source forment des communautés s’aidant mutuellement à résoudre les problèmes logistiques et artistiques. Ce processus est accéléré par les réseaux sociaux comme Github ; site qui permet aux programmeurs de consulter, télécharger et retravailler des parties de code open source.

De plus, la création de la licence Créative Commons par Lawrence Lessing et Aaron Shwartz propose une solution alternative légale aux personnes souhaitant libérer leurs œuvres des droits de propriété intellectuelle standards de leur pays. L’organisation a créé plusieurs licences au total de six possibilités combinées autour de quatre pôles définissant les différents usages : Attribution (signature de l’auteur initial), Non Commercial (interdiction de tirer un profit commercial de l’œuvre sans autorisation de l’auteur), No derivative works (impossibilité d’intégrer tout ou partie dans une œuvre composite  ) et Share alike (partage de l’œuvre, avec obligation de rediffuser selon la même licence ou une licence similaire).

 

On peut ainsi constater à quel point l’utilisation de l’ordinateur et d’Internet a permis la diffusion, l’appropriation et la création de nouveaux contenus par de nombreuses personnes.

Mais si l’ordinateur est considéré comme un outil pour produire du texte, des images, de la vidéo… c’est parce qu’il se révèle un instrument beaucoup plus adapté que la combinaison d’une photocopieuse, d’une paire de ciseaux, d’une machine à écrire et d’un tube de colle.

Ne considérer un texte ou tout autre document conçu avec un ordinateur comme n’ayant pas de propriétés esthétiques ou morales très différentes de celles d’un document réalisé avec les instruments du XIXe siècle revient à nous faire passer à côté de l’hypertextualité induite par ces nouveaux moyens de création. Elle permet d’enrichir le contenu de ces diverses productions et ainsi de créer des liens entre les différents médias.

 

Le fait de considérer la globalité de tous les textes et de toutes les images qu’un lecteur peut afficher facilement en interagissant avec un ordinateur à partir d’une matrice numérique, nous propulse dans un nouvel univers d’engendrement de lecture des signes où hypertextualité et hypermédias se trouvent au cœur.

Un hypertexte est une matrice de textes potentiels, dont seuls quelques-uns vont se réaliser sous l’effet de l’interaction avec un utilisateur. Aucune différence ne s’introduit entre tel texte possible de la combinatoire et tel texte réel, qu’on lira sur l’écran. L’hypertexte numérique se définit donc comme une collection d’informations multimodales disposées en réseau à navigation rapide et « intuitive ».

 

Les nouvelles technologies participent au processus contemporain de virtualisations des corps dont le rôle est d’amener le monde à notre portée, fonction clairement externalisée par les systèmes de télécommunication (le téléphone pour l’ouïe, la télévision pour la vue…)

Ces systèmes organisent une mise en commun des organes virtualisés, des personnes qui regardent une même émission de télévision partagent, par exemple, le même grand œil collectif. Grâce aux appareils photo et aux caméras, nous pouvons percevoir les sensations de quelqu’un d’autre, à un autre moment, dans un autre lieu.

Les systèmes de réalité virtuelle, quant à eux, nous permettent d’expérimenter de plus une intégration dynamique de différentes modalités perceptives, nous pouvons presque revivre l’expérience sensorielle d’un d’autre.

 

Les technologies intellectuelles et les dispositifs de communication ont permis, et plus particulièrement Internet, de passer d’une relation du un — tous (enseignement, journal télé…) ou du un-un (téléphone) à une relation du tous-tous.

Dans le cyberespace chacun est potentiellement émetteur et récepteur dans un espace qualitativement différencié, non figé, aménagé par les participants et explorable. On ne se rencontre plus en fonction d’une position géographique ou sociale, mais à partir de centres d’intérêt partagés, sur un paysage commun du sens ou du savoir (vidéo).

 

Le cyberespace offre des instruments de construction coopérative d’un contexte collectif à des groupes nombreux et géographiquement dispersés. La communication se déploie ici selon toute sa dimension pragmatique. Il ne s’agit plus seulement d’une diffusion ou d’un transport de messages, mais d’une interaction au sein d’une situation que chacun contribue à modifier ou à stabiliser, d’une négociation sur des significations, d’un processus de reconnaissance mutuelle des individus et des groupes via l’activité de communication.

Sur le Web, tout est sur le même plan. Et cependant tout est différencié. Il n’y a pas de hiérarchie absolue, mais chaque site est un agent de sélection, d’aiguillage ou de hiérarchisation partielle. Loin d’être une masse amorphe, le Web articule une multitude ouverte de points de vue.

À l’heure actuelle, le défi de l’éducation est d’arriver à équiper chacun de la capacité à traiter de l’information et à produire du savoir. Pour cela il faut une pédagogie nouvelle, fondée sur l’interactivité, l’individualisation, qui développe une capacité autonome d’apprendre et de penser.

 

Tout autant que la recherche utilitaire d’information, la sensation de plonger dans le cerveau commun et d’y participer explique aussi l’engouement pour Internet.

« Naviguer dans le cyberespace revient à promener un regard conscient sur l’intériorité chaotique, le ronronnement inlassable, les banales futilités et les fulgurations planétaires de l’intelligence collective. » (Lévy, Pierre. 1995. Qu’est-ce que le virtuel  ?)

 

Comme l’explique Pierre Lévy dans son ouvrage « Cybercultutre » (1997), le cyberespace, interconnexion des ordinateurs de la planète, tend à devenir l’infrastructure majeure de la production, de la gestion et de la transaction économique. Il constituera bientôt le principal équipement collectif international de la mémoire, de la pensée et de la communication. En somme, dans quelques dizaines d’années, le cyberespace, ses communautés virtuelles, ses réserves d’images, ses simulations interactives, son irrépressible foisonnement de textes et de signes sera le médiateur essentiel de l’intelligence collective de l’humanité. Avec ce nouveau support d’information et de communication, émergent des genres de connaissances inouïs, des critères d’évaluation inédits pour orienter le savoir, de nouveaux acteurs dans la production et le traitement des connaissances.

3.3/__Une_liberté_d’expression_qui_inquiète_les_gouvernements

On passe de l’intelligence collective au collectif intelligent, et c’est pour cela qu’Internet inquiète et suscite de la peur chez certains gouvernements. En permettant aux individus de créer une nouvelle forme de société sans frontières ni limites, l’autorité gouvernementale se trouve remise en cause et interrogée.

 

Suite aux événements récents d’atteinte à la liberté d’expression, la France semble s’orienter vers une législation à l’américaine, et plus précisément en prenant modèle sur son Patriot Act pourtant dénigré. Ainsi, l’état Français va pouvoir appliquer l’article 20 de la « Loi de programmation militaire » votée en novembre dernier, et qui prévoit entre autres, dans sa lutte contre le terrorisme, la collecte de données, sur les réseaux, opérateurs télécoms et FAI (Fournisseur d’Accès à Internet), sans besoin de recours judiciaires. Ainsi, les autorités peuvent obtenir les métadonnées, c’est-à-dire les identités des utilisateurs ou encore les dates et heures des communications.

 

Se met également en place le blocage administratif des services électroniques, qui se traduit purement et simplement par le retrait d’un site, à la demande de l’Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication (OCLCTIC). S’ajoute également le dé-référencement des sites faisant l’apologie du terrorisme sur les moteurs de recherche. À chaque demande, les protagonistes, comme les FAI, éditeurs ou hébergeurs, sont tenus de fournir les informations sous 24 h.

De plus, tous les déplacements par le biais de moyens de transports soit aérien, maritime ou encore ferroviaire, feront l’objet d’une vigilance particulière, toute une série de données sera récoltée à l’achat d’un titre de transport : nom, prénom, adresse, numéro de téléphone, numéro de carte bancaire, itinéraire, dates de voyage.

Des peines de prison seront également appliquées à quiconque fera l’apologie d’un acte terroriste sur Internet.

 

Mais le problème existe déjà aux États-Unis : sous le couvert de la lutte contre le terrorisme, ce sont les libertés fondamentales des citoyens qui sont remises en cause. Si l’on peut comprendre et souscrire à cette approche gouvernementale, personne ne tient à ce qu’on lise sa correspondance, qu’on le géolocalise constamment ou qu’on heurte ses libertés numériques. Il s’agit donc de rester vigilants face aux futures mesures qui apparaîtront nécessairement en France, mais ne devront pas porter atteinte à ses valeurs fondamentales de démocratie.

 

Ce ne sont là que le renforcement de mesures déjà en place, et le gouvernement n’en a pas fini de légiférer, notamment à propos du contrôle d’Internet et des réseaux sociaux. Là encore, les autorités revendiquent à juste titre, le fait qu’ils sont des vecteurs très rapides pour la propagande et les dérives intégristes ou extrémistes. Comment alors lutter et contrer ces dérives sans porter atteinte au respect de la vie privée et à la protection des données personnelles de tout un chacun ? Jusqu’où peut-on aller au nom de la sécurité nationale ? C’est un vrai débat de société.

 

Pour le gouvernement, il s’agira de toute raison garder pour trouver le juste équilibre entre :

— concevoir des lois pour garantir la protection et la sécurité des citoyens, lutter contre le fanatisme et l’intégrisme.

et

— préserver les fondements et les valeurs de la démocratie dont font partie la protection de la vie privée et des données personnelles.

Nous devons tous veiller à ce qu’au nom de la défense de la liberté d’expression, ne soit pas mise à mal cette même liberté par une atteinte aux libertés du tout un chacun sur Internet, Plus de surveillance ne protégera pas plus la liberté d’expression.

La peur, la colère et la douleur peuvent générer la mise en place de « solutions » rapides qui peuvent avoir des conséquences irréversibles.

 

La Quadrature du Net, la CNIL et d’autres acteurs sont là pour veiller à la défense de ces libertés, mais nous autres, Internautes, avons aussi notre libre arbitre et notre droit d’expression.

L’attentat de Charlie Hebdo ne doit pas servir d’alibi à la justification des programmes de surveillance existants ni à leur accentuation.

Par la pression qu’elle induit, la surveillance de masse ne viole pas seulement la vie privée, mais aussi le droit à parler librement dans le respect des droits fondamentaux.

 

Il faut repenser le cadre de la liberté d’expression en d’autres termes que ceux qui placent d’un côté l’expression anonyme propre au  terrorisme qui se permet tous les propos de haine et de l’autre côté Google et Facebook où l’on peut se sentir en sécurité parce qu’identifiés sous notre identité réelle.

 

Plus les pouvoirs publics ont peur d’Internet ou commencent à le percevoir comme un outil de contre-pouvoir, plus ils vont accélérer le pas de ces attaques contre nos libertés. C’est une tension permanente qui est bien le reflet de l’impact d’Internet sur nos sociétés et du potentiel qu’il offre pour la participation et donc pour l’amélioration de notre société et pour changer le monde.