Ordinateur à carte unique : Raspberry Pi 4 et consort

À l’occasion de la sortie du Raspberry Pi 4, un ordinateur à carte unique (Single Board Computer — SBC), il nous a semblé important de faire un point sur les cartes Raspberry qui se sont démocratisées à partir de 2010, et qui ont aujourd’hui des capacités suffisantes pour traiter l’ensemble des tâches courantes d’un ordinateur de bureau.

Raspberry Pi 4

Les cartes fonctionnant directement à partir de bibliothèques C/C++ de type Arduino, ou celles fonctionnant via un interpréteur dans un langage particulier (MicroPython), ne seront pas traitées en profondeur dans cette dépêche.

Sommaire

Commençons par présenter la petite nouvelle qui s'est longuement faite attendre.

Wikipedia définit la Raspberry Pi comme étant un nano‐ordinateur à architecture ARM conçue par des professeurs du département informatique de l’université de Cambridge dans le cadre de la fondation Raspberry Pi.

Elle est de la taille d’une carte de crédit, et est destinée initialement à encourager l’apprentissage de la programmation informatique. Elle permet l’exécution de plusieurs variantes du système d’exploitation libre GNU/Linux, notamment Debian, et des logiciels compatibles.

Les améliorations amenées par le nouvel opus de la Raspberry sont nombreuses, elles sont donc synthétisées dans le Tableau 1.

Composants Raspberry Pi 3 B+ Raspberry Pi 4
Système monopuce (SoC) Broadcom BCM2837B0 Broadcom BCM2711
Type de cœurs Cortex-A53 (ARMv8) 64 bits Cortex-A72 (ARMv8) 64 bits
Type de mémoire DDR2 DDR4
Nombre de cœurs 4 4
Processeur graphique VideoCore IV VideoCore VI
Fréquence processeur 1,4 GHz 1,5 GHz
Mémoire vive 1 Gio 1 Gio, 2 Gio ou 4 Gio
Ports USB 4 x USB 2.0 2 × USB 3.0 + 2 × USB 2.0
Ethernet Gigabit sur USB2.0 Gigabit sur PCIe
Port HDMI 1 × HDMI 2 × micro HDMI
Sortie son analogique jack 3,5 mm jack 3,5 mm
GPIO 26 max 26 max
PWM 4 4 ?
I²C 1 4
SPI 2 4
UART 1 4
LCD Panel
Caméra CSI
Wi‐Fi 2,4 GHz et 5 GHz 802.11b/g/n/ac 2,4 GHz et 5 GHz 802.11b/g/n/ac
Bluetooth® 4.2, BLE 5.0
Stockage microSD microSD

Tableau 1 : comparatif des Raspberry Pi 3 B+ et 4

Bien que les périphériques de cette carte, présentés sur le Tableau 1, permettent déjà un nombre d'usages très important, l'intérêt majeur de ce type de cartes par rapport à un PC est l'accès au GPIO. Cet accès privilégié à des bus tels que I2C, SPI ou UART, permet l'utilisation de tout matériel électronique ; nous avons donc vu fleurir depuis 2014 un nombre important de cartes d'extensions de fonctionnalités dénommées HAT (Hardware Attached on Top).

Nous proposons donc de faire un point sur les différents types d'usages. Pour chaque usage, nous évoquerons des alternatives existantes, avec leurs avantages et leurs limites.

Usage pédagogique

La carte Raspberry Pi se distingue de ses concurrentes, car elle a, dès le début, pris le parti de se positionner comme une carte dédiée à l'éducation de masse à l'informatique, l'électronique et la robotique. Ce positionnement les a conduits à mettre en place une certification afin que des enseignants ou des passionnés puissent avoir une reconnaissance de la fondation sur leur compétence à transmettre le savoir technique autour de ces plateformes. Des entreprises telles que Pi-Top ont conçu des unités pédagogiques comme un ordinateur portable permettant l'accès aux GPIO, ou dernièrement une plateforme modulable orientée robotique pour la version 4.

Bureautique et Web

Bien que l'on puisse considérer qu'il est possible de faire de la bureautique avec les précédentes générations de la Raspberry Pi, le fait de ne pouvoir utiliser qu'un seul écran était une vraie limitation. De plus, la navigation Internet pouvait assez rapidement s'avérer poussive à cause du manque de mémoire vive. Lancer plusieurs applications en simultané pouvait aussi être compliqué.

De manière générale, l'ensemble de ces limitations est levé avec cette nouvelle version. L'ajout de RAM (jusqu'à 4Go), ainsi que la possibilité de brancher deux écrans via les deux ports mini-HDMI, font de cette plateforme un outil tout à fait adapté à un usage de bureautique classique, mail, LibreOffice, navigateur Internet. On peut noter que dans cette gamme de prix, il existe les cartes Rock64pro et Odroid, qui permettent d'avoir accès à une très large palette de systèmes d'exploitation, ce qui en fait un choix très intéressant pour la bureautique. Il est cependant important de noter que la plupart des utilisateurs de bureautique aimeront avoir une solution plus finalisée, avec un boitier. Il existe donc un nombre très important de boitiers pour les Raspberry Pi 1, 2 et 3, et on en trouve de plus en plus pour la 4 (thepihut). Il ne fait pas de doute que des initiatives viendront créer de nouveaux boîtiers permettant de tirer pleinement parti des possibilités de cette carte.

Le choix du boitier doit être fait en tenant compte de la dissipation de chaleur qui, sans être globalement importante, est concentrée sur quelques circuits. Le taux de panne des Raspberry fonctionnant dans une ambiance chaude n'est pas négligeable. C'est pour cela que l'on trouve actuellement des solutions allant de petits radiateurs à coller sur les circuits à des boitiers-radiateurs en contact avec les circuits intégrés. Certains sont même équipés d'un ou deux ventilateurs.

De manière générale, l'ensemble des cartes ARM ayant au moins 2 Go de RAM et étant compatible avec une distribution Linux pour ARM permettra de faire de la bureautique de manière satisfaisante. Il n'existe par contre pas de boîtier pour toutes les cartes.

Avant de passer aux autres usages, il est nécessaire d'expliquer les différences matérielles entre ces cartes et les machines PC compatibles. La section matériel suivante présente les spécificités ainsi que les pièges à éviter pour pouvoir profiter des usages plus complexes que la navigation web.

Matériel

Pilotes

Les SoC destinés aux téléphones et aux ordinateurs à carte unique disposent généralement d'une unité de traitement graphique (GPU) initialement utilisée dans les jeux vidéos, les applications 3D (CAO, animation), mais aussi utilisée dans la majorité des environnements de bureaux modernes pour les effets visuels. Mais il est aussi nécessaire de pouvoir décoder matériellement les flux vidéos via une unité spécialisée (VPU) car les processeurs ne sont souvent pas assez puissants pour le faire. De plus ces cartes pouvant interagir avec le monde physique comme présenté dans la section Électronique, robotique, IoT, il faut aussi être en mesure d'avoir accès aux entrées sorties.

Quelle différence avec un PC ?

Les périphériques sont connectés au processeur principal via un bus. Certains protocoles de bus supportent l'énumération (aussi appelée découverte), c'est-à-dire que le processeur central peut demander « quels dispositifs sont connectés à ce bus » et les dispositifs répondent avec des informations sur leur type, fabricant, modèle et configuration dans un format standardisé. Avec ces informations, le système d'exploitation peut rapporter la liste des périphériques disponibles et décider quel pilote de périphérique utiliser pour chacun d'entre eux. Certains protocoles de bus ne prennent pas en charge l'énumération, et le processeur principal n'a aucun moyen de savoir quels périphériques sont connectés, à part deviner.

Tous les bus PC modernes prennent en charge l'énumération, en particulier PCI (l'original ainsi que ses extensions et successeurs tels que AGP et PCIe), sur lequel la plupart des périphériques internes sont connectés, USB (toutes versions), sur lequel la plupart des périphériques externes sont connectés, ainsi que Firewire, SCSI, toutes les versions modernes de ATA/SATA, etc. Les connexions de moniteurs modernes permettent également de découvrir le moniteur connecté (HDMI, DisplayPort, DVI, VGA avec EDID). Ainsi, sur un PC, le système d'exploitation peut reconnaître les périphériques connectés en énumérant le bus PCI, et en énumérant le bus USB quand il trouve un contrôleur USB sur le bus PCI, etc. Notez que le système d'exploitation doit supposer l'existence du bus PCI et la manière de le sonder ; ceci est standardisé sur l'architecture du PC (« architecture PC » ne signifie pas seulement un processeur x86 : pour être un PC (moderne), un ordinateur doit aussi avoir un bus PCI et doit démarrer d'une certaine manière).

De nombreux systèmes embarqués utilisent des bus moins sophistiqués qui ne prennent pas en charge l'énumération. C'était vrai sur PC jusqu'au milieu des années 1990, avant que le PCI ne dépasse l'ISA. La plupart des systèmes ARM, en particulier, ont des bus qui ne supportent pas l'énumération. C'est également le cas de certains systèmes x86 embarqués qui ne suivent pas l'architecture PC. Sans énumération, le système d'exploitation doit savoir quels périphériques sont présents et comment y accéder. L'arborescence de périphériques (Device Tree) est un format standard pour représenter ces informations.

La principale raison pour laquelle les bus PC prennent en charge la découverte est qu'ils sont conçus pour permettre une architecture modulaire dans laquelle des périphériques peuvent être ajoutés et supprimés, par exemple en ajoutant une carte d'extension dans un PC ou en connectant un câble sur un port externe. Les systèmes embarqués ont généralement un ensemble fixe de dispositifs et un système d'exploitation préchargé par le fabricant et qui n'est pas remplacé, de sorte qu'il n'est pas nécessaire de procéder à un dénombrement.

Si vous souhaitez aller plus loin dans la compréhension de la construction d'un système d'exploitation sur des SoCs, François Mocq a écrit un billet permettant de comprendre comment cela fonctionne.

Quelles conséquences ?

La principale conséquence de cette différence entre PC et ordinateur à carte unique est que, si le concepteur d'un appareil décide que son produit n'est destiné qu'à un usage précis et non pas une utilisation plus large, il sera alors très compliqué de faire fonctionner l'ensemble du matériel pour un usage autre que celui prévu initialement. On peut prendre l'exemple des boîtiers Android TV, disponibles à des prix attractifs, ayant des performances équivalentes voire meilleures que le Raspberry Pi 4 telle que la H96 Max. Pour être capable de l'utiliser avec une distribution Linux, il faudra jouer avec des images venant de vendeurs de SBC tels que OrangePi ou Pine64 et des développements communautaires comme Linux-Sunxi, mais il sera très difficile d'avoir accès à tous les périphériques, car des éléments du Device Tree seront manquants. On voit donc que ce manque d'accès aux sources de ces boîtiers handicape fortement la réutilisation de ce type de matériel.

Ce problème touche malheureusement également les ordinateurs à carte unique. Il n'est que très rarement spécifié si le matériel présent est utilisable. La plupart du temps, des images Android et Linux (Ubuntu pour la plupart) sont fournies, et si l'image Android permet d'exploiter la partie graphique, c'est souvent plus compliqué avec la distribution Linux (d'autant plus si l'on souhaite la garder à jour).

Il n'est, par contre, quasiment jamais spécifié si les entrées/sorties sont disponibles et comment elles le sont. Par exemple dans la section Électronique, robotique, IoT, des bibliothèques sont citées, mais elles ne sont disponibles que pour très peu de cartes.

Il faut donc comprendre qu'entre les fonctionnalités matérielles décrites et leur utilisation, il y a un monde. C'est précisément pour ces raisons qu'un débutant devra toujours s'orienter vers une carte ayant une grande communauté, dans le cas contraire, on rentre dans l'embarqué, et cela nécessite des compétences d'ingénieurs dédiées à ce domaine, et cela peut être très décourageant pour les hobbyistes souhaitant faire un petit projet.

Les activités PC modernes nécessitent donc le bon fonctionnement de deux composants périphériques :

  • l'unité de traitement graphique (GPU) ;
  • l'unité de traitement vidéo (VPU).

Une autre conséquence est l'impossibilité de créer une image du noyau Linux universelle. Pour cela, celle-ci devrait reconnaître sur quelle machine, elle tourne. Or, sans moyen standard, il y a une forte probabilité de « casser » la puce (par exemple, en jouant sur des registres de commande d'horloge).

Il n'existe ainsi aucun noyau Linux ARM qui démarre partout, à l'inverse d'un noyau Linux x86 classique. C'est d'ailleurs incompréhensible qu'ARM ne garantisse même pas un fonctionnement minimal (boot + un UART + une RTC, et sans doute une configuration « correcte » de la RAM) pour tester plus facilement une nouvelle puce, certains fabricants le proposent (par exemple le FEL mode de Allwinner) mais ce n'est pas universel.

Processeur graphique

Bien qu’il soit possible d’utiliser une distribution Linux en utilisant le processeur pour l’affichage, la prise en charge de Mesa 3D n’est pas disponible pour tous les processeurs graphiques, ce qui oblige à repasser par LLVMpipe et donc le processeur pour l’affichage. Lorsque les pilotes Mesa 3D ne sont pas disponibles, les environnements de bureau ne sont pas accélérés par le processeur graphique, il faut donc utiliser des environnements légers. Les processeurs Videocore IV/VI ont des pilotes disponibles directement sur Raspbian, les environnements de bureau traditionnels peuvent donc pleinement utiliser le processeur graphique.

Pour les GPU utilisant les puces Mali (quasiment toutes les autres SoC ARM), c'est plus compliqué.

Il existe des pilotes OpenSource pour la couche noyau, mais les pilotes pour l'espace utilisateur sont non-libres et donc livrés sous forme de binaires.

Chaque pilote binaire est conçu pour une combinaison spécifique d'OS (Linux/Android), de plate-forme matérielle, de génération GPU (4x0/T6x0/T7x0) et de technologie graphique (fbdev/X/Wayland/SurfaceFlinger (Android)). Les plates-formes sont parfois abandonnées, vous devrez donc peut-être choisir une version plus ancienne pour obtenir un pilote qui fonctionnera sur un matériel plus ancien.

Un pilote binaire devrait fonctionner avec un pilote du noyau publié en même temps, et jusqu'à 4 versions antérieures. Le pilote binaire vérifie la version API du pilote du noyau au démarrage.

ARM a abandonné le support de X dans ses versions après r16 (Jan 2017). C'est pénible car c'est encore très utilisé. Seuls Wayland, fbdev et SurfaceFlinger sont supportés aujourd'hui.

Cependant, tout n'est pas si sombre, car la version 5.2 du noyau contient maintenant par défaut les pilotes OpenSources compatibles avec ces processeurs. Ces pilotes ont été obtenus par rétro-ingénierie, ils ne sont pas considérés comme étant stables. Mais ils permettent de faire fonctionner une grande palette de cartes sans avoir à galérer à trouver les bonnes versions du noyau pour le matériel à disposition. Le billet de blog de Collabora du 5 août, montre d'ailleurs des progrès énormes sur le support de ces processeurs. Sur le SoC RK3399, qui est très populaire aujourd'hui, les environnements graphiques, Gnome Shell et Plasma sont maintenant compatibles par défaut. Il est donc possible d'utiliser KDE et Gnome sur ces SoC en n'utilisant que des logiciels OpenSource !

Pour les nombreux appareils moins récents ou plus modestes à base des vénérables GPU Mali4*0 (génération Utgard), le pilote libre tant attendu nommé Lima est lui aussi en bonne voie.

Performances thermiques

Plus les cartes ont des processeurs rapides et puissants, et plus le dégagement thermique est important. Si les précédentes versions de Raspberry Pi permettaient de ne pas trop se soucier de la dissipation pour la plupart des cas d'usages, la dernière version nécessite de travailler ce sujet. C'est d'ailleurs tout aussi vrai pour les cartes ARM puissantes comme les Odroid qui nécessitent un dissipateur thermique pour pouvoir fonctionner de manière optimale.

Un point intéressant est que, si ces cartes ne sont pas refroidies correctement, il n'y a pas de danger particulier mais par contre un abaissement automatique de la fréquence des processeurs (throttling) est activé. Afin d'obtenir des performances optimales, il convient donc de traiter ce problème. Cela peut se faire directement sur la carte avec un refroidissement actif de type ventirad mais également par une dissipation passive sur la carte ou via un boîtier en aluminium faisant contact avec le processeur. Phronix a fait des tests avec ventilateurs, ventirad et boitier de dissipation passive, et seules les deux dernières options permettent de ne jamais activer l'abaissement de fréquence.

Vidéo

L'usage multimédia fait partie des usages les plus problématiques de ces cartes. La Raspberry Pi 3B+ n'est clairement pas taillée pour les plus exigeants ou pour l'avenir proche, car elle n'est pas capable de gérer des flux 4K en décodage matériel, ce qui ne permet pas l'utilisation des vidéos 4K. De plus, s'il est possible d'avoir des performances acceptables jusqu'en 1080p pour le codec H264, cela ne peut se faire qu'au travers du logiciel OMXPlayer. Une version de VLC, prenant en compte le décodage matériel du videocore IV, a été publiée en novembre 2018 ; elle semble donner satisfaction à ses utilisateurs.

Bien que l'on puisse se dire que cela peut toujours être intéressant, il est possible de trouver des solutions toutes prêtes pour le multimédia pour moins de 30 € qui se basent sur Android.

À l'instar des solutions pour l'Internet des objets, la question du suivi logiciel et, intrinsèquement de la sécurité, va se poser si l'objectif est aussi de relier l'appareil à Internet, ainsi que de la question de la protection des données personnelles et du Bigdata.

Si le but recherché est donc uniquement le multimédia, la question de l'utilisation d'une Raspberry Pi ne se pose pas, celle-ci n'est pas intéressante. Si on souhaite par contre avoir une solution Linux non Android, la version 4 avec au moins 2Go de RAM est une solution très pertinente. Il faudra néanmoins s'armer de patience, car la prise en compte de l’accélération matérielle par les distributions dédiées nécessite encore de la mise au point.

Si l'on compare à la RockPro64 précédemment présentée dans la section bureautique, il semble que les versions des logiciels de lectures de vidéos tels que mpv ou vlc par défaut, ne soit pas compilé avec l'accélération matérielle, il faut donc le faire manuellement. Ce n'est clairement pas un bon point pour cette carte. Les cartes de chez Odroid sont, elles, livrées avec des lecteurs permettant d'exploiter l'accélération matérielle pour le décodage, mais pas forcément VLC ou mpv. Il est cependant à noter que le travail de Pine64 autour de la création d'un téléphone et d'un ordinateur portable basés sur l'architecture de la RockPro64 les a conduits à travailler à mettre en place l'ensemble des briques applicatives OpenSource pour une utilisation optimale. Il est très probable que l'ensemble des développements faits pour le laptop et le téléphone conduise à une distribution dédiée qui bénéficiera également à la carte RockPro64. Les développements faits par Pine64 mériteraient une dépêche à eux seuls.

Il existe une autre entreprise qui semble donner satisfaction à un grand nombre d'utilisateurs : Hardkernel, qui produit les Odroid. Dans les cartes permettant de bonnes performances en multimédia on notera la XU4 et la N2, la N2 étant plus performante. Il est à noter que ces cartes coûtent souvent plus cher que le prix affiché, du fait des frais de douane. Les revendeurs européens sont bien plus chers. La carte N2 est livrée avec une Ubuntu 18.04 ainsi que tous les pilotes graphiques et accélérateurs permettant les jeux 3D ainsi que la lecture de vidéos 4K h265. Si elle avait de réels arguments à sa sortie, sa faible disponibilité en Europe, couplé à une équivalence en termes de VPU, la rend aujourd'hui moins intéressante face à la Raspberry Pi 4. Peut-être que l'utilisation d'un GPU Mali permettra de faire une différence sur la partie retrogaming, pour les jeux 3D, mais on ne peut pas le savoir aujourd'hui, car il n'existe pas de comparatifs exhaustifs.

Il existe aussi des alternatives plus chères à base de processeurs X86_64 telles que les cartes UDOO X66 II dont le prix de base commence à 174€. Comme ces cartes utilisent des processeurs d'ordinateurs portables, elles n'autorisent pas l'accès aux GPIO, ainsi elles ajoutent des processeurs d'Arduino pour permettre l'interaction avec le monde réel. Cette carte est basée sur un Accelerated processing unit Intel N3160 (GPU Intel HD 400, dont les performances ne sont pas transcendantes). Elles n'auront cependant aucune difficulté à faire ce que font toutes les cartes ARM en termes de bureautiques multimédia et gaming, mais pour un prix 2 à 3 fois supérieur. Mais, comme l'ensemble de la chaîne logicielle est libre (GPU Intel, Arduino Leonardo), il est facile de mettre à jour la distribution, ce qui évite à coup sûr l'obsolescence qui peut faire peur sur des cartes ARM. À noter également qu'UDOO vient de basculer chez AMD avec leur plateforme embarquée APU Ryzen V1000 qui avec le GPU Vega a des performances graphiques bien supérieures à celles que l'on peut trouver sur les GPU Intel HD. Ils ont financé leurs développements sur une campagne KickStarter et ils entrent en phase de production.

Lorsque l'on commence à vouloir faire un serveur multimédia, il est souvent envisagé d'utiliser des distributions dédiées. Il existe plusieurs distributions spécialisées comme LibreElec, OpenElec, et OSMC, cette dernière ayant un magasin d'applications ou app store pour rajouter des greffons (plug-ins). Ces distributions sont basées sur le media-center Kodi. Il est possible de l'installer directement depuis Raspbian, mais aussi de l'avoir directement dans emulstation via Retropie, Recalbox ou Batocera. Si on ne veut faire que du multimédia, alors ces distributions spécialisées sont à préférer, car elles optimisent au mieux la gestion des ressources.

Audio

La carte Raspberry Pi 4 n'est, par contre, pas du tout prévue pour l'audio par défaut. Bien qu'il soit possible d'installer des HAT dédiés, la sortie par défaut est un PWM filtré qui ne satisfera pas grand monde, et il n'y a pas du tout d'entrée son (contrairement à ce que la concurrence propose, parfois depuis longtemps à la vue des cartes et appareils basés sur un Allwinner A10 ou A20).

Après, il semble nécessaire de relativiser. Car que ce soit avec des ordinateurs monocartes ou même avec des cartes-mères de PC, les gens exigeants quant à la qualité sonore privilégieront des DAC ou ADC externes connectés via l'USB ou les différents protocoles de communication accessibles via les GPIO. Il est simplement regrettable de ne pouvoir se reposer sur l'implémentation par défaut que dans de très rares occasions.

Avec ses GPIO, ses ports USB et la sortie audio via HDMI, cela reste tout de même un outil facilitant la création de matériel HiFi connecté. Ainsi on trouve beaucoup d'exemples de matériel audio DIY fait à partir de Raspberry Pi, j'ai trouvé que ce projet, assez didactique, méritant d'être mentionné.

Rétrogaming

Bien que l'émulation de jeux vidéos soit un sujet complexe quant à sa légalité, il a permis à des jeunes générations de découvrir les jeux de leurs parents (voire de leurs grand-parents). Présenter ici les techniques d'émulation conduirait à un exposé bien trop long, il est cependant évident qu'émuler une Wii ou une NES ne demandera pas les mêmes performances. Jusqu'ici la Raspberry Pi pouvait émuler l'ensemble des consoles 8 bits, la Playstation, et parfois quelques jeux de consoles plus récentes. Bien que la version 4 ait augmenté en puissance, il n'est pas du tout certain que l'ensemble des jeux des consoles telles que la Nintendo 64 ou la DreamCast (naomi/atomisware) soient émulées de manière fluide, mais il y a déjà eu des tests montrant des résultats intéressants sur ces consoles.

Pour accéder à l'émulation avec ce genre de cartes, il est possible d'installer Retropie, qui permet d'aller chercher l'ensemble des dépôts de libretro et de les compiler pour les rendre disponibles dans le superviseur EmulationStation. C'est un processus très long en temps, car la compilation des différents émulateurs est gourmande même sur un PC X86_64. Il est également possible d'installer des distributions prévues pour l'émulation telles que Recalbox, ou batocera. Il est évident que les solutions à base d'APU X86_64 présentées dans la section multimédia, seront plus performantes que les solutions ARM, mais la gamme de prix n'est pas du tout la même.

Électronique, robotique, Internet des objets

C'est, pour moi, le point qui a fait de cette carte un succès, voire une révolution. Nous avions déjà vécu la révolution Arduino, qui permet, avec un IDE simplifiant l'édition de code source, la compilation et l'upload vers le micro-contrôleur, de mettre à la disposition de personnes non expertes en informatique embarquée, une solution permettant de contrôler des actionneurs, mesurer des capteurs pour ainsi créer un environnement idéal pour le DIY et l'IoT. Cependant, bien que faire des petits projets soit assez simple, dès que l'on veut faire des projets plus élaborés, cela se complique sérieusement. Ces microcontrôleurs étant mono-coeur, il n'est pas forcément possible de simplement définir plusieurs tâches. Il existe des bibliothèques pour simplifier l'utilisation, mais il y a beaucoup de fonctions bloquantes qui rendront les choses complexes. De plus, ces cartes n'ont pas une très grande puissance de calcul et des capacités mémoire restreintes ; on peut donc atteindre leurs limites bien plus rapidement. Elles ont, par contre, l'avantage d'être totalement préemptives. Si on accepte que la criticité des tâches à effectuer n'est pas élevée, alors le fait de perdre le temps réel (l'aspect préemptif) par l'utilisation d'un noyau Linux rend la carte Raspberry Pi excellente pour le prototypage et l'interaction avec le monde réel.

Tout d'abord, contrairement à l'écosystème Arduino où la programmation se fait en C++, une très grande partie des ressources pédagogiques autour de la gestion des GPIO avec la Raspberry Pi se fait en python grâce à la bibliothèque RPi.GPIO, ainsi changer périodiquement l'état d'une sortie numérique est aussi simple que :

import RPi.GPIO as GPIO            # import du module RPi.GPIO  
from time import sleep             # import de la fonction sleep
GPIO.setmode(GPIO.BCM)             # choix BCM or BOARD  
GPIO.setup(24, GPIO.OUT)           # régler GPIO24 comme sortie 
try:  
    while True:  
        GPIO.output(24, 1)         # régler GPIO24 to 1/GPIO.HIGH/True  
        sleep(0.5)                 # Attendre une demi-seconde  
        GPIO.output(24, 0)         # régler GPIO24 à 0/GPIO.LOW/False  
        sleep(0.5)                 # Attendre une demi-seconde  
except KeyboardInterrupt:          # Inteception de l'interruption de clavier CTRL+C  
    GPIO.cleanup()

L'approche de RPi.GPIO est très proche du matériel, il n'y a quasiment pas d'abstraction, elle est donc extrêmement intéressante d'un point de vue pédagogique, mais nécessite de solides connaissances pour l'utiliser efficacement.

En tant que mécanicien, je dois trouver des solutions pour réaliser des tâches de mouvement (mon travail consiste plutôt dans la destruction de la matière par le mouvement), j'étudie donc souvent comment faire pour réussir à trouver des solutions pas chères pour faire ces tâches de mouvement. Aujourd'hui les actionneurs les moins chers sont les moteurs pas à pas. Leur électronique de commande impose d'envoyer un train de créneaux dont la fréquence définira le nombre de pas par seconde. Des outils dédiés existent, car ils sont aussi utilisés pour la motorisation des imprimantes 3D, mais si on veut le faire avec une Raspberry Pi, il y a évidemment une bibliothèque pour cela.

La bibliothèque Gpiozero permet de faire une quantité énorme d'opérations sur les GPIO, contrairement à la bibliothèque RPi.GPIO, qui permet d'écrire du code qui traite des pins et de l'état des pins. Gpiozero fait généralement référence à des périphériques comme des DEL (LED) ou des boutons plutôt qu'aux broches d'entrée et de sortie.

GPIO Zero fournit des classes qui représentent les périphériques, donc au lieu d'avoir un numéro de broche et de lui dire d'activer la sortie numérique, vous avez une LED et vous lui dites de s'allumer, et au lieu d'avoir un numéro de broche et de demander si elle est allumée ou éteinte, vous avez un bouton et demandez s'il est pressé.

Cette bibliothèque permet notamment de piloter directement un moteur depuis la Raspberry Pi :

import time
import sys
from gpiozero import OutputDevice as stepper
IN1 = stepper(12)
IN2 = stepper(16)
IN3 = stepper(20)
IN4 = stepper(21)
stepPins = [IN1,IN2,IN3,IN4] # Motor GPIO pins</p><p>
stepDir = -1        # Set to 1 for clockwise
                           # Set to -1 for anti-clockwise
mode = 1            # mode = 1: Low Speed ==> Higher Power
                           # mode = 0: High Speed ==> Lower Power
if mode:              # Low Speed ==> High Power
  seq = [[1,0,0,1], # Define step sequence as shown in manufacturers datasheet
             [1,0,0,0], 
             [1,1,0,0],
             [0,1,0,0],
             [0,1,1,0],
             [0,0,1,0],
             [0,0,1,1],
             [0,0,0,1]]
else:                    # High Speed ==> Low Power 
  seq = [[1,0,0,0], # Define step sequence as shown in manufacturers datasheet
             [0,1,0,0],
             [0,0,1,0],
             [0,0,0,1]]
stepCount = len(seq)
if len(sys.argv)>1: # Read wait time from command line
  waitTime = int(sys.argv[1])/float(1000)
else:
  waitTime = 0.004    # 2 miliseconds was the maximun speed got on my tests

stepCounter = 0

while True:                          # Start main loop
  for pin in range(0,4):
    xPin=stepPins[pin]          # Get GPIO
    if seq[stepCounter][pin]!=0:
      xPin.on()
    else:
      xPin.off()
  stepCounter += stepDir
  if (stepCounter >= stepCount):
    stepCounter = 0
  if (stepCounter < 0):
    stepCounter = stepCount+stepDir
  time.sleep(waitTime)     # Wait before moving on

trouvé sur instructables.com

Un point vraiment intéressant pour la nouvelle Raspberry Pi est qu'il y a eu une nette amélioration de la vitesse de commutation des I/O. La figure ci-dessous montre l'évolution de la vitesse de commutation d'une sortie numérique.
 évolution de la vitesse de commutation d'une sortie numérique
Soit une augmentation d'un facteur 3, qui est très probablement due à l'utilisation de nouveaux cœurs ARM. Il est clair que lorsque l'on veut faire des projets qui nécessitent plusieurs capteurs, alors avoir une commutation plus rapide est un avantage certain.

Bien que Gpiozero permette de faire beaucoup, elle ne s'occupe pas de l'I2C et du SPI. Afin de permettre au plus grand nombre de facilement utiliser des capteurs, Adafruit a développé une bibliothèque appelée Blinka qui permet de faire fonctionner l'ensemble des capteurs et actionneurs qu'ils ont développés pour leurs cartes fonctionnant sous CircuitPython (interpréteur python pour microcontrôleur, simplifiant grandement la programmation). L'ensemble des capteurs et actionneurs disponibles pour sur Adafruit est très important, ce qui peut grandement réduire le coût de développement d'un protoype !

Pour utiliser des convertisseurs analogique numérique, il existe des cartes filles comme celle-ci présentée en ci-dessous :

**Figure Carte WaveShare**
Mais il est possible d'en utiliser de beaucoup moins chers (url), l'avantage de la Raspberry, c'est que l'on a directement accès aux GPIO et l'avantage de la Adafruit, c'est qu'il y a un pont avec CircuitPython.

Serveur de stockage et passerelle Internet

Quand elles sont équipées d'une connectique réseau et de stockage suffisant, les cartes ARM peuvent aussi faire des serveurs domestiques intéressants de par leur faible consommation électrique.

Une carte à base de SOC A20 (Olinuxino Micro, BananaPi M1) suffit à synchroniser les contacts, les agendas et les fichiers de tablettes et smartphones familliaux avec un ordinateur de sauvegarde en utilisant Owncloud (et certainement NextCloud - non testé). Pour un vrai cloud familial entre ordinateurs avec le même logiciel, un SOC un peu plus puissant, comme le R40 (BananaPi M2U) s'en sort sans latence sensible. Même l'interface Web plutôt lourde pour le A20 passe ici très correctement.

Certaines cartes disposant d'Ethernet gigabit et de plusieurs ports SATA, comme la BananaPi R2, la Marvell Expressobin ou la ROCKPro64 avec sa carte d'extension SATA, permettent de faire un NAS avec RAID logiciel.

Enfin, des logiciels de supervision comme Munin ou Zabbix (Nagios non testé) sont tout à fait utilisables pour surveiller un petit réseau local, du moment que le nombre de machines n'est pas trop élevé.

Télécharger ce contenu au format Epub

Commentaires : voir le flux atom ouvrir dans le navigateur

"La bataille du Libre" : comment contribuer à la version internationale

L'association Ploss-RA a lancé un campagne de financement participatif destinée à financer la version internationale du documentaire « La bataille du Libre » de Philippe Borrel « Hacking For The Commons ».
La bataille du Libre : présentation
« La bataille du Libre » (87mn) est un documentaire de Philippe Borrel. Nous vous en parlions déjà ici. Ce film a été produit par temps noir : "Que ce soit dans le domaine médical, boursier, industriel, éducatif, ou même agricole, il n'existe presque plus de secteurs (...)

- Tribunes

Concilier taxe carbone et compétitivité européenne, c’est possible ?

Contrairement à ce que l’on pourrait croire, les dépenses énergétiques ne représentent qu’une proportion faible des coûts de production de l’industrie. Shutterstock

Depuis une vingtaine d’années, la compétitivité européenne se dégrade, notamment du fait de coûts de production qui augmentent davantage que chez les autres grandes puissances mondiales. Rester compétitif devient un enjeu crucial pour préserver l’emploi et l’activité au sein de l’industrie européenne

Dans ce contexte, la taxe carbone, instrument économique de lutte contre les émissions de CO₂, n’a pas réussi à voir le jour au niveau européen, en dépit de plusieurs années de tractations. Elle reste donc aujourd’hui à la discrétion des États-membres (la France et l’Irlande ayant mis en place la leur ces dernières années), la crainte qu’elle affecte la compétitivité nationale demeurant forte. D’autant plus en ce moment alors que la tendance inspirée par les États-Unis est au renforcement du protectionnisme pour préserver les industries nationales de la concurrence internationale.

Une part dérisoire dans les dépenses industrielles

Une taxation du carbone fait croître les dépenses énergétiques en fonction de la quantité de CO2 contenue dans l’énergie utilisée. Nous constatons cependant qu’en dehors des industries électro-intensives, les dépenses énergétiques ne représentent qu’une très faible part des dépenses industrielles. Et ce aussi bien aujourd’hui qu’avant les premiers chocs pétroliers.

La part de l’énergie ne représente en moyenne que 4 % des coûts de production. Ce montant correspond donc aussi à l’assiette maximale sur laquelle peut reposer la taxation. Si la taxe carbone vient augmenter les dépenses énergétiques des entreprises, celles-ci se révèlent très faibles au regard des autres principaux postes de dépense.

On peut donc questionner la crainte que la taxe carbone n’affecte violemment la compétitivité-coût des entreprises les plus émettrices. Une redistribution appropriée du produit de la taxe, tenant compte de la proportion des dépenses énergétique de chacun, ne suffirait-elle pas à changer les comportements tout en préservant la compétitivité ?


Read more: Taxer le carbone sans nuire à notre compétitivité


Énergie d’origine indirecte et directe

Raisonner sur les seules dépenses énergétiques d’origine dite « directe » est toutefois insuffisant. En ne s’intéressant qu’au CO2 directement émis par cette entreprise (autrement dit lié à la quantité d’énergie qu’elle consomme), on néglige l’énergie dite « indirecte », c’est-à-dire contenue dans les consommations intermédiaires.

Pour y voir plus clair, intéressons-nous à la chaîne de production en amont d’une entreprise moyenne. Les dépenses de notre entreprise moyenne sont donc, d’après les données utilisées, de 4 % en énergie et de 60 % en consommations intermédiaires – achats aux fournisseurs, situés en amont de la chaîne de production.

Si ces fournisseurs agissent comme notre entreprise moyenne, cela signifie que 4 % de leurs dépenses sont aussi des dépenses énergétiques. Ainsi, sur les 60 % de dépenses en consommations intermédiaires, 4 % sont consacrées à financer les dépenses énergétiques des fournisseurs. Sur l’ensemble des dépenses de notre entreprise, celles qui concernent l’énergie indirecte en représentent donc 2,4 %.

Le raisonnement peut se prolonger aux fournisseurs de nos fournisseurs qui ont aussi des dépenses énergétiques. Celles-ci occupent 4 % du coût des dépenses énergétiques de nos fournisseurs, ce qui équivaut à 1,4 % de nos coûts de production. On peut répéter le calcul indéfiniment en remontant le long de la chaîne de production. L’énergie indirecte représente alors plus de 6 % des dépenses totales tandis que l’énergie directe n’en représente que 4 %.

Une hausse des coûts de l’énergie au niveau international se répercute donc naturellement sur le prix des consommations intermédiaires. Or ces dernières représentent souvent plus de la moitié des dépenses totales d’une entreprise : l’impact de leur augmentation n’est donc pas négligeable sur la compétitivité-coût.

Des effets difficiles à mesurer

À la lueur de ces mécanismes, ré-intéressons nous aux effets d’une taxe carbone sur les coûts de production : l’assiette directement affectée par la taxe est de 4 %, mais une moyenne de 6 % des achats de consommations intermédiaires est donc aussi touchée indirectement.

Cette part indirecte illustre la difficulté des calculs nécessaires pour concilier fiscalité carbone et compétitivité-coût. Les chaînes de valeur étant aujourd’hui internationales, cette complexité est aussi valable si la taxe est appliquée au niveau international qu’au niveau national.

Dans le cadre d’un projet de recherche menée entre l’institut Rexecode et la Chaire Économie du Climat, les effets d’une taxe carbone de 80€/tCO2 sur les coûts unitaires de production ont été simulés sous la forme de différents scénarios.

De façon générale, on peut s’attendre à une substitution des achats de consommation intermédiaire vers les fournisseurs les moins carbonés dont les coûts de production auront moins augmenté que ceux de leurs concurrents.

La France grande gagnante d’une taxe européenne ?

Les simulations d’une taxe de 80€/tCO2 appliquée au niveau européen est sans équivoque : la Pologne et l’Espagne voient leurs coûts de production exploser relativement aux autres pays – jusqu’à une hausse de 24 % en Pologne. Cela peut expliquer qu’ils furent les plus farouches opposants à la taxe carbone européenne.

L’Allemagne, avec un mix énergétique assez carboné et de fortes relations commerciales avec la Pologne, verrait les coûts unitaires de production de son industrie augmenter de 4 %. La France serait pour sa part un des pays européens les moins impactés avec une hausse d’1.5 % seulement des coûts de production dans son industrie.

Deux raisons à cela : d’une part, le mix énergétique français est moins carboné que celui de la plupart des autres pays européens. D’autre part, les exportations françaises vers ces pays portent sur des produits à forte teneur en CO2 qui viennent augmenter leurs coûts de production alors que les importations françaises, en provenance des partenaires européens sont faiblement carbonées (produits chimiques, équipements depuis l’Allemagne) et donc relativement épargnées par les effets de la taxe.

D’une façon générale, la perte de compétitivité de la France vis-à-vis des pays extra-européens serait compensée par son gain de compétitivité vis-à-vis des pays européens.

Une hausse des coûts contagieuse

Lorsque que la taxe est seulement appliquée au niveau national, on remarque de fortes différences entre les secteurs d’un même pays ou pour un même secteur entre différents pays.

Comme dans le cas d’une taxe européenne, l’industrie française résiste plutôt bien à une taxe nationale du CO2 – environ 1 % de hausse des coûts de production dans l’industrie manufacturière – et en diffuse principalement les effets en Allemagne.

Même si la France applique seule une taxe carbone, la hausse des coûts de consommations intermédiaires d’origine française engendre une augmentation similaire (proche de 1 %) des coûts de production de l’industrie allemande. A contrario, une taxe limitée à l’Allemagne provoque une hausse des coûts dans son industrie supérieure à 3 %. Avec des conséquences limitées sur les coûts en France : +0.5 % contre 2 % en Pologne.

Redistribuer le produit de la taxe

Une fiscalité carbone nationale a l’avantage de soutenir la lutte contre le changement climatique tout étant adaptable à la politique économique, en particulier via le soutien aux industries exposées. Si chaque pays européen applique sa propre taxation carbone, il contrôlera la hausse des coûts consécutive pour ses entreprises nationales.

Pour autant, l’action individuelle d’un pays ne permet pas de contrôler les effets de diffusion de la fiscalité carbone de ses partenaires commerciaux sur sa propre économie. Le risque de dégradation de la compétitivité serait donc peut-être plus contenu si tous les pays agissaient de concert.

Un pays comme la France sortirait en Europe gagnante d’une taxe carbone à l’échelle européenne, mais ce n’est pas le cas de la Pologne ou de l’Espagne. Pour s’entendre sur un accord européen, un important travail d’étude de la redistribution de la taxe s’impose. Il s’agira de tenir compte des spécificités nationales mais aussi des spécificités propres à chaque industrie.

Les bénéficiaires d’une taxation carbone européenne devront ensuite accepter une redistribution du produit de la taxe en leur défaveur, exercice politiquement compliqué pour les gouvernements nationaux.

Si et seulement si tous ces paramètres sont pris en compte, les pays européens pourront s’attaquer efficacement à la préservation d’un intérêt au-delà de l’intérêt national. Une fiscalité carbone unifiée reste de loin une des meilleures réponses économiques à adopter dans la lutte contre le réchauffement climatique.

The Conversation

Bastien Dufau a reçu des financements de l'ANRT afin de réaliser sa thèse au sein de l'institut Rexecode. Il est membre de la Chaire "Economie du Climat".

Surveillance publicitaire : compte-rendu du référé contre la CNIL

Le 14 août se tenait au Conseil d’État l’audience de référé de notre affaire contre la CNIL. Nous demandions à ce que soit suspendue dans l’urgence son autorisation donnée aux sites Web de nous tracer à des fins publicitaires sans notre consentement « explicite » pendant un an. Le Conseil d’État a rendu sa décision extrêmement rapidement : il a considéré qu’il n’y avait pas d’urgence à trancher le débat « en référé » car l’audience « au fond » a finalement été fixée au 30 septembre 2019, ce qui est aussi extrêmement rapide et nous satisfait presque tout autant.

Expliquons en détail ce qui s’est déroulé.

Rappel des épisodes précédents

La CNIL a publié deux articles, les 28 juin et 18 juillet, dans lesquelles elle annonçait ceci : le fait de continuer de consulter un site Web après avoir été informé·e de la présence de traceurs publicitaire (via un « bandeau cookie ») pourra être considéré comme une façon « acceptable » de donner notre consentement, et ce jusqu’à l’été 2020. Comme nous l’expliquions, cette annonce est parfaitement contraire au RGPD, qui exige un consentement « explicite » : nous devons cliquer sur un bouton « j’accepte », notre silence ne vaut pas acceptation. La CNIL n’a aucun pouvoir pour en décider autrement.

Le 29 juillet, nous déposions une requête en référé suspension contre cette décision devant le Conseil d’État. Comme nous l’expliquions alors, nous avons choisi d’agir en référé (c’est à dire dans l’urgence) de peur que la décision du Conseil d’État intervienne trop tard, au-delà du terme de la « période de tolérance » d’un an laissée par la CNIL. En effet, dans nos autres affaires portées devant le Conseil d’État, nous devons généralement attendre deux ou trois années avant d’être entendu·es en audience (voir par exemple le récit de nos actions contre la loi renseignement et la conservation généralisée des données de connexion).

L’audience en référé

L’audience a été fixée tôt, au 14 août, alors que nous jonglions tou·tes entre nos vacances et la préparation d’autres affaires.

D’habitude, devant le Conseil d’État, l’oralité a très peu de place : les débats se font principalement à l’écrit et les parties (c’est à dire les personnes ou organisations en désaccord) ne reprennent pas leurs arguments à l’oral lors de l’audience. En matière de référé, les choses sont bien différentes : les parties ayant eu peu de temps pour développer leurs arguments à l’écrit, c’est à l’audience et à l’oral que se tient tout le débat ou presque. Typiquement, dans notre cas, nous avons rédigé notre requête en dix jours et la CNIL y a répondu dix jours plus tard, le 9 août, ne nous laissant pas assez de temps pour y répliquer convenablement à l’écrit.

L’audience est ainsi organisée pour favoriser ces échanges oraux : un·e unique juge reçoit les deux parties autour d’une table et prend le temps de soulever dans le détail chaque point de débat. Dans notre cas, cela aura pris deux heures, de 11h à 13h.

De notre côté, nous étions assisté·es par Me Ricard, avocat aux conseils de permanence (dans certaines affaires devant le Conseil d’État ou devant la Cour de cassation, seul·es des avocat·es spécialisé·es, dit·es « avocats aux conseils », peuvent plaider – ce n’était pas le cas dans notre affaire de référé, mais nous avons préféré être assisté·es d’un tel avocat par soucis du bon usage). Me Ricard partageait la parole avec Alexis et Benjamin, deux de nos membres, et Arthur, l’un de nos salarié·es. Alexis, avocat spécialisé en droit public, a pu répondre aux points formels les plus spécifiques. Benjamin, ingénieur, a fait un exposé sur les traceurs présents sur le site du Monde, pour ancrer le débat dans le réel et en pointer les enjeux concrets. Arthur, qui suit le développement de ces textes au quotidien, a pu détailler l’articulation entre le RGPD et la directive ePrivacy, qui est l’une des spécificités de cette affaire.

En face, la CNIL était représentée par cinq personnes, dont une seule a pris la parole. Curieusement, elle a dit regretter de ne pas être assistée d’un expert technique, contrairement à nous. Tout aussi curieusement, elle prenait le soin de rappeler régulièrement qu’une des missions de la CNIL est d’accompagner les entreprises, alors que nous lui reprochions précisément de ne pas assez prendre en compte les droits fondamentaux de la population.

Une quinzaine de personnes étaient venues assister à l’audience dans le public.

Les points débattus

Durant les deux heures de débats, la question de fond, à savoir si la décision de la CNIL est légale ou justifiée, a finalement été peu abordée. L’essentiel des échanges visait à déterminer s’il fallait ou non que le Conseil d’État se prononce dans l’urgence. Pour cela, nous avons rappelé que, s’il en était autrement, les délais de procédures habituels rendraient notre action inutile, nous privant de « recours effectif ».

Mais ce n’est pas tout : il fallait aussi démontrer que l’acte que nous attaquons cause un préjudice suffisamment grave. Dans une procédure « normale », ce n’est pas nécessairement un point central du débat : un acte de la CNIL peut être annulé du simple fait qu’il est illégal, sans avoir à évaluer la gravité des torts qu’il cause. Il en va autrement en référé : pour justifier que les juges agissent dans l’urgence, il faut que les effets concrets de l’acte soient particulièrement graves. Ainsi, la CNIL a défendu que sa décision ne causait en elle-même aucune réduction de notre droit à la protection des données. Elle a prétendu que de nombreux sites Web ne respectent pas notre consentement « explicite » depuis des années et que prolonger cet état de fait n’était pas une « aggravation » de la situation mais le simple maintien d’un statu quo qui, aussi nuisible soit-il, ne serait pas du fait de la CNIL.

Nous avons pu expliquer que c’était faux : depuis des années, diverses autorités européennes ont très clairement dit que les cookies et autres traceurs ne pouvaient être utilisés à des fins publicitaires qu’avec notre consentement explicite et que la « poursuite de la navigation » n’était plus un mode d’expression valable du consentement au regard du RGPD. De nombreux acteurs économiques ont à leur tour repris ce discours pour inviter à une évolution de la pratique (voir par exemple ces articles publiés par un conseiller spécialisé dans la publicité en ligne, une agence de développement Web, un conseiller en conformité RGPD ou un site d’actualité de droit du numérique).

Ainsi, la décision de la CNIL que nous attaquons a bien aggravé la situation : de nombreux acteurs jusqu’alors convaincus de devoir obtenir un consentement explicite sont désormais assurés par la CNIL de pouvoir se satisfaire d’un simple « qui ne dit mot consent », diminuant notre droit à la protection des données et défavorisant les acteurs respectueux du droit face à leurs concurrents.

La décision

Juste après l’audience, le jour même, le juge des référés a rendu sa décision, qui nous est parvenue deux jours plus tard. La rapidité de sa décision s’explique par sa simplicité : il n’y avait plus d’urgence à trancher en référé car l’audience « au fond » venait d’être fixée au 30 septembre, 40 jours plus tard.

En matière de référé-suspension, qui est la procédure que nous avons choisie, toute demande de décision urgente accompagne nécessairement une demande principale, dite « au fond ». Si le juge des référés estime que l’illégalité pointée par le requérant est suffisamment urgente et conséquente, il suspendra, de façon provisoire, les effets de l’acte attaqué jusqu’à la publication de la décision définitive au fond. Dans l’hypothèse inverse, le juge rejettera le référé et l’affaire reprend sa voie « normale », « au fond », soumise aux délais et à la procédure habituelle de la juridiction. C’est ce qui s’est passé pour nous. Toutefois, l’audience au fond (non urgente) a été fixée extrêmement tôt, au 30 septembre.

Les craintes qui nous avaient poussé·es à choisir la voie du référé avaient disparues. Il n’y avait plus urgence à obtenir une décision du juge des référés, qui s’en est donc abstenu, pour ce seul motif. Formellement, il rejette notre demande. Concrètement, il nous renvoie à l’audience du 30 septembre.

La suite

Un point demeure curieux : pourquoi l’audience au fond a-t-elle était fixée si tôt, défiant tous les délais habituels du Conseil d’État ? Une piste de réflexion pourrait être que la question que nous soulevons est assez grave, au point que le Conseil d’État a souhaité en décharger le juge des référés, qui aurait pu décider seul et de façon provisoire, pour s’en saisir pleinement et en détail par une décision définitive et collégiale (par plusieurs juges, selon la procédure « normale »).

En effet, répondre à notre question pourrait avoir d’importantes conséquences juridiques, dépassant le seul cas de la CNIL : une autorité administrative indépendante peut-elle décider de n’appliquer une disposition légale à aucun des cas qu’elle est sensée contrôler ? Certes, les autorités de contrôle, de même que les procureur·es, disposent d’un certains « pouvoir d’opportunité » pour apprécier au cas par cas si telle ou telle affaire mérite d’être poursuivie. Mais la décision qu’a pris la CNIL dans notre cas est bien plus large que du « cas par cas ». Pendant un an, elle refuse de poursuivre n’importe quel site Web violant l’exigence de consentement explicite. Une telle décision a une portée générale et abstraite, ce qui est normalement le monopole du pouvoir législatif. Cette décision, et sa publicité, a aussi pour effet d’inciter les acteurs à violer la loi, en contradiction des missions de la CNIL.

Nous sommes impatient·es d’entendre les conclusions du rapporteur public (il s’agit du membre de la formation de jugement chargé d’examiner les affaires et de conseiller les juridictions administratives, dont les avis sont très généralement suivis). L’audience étant publique, nous vous y retrouverons avec plaisir ! Le 30 septembre, 1 place du Palais Royal à Paris. Nous communiquerons l’heure exacte dès que nous l’aurons !

LibreOffice, les sorties d’été

Rien à voir avec les concerts au Parc floral de Vincennes ou l’un des nombreux festivals de la saison mais tout avec les nouvelles versions de LibreOffice. En effet, la suite bureautique libre vient de sortir une nouvelle version 6.2 : la 6.2.6, et la version 6.3. À vous de voir laquelle des deux a votre préférence. Il m’a semblé utile, d’une part, de vous présenter les deux versions, les différences fondamentales et une cohabitation possible, et, d’autre part, de vous donner une idée de quelques nouveautés de la version 6.3. On trouvera un autre choix de nouveautés dans ce journal et, évidemment tout dans les notes de version.

Sommaire

6.2.6 et 6.3 sont dans un bateau, laquelle laisser tomber à l’eau ?

Si vous êtes du style à préférer la version de la TDF (TheDocumentFoundation) à celle de votre distribution, vous vous demandez peut‐être (c’est une question qui s’est posée sur les listes user et discuss de LibreOffice) les différences entre les deux.

La version au plus petit numéro, 6.2.6 en l’occurrence, est maintenue, corrections de bogues critiques et de problèmes de sécurité éventuels, mais plus développée, pas d’ajouts de fonctionnalités. La 6.3 est en cours de développement. Elle ne nécessite pas un esprit particulièrement aventureux mais peut poser des problèmes, particulièrement en entreprise, notamment :

  • s’il y a des liens entre la suite et un logiciel métier ;
  • s’il y a des macros, certaines sont susceptibles de ne plus passer ;
  • s’il y a un profil particulier, ou une gestion spécifique des profils.

Il faut donc, dans ce cas‐là, bien évidemment, la tester avant de l’installer ; enfin, c’est vous qui voyez.

Si vous voulez jouer avec la version 6.3 mais garder en parallèle celle de votre distribution, c’est possible, pas parfaitement, mais possible. Il suffit de ne pas désinstaller cette dernière, de télécharger les paquets LibreOffice — application, packs de langue et aide intégrée1 —, de les décompresser et les installer en ligne de commande selon la procédure habituelle pour votre distribution en suivant cet ordre : application, pack de langue (langpack) et aide (helppack).

Les deux LibreOffice utiliseront le même profil, ce qui peut être pratique ou gênant, c’est selon. On peut, toutefois, paramétrer une autre adresse (voir le guide de Jean‐François Nifenecker, « LibreOffice : le profil utilisateur », page 12). J’avoue ne pas avoir testé cette possibilité mais elle devrait permettre de mieux jouer entre les deux versions.

Ne pas oublier, le cas échéant, que vous ne gardiez que cette version 6.3 ou que vous conserviez les deux, de reparamétrer les associations de fichier.

Qu’apporte LibreOffice 6.3 ?

Des astuces au démarrage

Au démarrage, LibreOffice 6.3 ouvre aussi l’astuce du jour (ou du moment). Cette fonctionnalité, parfois agaçante, parfois utile, peut toutefois être désactivée dans le menu Outils > Options > Général.

LibreOffice 6.3, les premières fois que vous le démarrez, vous propose aussi d’aller voir les notes de version.

Meilleure prise en compte de KDE

Elle prend mieux en compte KDE 5. il faut savoir que LibreOffice a mis un certain temps à adopter cette version de l’environnement de bureau, ce qui pose un certain nombre de problèmes. On ne saurait trop vous conseiller à ce sujet, d’opter pour la version LibreOffice de votre distribution si vous travaillez sous KDE et si votre LibreOffice est antérieur aux versions 6.2.

Writer

Les copier‐coller de Calc vers Writer ont été nettement améliorés (tdf#124646) : quand on colle des cellules copiées à partir d’un filtre dans un tableau de Calc, on ne colle plus que les cellules sélectionnées apparentes, et non plus aussi celles qui étaient cachées par le filtre.

La compatibilité avec Word est encore améliorée : nouveau sens d’écriture, importation de graphiques, champs de formulaire interopérables.

On peut sélectionner une phrase par triple clic. C’est également possible dans les autres applications de la suite.

Calc

Il y a quelques fonctions améliorées ou nouvelles (Fourier, au cas où ça parlerait à d’aucuns et d’aucunes ici). Mais aussi, au niveau de l’interface, dans la barre de formule l’icône de Somme, ∑, est remplacée par une liste déroulante qui permet de choisir entre les opérations les plus courantes (somme, moyenne, minimum, maximum et nb) — tdf#120697.

Dans la série « rien que pour vos yeux », les onglets et la barre de formule de Calc ont été retravaillés pour gagner en visibilité. 

Base

L’assistant de migration Firebird est passé du mode expérimental au mode « normal ». Si vous avez encore des bases HSQLDB intégrées, il faut vraiment les migrer sous Firebird. Ce n’est pas nécessaire si la base de données est une base HSQLDB connectée qui est plus sécurisée (en cas de pépin avec la base, on ne risque pas de tout perdre comme en version HSQLDB intégrée).

Amélioration des filtres d’exportation et d’importation

On relèvera notamment, l’ajout de la prise en charge de l’exportation PDF/A-2. À l’exportation en PDF, on peut choisir entre les versions A-1 ou A-2. Je suggère très fortement, à ce sujet, de remplacer le bouton d’exportation PDF par défaut des barres d’outils par un autre qui permet d’ouvrir la boîte de dialogue d’exportation en PDF et de choisir les options. Cela se fait par le menu Outils > Personnaliser > Barre d’outils.

On notera également une amélioration des filtres OOXML : exportation des modèles au format XLTX et DOTX, interopérabilité des tables dynamiques XLSX et préservation des SmartArts lors de l’exportation en PPTX.

Interface utilisateur

La méta‐barre, interface à onglets, est terminée. Vous pouvez l’adopter en passant par Affichage > Interface utilisateur. Et vous pouvez toujours revenir en arrière par le même procédé si elle ne vous satisfait pas. Notez qu’elle est très personnalisable de même que les autres barres d’outils « normales » de LibreOffice via le menu Outils > Personnaliser > Barre d’outils.

Vue de la méta‐barre

Et, bon à savoir, le jeu d’icônes Karaja Jaga a été retravaillé, mais surtout, il est en version SVG, ce qui devrait faciliter la vie aux personnes qui ajoutent leurs icônes personnalisées aux barres d’outils. Pour le choisir aller dans le menu Outils > Options > Affichage.

Amusez‐vous bien avec LibreOffice et bons baisers de Paris.


  1. L’aide en ligne de LibreOffice passe par le moteur de recherche Google. 

Télécharger ce contenu au format Epub

Commentaires : voir le flux atom ouvrir dans le navigateur

Et si on tirait au sort les élus ?

A l’instar de l’urgence écologique, une urgence démocratique caractérise notre époque. Les deux sont d’ailleurs peut-être liées : les échéances électorales ont tendance à engendrer des décisions de courte vue, chaque génération repoussant à la suivante les choix difficiles et ce, quelles que soient les majorités au pouvoir. Dès lors, le système de démocratie représentative peut être interrogé et de fait, un certain nombre d’indices forts atteste de ce questionnement.

Un sondage publié IFOP pour le Journal du Dimanche du 11 août 2019 pointe la remise en question des élus par les Français : 33 % d’entre eux seulement ont une bonne opinion des députés et sénateurs, 20 % jugent les élus honnêtes et 30 % les jugent compétents.

D’autres modalités d’organisation politique peuvent-elles être envisageables ? Bien sûr, le suffrage universel a été acquis de haute lutte par les groupes exclus de la sphère politique, face à des élites. Mais d’autres modalités, comme le tirage au sort politique peuvent être pensées.

Le tirage au sort des élus resurgit à la fois dans un certain nombre d’expériences politiques, après avoir été éclipsé pendant des siècles dans les travaux de chercheurs et dans les débats.

Le tirage au sort est-il une alternative crédible ? Quels en sont les enjeux, les modalités, les conditions ?

Des indices convergents

Un certain nombre d’indicateurs témoignent de la désaffection de la « politique professionnelle » dans ses modalités représentatives sans pour autant être le signe d’un désintérêt pour le Politique.

  • La montée de l’abstentionnisme, est patente dans les démocraties représentatives et en France en particulier. Plus, quelque 10 % des Français en âge de voter – soit 4,3 millions de personnes – ne sont pas inscrits sur les listes électorales. Deux catégories d’abstentionnistes sont définis par les politologues. Il y a ceux que les chercheurs nomment les abstentionnistes « hors du jeu politique » – plus nombreux chez les femmes, au sein des populations faiblement diplômées et en difficulté d’insertion sociale. Ils sont caractérisés par un retrait de la politique une certaine apathie et un sentiment d’incompétence. A cet abstentionnisme de désintérêt ou de désinsertion sociale s’ajoute une autre forme : les abstentionnistes « dans le jeu politique » – souvent jeunes, diplômés et plutôt favorisés et socialement bien insérés, souvent porteurs d’un refus et d’une contestation de la société telle qu’elle est. Ils pratiqueraient une abstention intermittente et ne nourriraient aucun sentiment d’incompétence.

  • Deux éléments bousculent cette opposition. Les abstentionnistes ne sont pas nécessairement mus par une posture a-politique mais peuvent revendiquer un choix politique de remise en cause du modèle de contestation des pouvoirs par une « élite » élue. D’une part, il peut s’agir d’une part d’abstentionnistes très diplômés, bien insérés, qui se sentent très compétents et structurellement abstentionnistes et non pas intermittents, qui ne conçoivent pas l’abstention comme un avertissement mais comme le questionnement d’un système politique. D’autre part, le « giletisme » – fait social majeur de l’année – ouvre la voie à une autre remise en question : incontestablement, la mobilisation des gilets jaunes interpelle la démocratie, son exercice mais aussi ses impasses. Certes préoccupés par leurs importants problèmes individuels, ces gilets jaunes n’en n’ont pas moins pensé un autre système d’auto-organisation et de solidarité de proximité. Pour le sociologue Aziz Jellab : « La quête d’un entre-soi enchanté exprime bien la volonté de créer du collectif, de l’échange désintéressé et une certaine humanisation des rapports sociaux. […]. La mobilisation manifeste également une quête de reconnaissance, une lutte pour la dignité. » Bref, le giletisme, s’il est possible de lui donner un sens, en réduisant sa nature complexe, s’inscrit dans une logique de refus des systèmes politique et social, la revendication du RIC (référendum d’initiative citoyenne) en étant un symptôme.

  • A cette augmentation de l’abstention, et à la transformation de sa nature, s’ajoutent la montée des comportements, pratiques et mobilisations protestataires, la perte de confiance des citoyens envers les gouvernants ; la défiance générale envers les professionnels de la politique (qui peut parfois aller jusqu’à des saccages de permanences de députés) ; la crise des vocations pour les élus locaux ; la critique de l’affiliation partisane et du « spectacle » politique qu’activent et réactivent les affaires successives de corruption et autres pratiques délétères (légales ou pas) des gouvernants à l’échelle nationale et internationale. Sans compter l’ampleur de la crise du capitalisme financier et des politiques publiques, de droite comme de gauche, menées depuis la crise économique et leurs effets sur le partage des richesses à l’échelle nationale comme mondiale. Bref, la crise de la représentation politique.

  • Crise et distanciation, dénonciation et protestation repérables dans l’ensemble des pays européens ne sont pas alors les signes d’un « déficit démocratique », mais d’une demande de démocratie.

Si la cassure entre le corps social et la politique n’a jamais été aussi forte, peut-on considérer dès lors que le tirage au sort puisse être une alternative crédible à la professionnalisation de la politique et une réponse à la demande de démocratie ?

La « représentation » est le contraire de la démocratie

« Dans son principe, comme dans son origine historique, la représentation est le contraire de la démocratie », a écrit Jacques Rancière. Cela rejoint, de manière contre-intuitive pour le citoyen d’aujourd’hui, ce que certains penseurs des Lumières avançaient : tout système représentatif est aristocratique.

Montesquieu, dans L’esprit des lois l’exprime ainsi :

« Le suffrage par sort est la nature de la démocratie, le suffrage par le choix est de celle de l’aristocratie. Le principe de l’élection de représentants implique un choix et donc l’établissement de distinctions entre les citoyens ».

C’est donc une idée d’origine aristocratique qui s’oppose à celle, démocratique, d’égale compétence de chacun à prendre les décisions collectives. Pour les Grecs et les Romains « est démocratique le gouvernement auquel tous participent » (même s’il ne faut pas oublier que tout individu n’est pas citoyen dans l’Antiquité).

Ainsi Bernard Mannin dans Principes du gouvernement représentatif montre que les pères fondateurs des républiques modernes voulaient une aristocratie élective, ce pourquoi ils ont rejeté le tirage au sort, associé depuis Platon et Aristote à la démocratie directe. Les élus nationaux constituent une oligarchie de fait, caractérisée par une origine sociale ethnique et générationnelle distincte de celle de la majorité des Français et par une cumulative de fonctions que le non-cumul de mandats n’a que peu réduit et par une reproduction des élites politiques.

L’idée de tirage au sort, comme le montre l’avocat pénaliste Paul Le Fèvre dans La démocratie c’est vous ! Pour le tirage au sort en politique pourrait, à l’instar des jurys d’assise et des cahiers de doléances, être envisagée comme une réelle avancée démocratique.

Création des révolutionnaires en 1791, le jury populaire aux assises remplit ainsi honorablement son rôle, alors même que les jurés n’ont a priori aucune compétence juridique, obligeant au dialogue et à la prise de décision commune asseyant la légitimité des décisions.

De même, les cahiers de doléances du Tiers Etat à la même période montrent des revendications cohérentes, dont la Déclaration des droits de l’homme et du citoyen de 1789 s’est inspirée – ce en quoi l’argument d’incompétence souvent brandi ne résiste pas à l’expérience.

Disparu de la scène politique avec les révolutions modernes, bien qu’utilisé par la démocratie athénienne ou par les cités italiennes de la Renaissance, telles Venise et Florence, ou ancré dans la tradition politique historique suisse, le tirage au sort redevient aujourd’hui une expérience politique et un objet de discussion chez des penseurs contemporains.

Quelques illustrations récentes

Cette demande de démocratie directe s’exprime par l’utilisation du tirage au sort en politique, de manière nationale ou plus locale, mais aussi par des exemples de démocratie participative.

Le tirage au sort a été utilisé au niveau national dans la période récente :

  • en Suisse, pour lutter contre la corruption des élus ;

  • En Colombie britannique (Canada), en 2004, où une assemblée de citoyens tirés au sort pour une courte période, pour une tâche spécifique (la réforme du mode de scrutin de cette province canadienne) ;

  • en Islande, en 2010, suite à la crise financière au sort 1000 personnes tirés au sort ont formé une Assemblée dont l’objectif était de dégager les différents points de la Constitution à réviser ;

  • en Irlande, en 2012, où une commission constitutionnelle composée de 33 responsables politiques et de 66 citoyens tirés au sort et représentatifs en terme d’âge ou de genre de l’électorat irlandais a débattu de plusieurs articles de la constitution irlandaise.

  • A la Réunion, lors des élections régionales de 2015, la liste électorale « Demorun » était composée uniquement d’électeurs tirés au sort par un lancer de dés.

  • Le tirage au sort a aussi utilisé dans la ville de Porto Alegro pour la gestion du budget de la municipalité ou encore dans certains quartiers ciblés de Berlin d’habitants pour administrer des quartiers et décider de sujets locaux.

  • Mais ce sont surtout les exemples de démocratie participative et d’engagement citoyen comme nouveaux espaces d’élaboration politique qui plaident pour une rupture radicale : de Nuit debout aux Indignés, de Luttopia à Montpellier (pour un autre accès à la culture) à l’Appel des jours heureux, ou encore d’Alternatiba (mouvement alternatif politique pour le climat) aux expériences de Fablab et, évidemment, le débat ouvert par les gilets jaunes.

Un débat théorique et philosophique émergent

Le tirage au sort en politique est aussi de retour au niveau théorique : de Barbara à Goodwin, Jon Elster, Peter Stone, Anja Röcke, Gil Delannoi, Oliver Dowlen, Alexander A. Guerrero, Manuel Cervera-Marzal Yohan Dubigeon, Yves Sintomer ou loïc Blondiaux ou Paul le Fèvre… Chercheurs, ouvrages récents, colloques traitent de cette question, notamment sous l’angle des effets potentiels dans une logique une pluralisation des voies de la légitimité politique.

Par-delà les difficultés multiples de mises en œuvre, par-delà les inconvénients que le sens commun est prompt à développer, par-delà les inconvénients réels, les effets potentiels méritent au moins ici d’être cités, à défaut de les analyser en détails : simplicité, économie, impartialité caractérisent le tirage au sort.

Celui-ci permet aussi une suppression de la compétition politique et la fin de la monopolisation de la politique par les partis politiques. Dès lors, conflits d’intérêts et corruption ont moins de chances de se produire.

Le tirage au sort empêche aussi les décisions à courte vue motivées par les échéances électorales, tout en engendrant la prise en compte par tous de la difficulté et de la complexité de la décision politique. Par un tel exercice de citoyenneté commune, chacun se voit reconnu la compétence à décider, agir et gouverner et cela engendre le développement d’une culture civique. La délibération politique commune favorise l’expression régulée des désaccords, et donc à la cohésion sociale.

Comment penser en pratique le tirage au sort ?

Toute une série de questions pratiques doivent être abordées et débattues, chacune ayant de conséquences politiques.

  • Comment définir la base de tirage au sort (c’est-à-dire l’ensemble des citoyens pouvant être tirés au sort) ? Le tirage au sort doit-il supposer une candidature ou bien tout citoyen peut-il être tiré au sort (comme c’est le cas pour les jurés d’assise à quelles exemptions près) ?

  • Quelle est la fréquence du tirage au sort ? Impose-t-on une rotation des tirés au sort ou peut-on être tiré au sort plusieurs fois ? Peut-on utiliser le tirage au sort au seulement niveau local (communes, départements, régions) ou bien au niveau national, voire même européen ?

  • Doit-on combiner une chambre d’élus classiques et une chambre de tirés au sort ? En 1989, le politologue américain Robert Dahl proposait de combiner au bicamérisme américain une troisième chambre consultative de tirés au sort… Si oui, cette chambre de tirés au sort est-elle consultative ou décisionnaire ? Ou bien une seule chambre peut-elle combiner des élus et des tirés au sort ? Dans quelles proportions ?

  • De manière plus radicale, peut-on remplacer tous les élus par des tirés au sort ?

Autant d’interrogations qui engagent des débats et des effets sur le système politique potentiel.

The Conversation

Beatrice Mabilon-Bonfils does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

Souveraineté numérique - Commission d'enquête du Sénat - Libertés numériques - Audition conjointe de La Quadrature du Net - April - ISOC France


Axel Simon - Alexis Fitzjean O Cobhthaigh - Olivier Iteanu - Étienne Gonnu

Titre : Souveraineté numérique - Commission d'enquête du Sénat - Libertés numériques - Audition conjointe de La Quadrature du Net - ISOC France - April
Intervenants : Axel Simon, La Quadrature du Net - Alexis Fitzjean O Cobhthaigh, La Quadrature du Net - Olivier Iteanu, ISOC - Étienne Gonnu, April - Pierre Ouzoulias, vice-président de la commission - Gérard Longuet, rapporteur de la commission - Frank Montaugé, président de la commission
Lieu : Sénat - Paris
Date : 9 juillet 2019
Durée : 1 h 36 min 40
Visionner ou télécharger la vidéo
Compte-rendu publié par le Sénat
Licence de la transcription : Verbatim
Illustration : capture d'écran de la vidéo
NB : transcription réalisée par nos soins, fidèle aux propos des intervenants mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Audition conjointe des associations ISOC France, La Quadrature du Net et April sur les libertés numériques.

Transcription

Franck Montaugé : Avec des différences de sensibilité et certaines nuances que vous allez exprimer, vos associations sont toutes résolument engagées sur les enjeux de régulation des géants d’Internet qui intéressent tout particulièrement notre commission. Vos associations ont pris des positions remarquées sur la protection des données personnelles, parfois même en engageant des actions en justice contre les GAFAM, vous nous en direz deux mots, ou pour la promotion d’outils alternatifs à ceux développés par les grandes entreprises dominant le marché du numérique.
Je vous propose, si vous le souhaitez, de commencer chacun par un bref propos liminaire d’une dizaine de minutes au maximum, après quoi notre rapporteur et nos collègues présents vous poseront les questions qu’ils souhaitent. On va procéder comme ça. Vous avez la parole. Qui veut commencer ?

Alexis Fitzjean O Cobhthaigh : Merci Monsieur le président. Quelques mots liminaires. La Quadrature du Net1 est une association de défense des libertés, comme vous l’avez rappelé, dans l’univers numérique et sur Internet, qui existe depuis une dizaine d’années. Aujourd’hui on a une expérience à la fois contentieuse et de réflexion sur les sujets que vous avez évoqués de régulation du numérique et de régulation de l’Internet et du Web.
Il y a de nombreux sujets qu’on pourrait évoquer aujourd’hui, ça dépendra aussi beaucoup des intérêts que vous exprimerez au fur et à mesure de l’audition.
Peut-être, pour présenter rapidement les dossiers les plus brûlants sur lesquels nous avons travaillé, vous avez effectivement rappelé l’action collective qui a été lancée par La Quadrature du Net devant la CNIL, qui a débouché sur une sanction à hauteur de 50 millions d’euros à l’encontre de Google pour l’instant, étant précisé que les autres dossiers concernant les autres géants de l’Internet ont été renvoyés à l’équivalent de la CNIL en Irlande, donc ce sont des affaires qui vont prendre un peu plus de temps. C’est un dossier dont on pourra peut-être vous parler un peu plus longuement si vous exprimez un intérêt.

L’autre gros sujet sur lequel nous travaillons beaucoup aujourd'hui, c’est le sujet de l’interopérabilité2 des plateformes numériques. Qu’est-ce qu’on entend par là ? En réalité c’est assez simple : lorsque vous êtes abonné chez un opérateur téléphonique, vous pouvez communiquer avec un autre opérateur téléphonique. Lorsque vous êtes abonné par exemple chez Orange, vous pouvez communiquer avec vos contacts qui sont chez SFR ou chez Free. Pourquoi ? Parce que le téléphone est un standard ouvert et interopérable, qui est commun. De même que pour le mail, je suppose que vous avez des adresses en @assembleenationale.fr, vous pouvez très bien communiquer avec d’autres opérateurs gestionnaires de mail. Pourquoi ? Parce que le mail est un standard qui est ouvert et interopérable. En revanche, lorsque vous ouvrez un compte sur Facebook ou sur Twitter, vous ne pouvez pas communiquer avec des contacts qui seraient sur des plateformes alternatives. Aujourd’hui, grâce au RGPD, au Règlement général pour la protection des données, règlement européen, vous avez un droit à la portabilité de ces données, ça veut dire que vous pouvez décider de récupérer toutes les données que vous avez confiées, qui représentent souvent un volume assez considérable qu’on a peine à imaginer avant de l’avoir fait, vous pouvez les récupérer. Mais lorsque vous clôturez votre compte vous cassez les liens sociaux que vous avez sur ces plateformes-là. Et l’interopérabilité serait cette idée d’imposer à ces plateformes d’utiliser un standard ouvert qui leur permettrait d’être interopérables avec des alternatives.
C’est le sujet dont on parle beaucoup aujourd’hui parce que nous l’avons présenté comme étant une alternative qui viserait à s’attaquer aux causes et non simplement aux symptômes dans des phénomènes qui sont aujourd’hui beaucoup discutés puisqu’ils sont en rapport avec la lutte contre la haine en ligne et les discours d’appel à la haine, l’évocation d’insultes à caractère raciste, antisémite, sexiste, etc., discriminatoires d’une manière générale. Donc on considère que c’est une alternative qui est beaucoup plus intéressante.

Franck Montaugé : [Inaudible]

Alexis Fitzjean O Cobhthaigh : La cyberhaine ?

Franck Montaugé : Et le fait que ça soit interopérable, ouvert, etc.

Alexis Fitzjean O Cobhthaigh : En fait, le lien est en réalité assez simple. Si vous regardez le modèle économique des plateformes aujourd’hui – prenons par exemple Facebook, Google, Twitter –, ce modèle économique est fondé sur ce qu’on appelle l’économie de l’attention. C’est-à-dire que c’est un modèle qui est fondé sur l’exploitation publicitaire de votre attention. L’idée c’est de capter votre attention le plus longtemps possible de manière à générer un profit le plus large. Tous les géants de l’Internet aujourd’hui ont un modèle économique qui est fondé là-dessus : leur intérêt c’est de capter votre attention le plus longtemps possible et de capter le plus d’attention possible. Il se trouve que les contenus qui permettent de capter cette attention sont des contenus polarisés. Pardon ?

Gérard Longuet : Provocateurs.

Alexis Fitzjean O Cobhthaigh : Tout à fait. Dans le langage courant, un anglicisme, c'est « faire le buzz » c'est-à-dire créer des réactions, un maximum de réactions. Et c’est en créant ces réactions-là qu’on arrive à capter l’attention des personnes donc à vendre de la publicité et à valoriser économiquement cette présence. En réalité c’est un cercle néfaste et le fait d’arriver à imposer cette interopérabilité reviendrait à casser ce cercle. Pourquoi ? Parce qu’aujourd’hui la seule raison pour beaucoup de gens qui fait qu’ils ne veulent pas quitter Facebook, ne veulent pas quitter Twitter, malgré les scandales que vous entendez régulièrement, eh bien c’est ce qu’on appelle l’« effet de réseau ». Mes grands-parents sont sur Facebook. Ils sont sur Facebook pourquoi ? Parce qu’ils peuvent communiquer avec leurs petits-enfants. Si on leur dit « on n’est plus sur Facebook, on est sur telle alternative », ils n’en ont rien à faire d’être sur Facebook ou d’être sur une alternative. Ce qui est intéressant c’est le lien social, ce n’est pas la plateforme en elle-même. Il y a des alternatives qui existent, qui malheureusement sont peu médiatisées parce qu’elles ne concernent qu’un nombre de personnes qui est ridicule en comparaison des géants de l’Internet. Mais si vous mettez en place l’interopérabilité, du coup on casse cet effet de réseau parce que ça permet d’aller sur des alternatives tout en conservant les liens sociaux.

Franck Montaugé : [Inaudible]

Alexis Fitzjean O Cobhthaigh : C’est tout à fait vrai, ça ne les empêchera pas. Ce que ça empêchera, en revanche, c’est le modèle, la structure, l’architecture de la plateforme qui met en avant ces contenus et c’est ça qui permet ensuite le buzz et la réaction en chaîne, c’est parce que ces contenus sont mis en avant. Si vous voulez, les algorithmes des plateformes arrivent à repérer ces contenus polarisés, malheureusement bien souvent il se trouve que ce sont des contenus qui sont violents, et à les mettre en avant et c’est pour ça que vous les voyez apparaître alors même que normalement vous ne les verriez pas apparaître. C’est pour ça que vous avez parfois des vidéos qui sont même des vidéos de massacres, des vidéos d’attaques terroristes, qui sont énormément diffusées. Ce ne sont pas des humains derrière, ce sont juste des calculs et des machines qui travaillent, qui arrivent à repérer que ce contenu est intéressant et à le mettre en avant. Et c’est ça que ça viendrait casser et c’est pour ça qu’en réalité il y a effectivement énormément de haine en ligne, je pense qu’on ne peut pas le nier, mais la réelle raison c’est parce que l’architecture de la plateforme met en avant ces contenus et joue là-dessus pour les monétiser.

Franck Montaugé : [Inaudible]. Éthiques ?

Alexis Fitzjean O Cobhthaigh : C’est le cas.

Franck Montaugé : Vertueuses ?

Alexis Fitzjean O Cobhthaigh : C’est le cas, tout à fait.

Franck Montaugé : Par rapport à d’autres qui tablent sur ces bas instincts pour faire leur business.

Alexis Fitzjean O Cobhthaigh : Tout à fait ça existe. Ce sont des plateformes qui existent. D’ailleurs, à La Quadrature du Net, nous avons notre propre éditeur de services là-dessus où nous avons, je crois, 13 000 utilisateurs. D’ailleurs l’éditeur de services dont je vous parle est interopérable avec tous ceux qui utilisent cette technologie-là. Cette technologie n’est pas une technologie obscure, c’est une technologie qui est labellisée par le W3C [World Wide Web Consortium] ; le W3C c’est l’organisme de régulation du Web, qui vient fixer des standards interopérables ; c’est une technologie qui existe et qui fonctionne. Donc ces alternatives existent aujourd’hui, je n’ai pas les chiffres sur Mastodon3, par exemple, ce sont plusieurs centaines de milliers de personnes qui sont dessus, mais c’est ridicule par rapport aux… ? Pourquoi ? Parce qu’il y a cet effet de réseau qui empêche ces alternatives de réellement prospérer.

Axel Simon : Pour ajouter une image dont je pense qu’elle est relativement pertinente. La difficulté de beaucoup de ces plateformes centralisées c’est qu’elles deviennent énormes et que l’échelle joue énormément dans les problèmes qu’on y voit. On n’est pas en train de dire qu’il n’y aura pas de problèmes sur des instances ou sur des services de plus petite échelle. Il y en aura forcément. La nature humaine est telle qu’on va forcément trouver des gens qui vont se livrer à des actes de harcèlement, qui vont répandre des messages de haine. On n’est pas en train de dire que c’est une solution parfaite. On est en train de dire que l’échelle de ces plateformes les rend inhumaines, les rend impossibles à gérer humainement. Il me semble qu’il y a quelque chose comme 19 heures de vidéo qui sont uploadées, qui sont mises sur YouTube par minute. C’est strictement impossible à regarder humainement, personne n’a même l’intention de le faire, donc on est obligé de se rabattre sur d’autres méthodes qui ont montré toutes leurs limites.
Si on revient à des plateformes d’une taille plus petite et qui n’ont pas comme but premier de faire de l’argent en captant l’attention des gens, on arrive à quelque chose qui est beaucoup plus gérable, dans lequel on aura beaucoup plus de facilités à adresser ces problèmes-là.
L’interopérabilité telle que nous la proposons, encore une fois ce n’est pas un but en soi, c’est un moyen, qui devrait permettre à ces différentes alternatives de continuer à fonctionner avec des services principaux et permettre aux gens de leur donner le choix : peut-être d’aller quelque part où les conditions de modération leur paraîtront plus correctes, où le choix de l’affichage des messages de leurs amis et de leurs contacts leur paraîtra plus franc plutôt que choisis par d’obscurs algorithmes sur lesquels ils n’ont pas la main.
L’analogie que j’allais proposer : quand on a une énorme foule et qu’on sait qu’il peut y avoir des mouvements de foule violents, une des stratégies qui est employée c’est assez simplement de diviser la foule. On voit dans certains concerts, dans certains gros concerts, je parle vraiment des concerts énormes, qu’il y a parfois une barrière centrale qui vient diviser la foule en deux. Rien que ça, ça permet d’éliminer énormément des mouvements de foule.
On a des études qui montrent que quand on fait la même chose sur les plateformes internet, à savoir on réduit la taille et les gens qui sont problématiques, on dit en anglais qu'on les « déplateforme », on leur enlève la plateforme qui leur donne les moyens de s’exprimer et on les met ailleurs, leur capacité de nuisance est restreinte. Ça ouvre d’autres questions du type vont-ils tourner en vase clos ? Comment vont-ils communiquer dans ces cas-là ? Mais, de ce qu’on en voit, à priori les effets sont plutôt positifs même s’il y a du négatif dans l’effet de vase clos, il y a quand même plus de positif entre autre pour ramener une conversation plus normale, plus décente dans les plateformes dont ces gens ont été exclus et ramenées à des tailles peut-être plus faibles. Fort heureusement, sur les grosses plateformes à l’heure actuelle, les gens qui sont qui sont très problématiques ce n’est pas du tout la majorité, mais il y en suffisamment pour que ça nuise à l’ensemble.

En tout cas, cette notion de les « déplateformer » plus de réduire la taille des plateformes et de rendre les plateformes interopérables, de notre vision et de notre expérience, ça nous semble être une voie dans laquelle on devrait s’engager parce que ça a beaucoup d’intérêts. Encore une fois je tiens à le préciser, on ne pense pas que ce soit une solution magique qui résolve tout. Il y aura d’autres questions qui se poseront à terme, y compris des questions techniques de quel est le socle minimum d’interopérabilité qui est une question sur laquelle on a beaucoup débattu avec d’autres gens techniques qui se posent cette question parce qu’elle n’est pas évidente. Mais ça reste, en termes sociologiques on va dire, une approche qui est très intéressante parce que, comme le disait Alexis, si on n’a même pas la possibilité de quitter un réseau parce que tous les gens avec qui on veut parler ne sont que sur ce réseau et on ne peut pas leur parler de l’extérieur, on n’a que le choix d’être à l’intérieur de ce réseau-là et là c’est un vrai problème.

Alexis Fitzjean O Cobhthaigh : Juste pour faire une analogie historique, en réalité dans l’histoire on a déjà fait des choses équivalentes. Il y a plus d’un siècle, lorsqu’on a créé le droit de la concurrence, le droit antitrust, au moment des conglomérats pétroliers, au moment des conglomérats de chemin de fer, c’est parce qu’on a considéré à un moment donné que des entités aussi grandes, aussi importantes, avec un pouvoir aussi énorme, nuisaient à l’économie, nuisaient à la société, au bien social et au bien commun. Donc a décidé de créer des règles avec des règles de limitation parce qu’on considère qu’à un moment donné une entité trop grosse a un pouvoir trop important. C’est exactement la même chose sauf que c’est la solution moderne et numérique à un problème relativement récent, en réalité, à l’échelle de ces questions.

Axel Simon : Dans les différents autres sujets qu’on avait notés et qu’on aimerait aborder, pour moi il y a une question assez intéressante et assez cruciale sur la volonté de beaucoup d’acteurs centralisés, qu’on appelle typiquement les GAFAM, ces espèces de géants du numérique, de monter au fur et à mesure dans les différentes couches de nos relations humaines. Par ça, j’entends, ils ont d’abord commencé par faire de l’intermédiation de l’information et de la recherche, des résultats de recherche ou des pages – Facebook fait beaucoup de pages où on peut aller consulter les horaires de son restaurant préféré, ce genre de choses – donc d’abord intermédiation de l’information.
Intermédiation des contacts : après ça on devient dépendant d’eux pour contacter d’autres gens, on doit passer par ces tiers.
Et maintenant on arrive à des choses assez intéressantes : on voit l’intermédiation de l’identité, potentiellement l’intermédiation de la monnaie.
Finalement on voit qu’il y a cette volonté de remonter, je ne sais pas si ce sont des couches qui s’empilent, en tout cas de toucher à tous ces différents aspects. Je pense que celle de l’identité est une question qui est assez importante. On est très dépendant d’acteurs tiers pour prouver qui ont est sur Internet ; c’est une question qui est relativement peu abordée, qui l’est dans certains cercles plus techniques, mais il y a depuis un certain temps cette volonté. On voit des sites qui proposent de se connecter avec Facebook Connect, de se connecter avec son adresse Gmail. Ça c’est une autre manière de capter et de centraliser la vie des gens et de les forcer à passer, de les forcer !, de les encourager très fortement à passer par un tiers. Ça c’est un point qui me semble intéressant.

L’importance du logiciel libre nous paraît également fondamentale pour permettre du logiciel qui soit de confiance ou dans lequel on peut avoir une confiance. La question de la confiance c’est quelque chose d’assez complexe en informatique puisqu’on est constamment en train de se baser sur du travail d’autres personnes. Donc ce sont vraiment des questions de confiance et il faut réfléchir à toute la chaîne de construction de ce logiciel et de comment il est mis en œuvre. Je pense qu’Étienne Gonnu, de l’April, sera très à même de s’exprimer là-dessus ; on va lui laisser cette partie-là.

Dernier point que nous avons beaucoup défendu pendant très longtemps et qui nous semble très important pour des questions de vie privée et de confidentialité, qui ouvre la voie à beaucoup d’autres choses, autant la liberté d’expression que le droit à la concurrence et la possibilité d’entreprendre librement que la liberté d’assemblée, enfin d’association, ce sont les questions de chiffrement et de chiffrement de bout en bout. L’accès au chiffrement fort par la population dans son ensemble est quelque chose qui est très important à l’heure actuelle car c’est une des seules garanties qu’on a pour permettre l’application effective de droits, à commencer par la vie privée dont dépendent beaucoup d’autres droits. Je pense que beaucoup de gens ont déjà pensé à ça mais ça vaut la peine d’être rappelé : sans vie privée on n’a pas le droit de se tromper, on perd son droit de se tromper et le droit de se tromper c’est ce qui permet de changer d’avis, d’améliorer son opinion, d’évoluer en tant qu’être humain. Dans les droits de l’homme, dans les droits humains, on n’a pas vraiment de hiérarchisation des droits et c’est important, mais il me semble que, de manière pragmatique, la vie privée est quand même quelque chose qui est très fondamental à d’autres droits et que, vraiment, il ne faut pas l’oublier.
C’est pour ça que nous défendons fortement le chiffrement dit de bout en bout, à savoir d’une personne à une personne ou d’une machine contrôlée par une personne à une autre machine contrôlée par une personne, et pas des alternatives qui seraient : une personne, un intermédiaire, on arrête, on lit les informations en clair, et on recommence un chiffrement entre cet intermédiaire et un autre contact. Nous parlons vraiment d’une connexion directe entre les deux qui serait illisible par tout autre tiers. Ça c’est vraiment assez important. Je pense qu’on peut arrêter là.

Franck Montaugé : [Inaudible]. Sur le regard que vous portez, l’analyse que vous faites, ça n’existe quasiment pas ça !

Axel Simon : Si, si, ça existe beaucoup. Par exemple de WhatsApp le propose.

Franck Montaugé : Oui, d’accord.

Axel Simon : Le propose comme ça. Il y a beaucoup de manières plus prosaïques : quand vous vous connectez au site de votre banque c’est un chiffrement de bout en bout, c’est-à-dire que la connexion est sécurisée entre votre navigateur internet et le serveur de la banque ; tous les intermédiaires techniques entre les deux ne sont pas capables de voir ce que vous faites. Donc c’est quelque chose qui existe depuis longtemps sur Internet et qui est une des briques fondamentales : c’est une des raisons pour lesquelles on a du commerce en ligne, c’est parce qu’on a cette capacité de chiffrer directement d’un utilisateur ou d’une utilisatrice jusqu’à un service en ligne. Les deux bouts peuvent varier, évidemment.

Alexis Fitzjean O Cobhthaigh : Juste deux mots avant de donner la parole à nos collègues. Sans vouloir trop rentrer dans le logiciel libre, il y a juste une chose sur laquelle j’aimerais attirer votre attention, c’est que l’aspect des logiciels libres et des standards ouverts ça permet de voir ce qui est fait. Lorsque vous avez un logiciel qui est fermé vous ne pouvez pas voir ce qui est fait, donc ça veut dire que vous faites confiance à la personne qui l’a développé. D’ailleurs c’est aussi problématique dans nos analyses parce que tout ce qu’on est en train de vous dire là, lorsque qu’on est face à du logiciel fermé ou à du code fermé, et c’est le cas pour la plupart des plateformes, eh bien on ne peut comprendre ce qui est fait qu’en l’analysant d’un regard extérieur et on ne peut pas vraiment savoir. Je m’arrête là pour ne pas monopoliser la conversation, mais on serait ravis de répondre à vos questions là-dessus. Je pense que c’est important de garder ça à l’esprit : tout ce qu’on vous dit est fondé sur des études qu’on a lues et ensuite sur le retour d’expérience d’un certain nombre d’utilisateurs et sur notre propre analyse, mais on a du mal. Le fait que ces codes soient fermés nous empêche de voir dans le détail, de manière extrêmement précise, ce qui est fait.

Franck Montaugé : Merci. Monsieur Iteanu.

Olivier Iteanu : [Inaudible].

Franck Montaugé : D’accord donc après, c’est gentil, pour faciliter les choses. Merci.

Étienne Gonnu : Mesdames les sénatrices, Messieurs les sénateurs, merci pour cette opportunité de venir devant vous présenter notre regard. Je représente l’association April4 qui promeut et défend le logiciel libre. Pour nous c’est vraiment une question éminemment politique. On considère que le logiciel libre propose une grille de lecture politique et technique à cette question, d’ailleurs surtout politique.
Je vais prendre un instant pour présenter rapidement l’April. L’April est une association française, loi 1901, qui est fondée en 1996, donc qui a presque 22 ans. Elle compte aujourd’hui un peu plus de 4 000 membres, surtout des particuliers, pas que des techniciens ou techniciennes, et des personnes morales aussi bien de droit public que droit privé. On a environ 250 personnes morales publiques et un peu plus de 200 entreprises membres [NdT : Fin décembre 2018 les chiffres étaient de 227 entreprises ou réseaux d'entreprises, 139 associations (de droit privé), 6 organismes du secteur éducatif ou de la recherche, 11 collectivités locales et 3 syndicats].
Elle n’a pas un objet technique. Sa vocation c’est vraiment la promotion et la défense des libertés informatiques.
Pour cela on a vraiment une action de sensibilisation, particulièrement auprès du grand public, pour laquelle on produit du matériel de sensibilisation et de formation. Et puis on a tout un pan de plaidoyer politique. À ce sujet on est donc inscrit à la Haute Autorité pour la transparence de la vie publique, et c’est le cadre de mon poste au sein de l’April où j’ai l’honneur d’être chargé de mission affaires publiques.
Il est sans doute utile de préciser que l’adhésion de nos membres est vraiment une adhésion de soutien, on ne représente pas leur intérêt. Nous n’avons aucun engagement auprès d’eux. On va dire qu’on partage avec nos membres une certaine conception de l’intérêt général auquel correspond justement le logiciel libre.
Notre principale action c’est la priorité au logiciel libre au niveau individuel – ça c’est plus pour notre pan de sensibilisation auprès du grand public – et priorité au logiciel libre et aux formats ouverts au sein des administrations publiques, notamment parce qu’on considère qu’il y a un enjeu fondamental de souveraineté informatique lié à cette priorité. Pour reprendre les propos évoqués par Alexis, ne serait-ce sur le fait que si l’administration ou une personne utilisatrice, quelle qu’elle soit, n’a pas accès au code source des logiciels qu’elle utilise elle ne peut pas avoir un niveau de confiance suffisant dans ses outils, elle n’est pas vraiment souveraine de ses outils, mais j’y reviendrai.

Je pense qu’il est peut-être utile de m’arrêter un instant sur la notion, sur ce qu’on entend par logiciel libre. On évoque souvent le terme, mais je pense qu’il est toujours intéressant de revenir aux bases.
Le logiciel libre ce n’est pas une caractéristique technique, ce n’est pas un modèle de développement, même s’il induit une certaine manière de penser le développement logiciel, c’est plus une manière d’appréhender le logiciel, donc les technologies, le sens de l’innovation, puisque c’est un terme qu’on entend souvent. C’est une certaine manière d’appréhender tout cela, toujours en partant du point de vue des utilisateurs et des utilisatrices, des personnes qui utilisent ces logiciels pour leur garantir la pleine maîtrise de leurs propres outils : qu’elles soient souveraines de leur informatique et qu’elles soient sûres que les outils ne servent pas les intérêts d’un tiers mais bien leurs propres intérêts.

On définit très classiquement le logiciel libre autour de quatre libertés fondamentales qui vont être inscrites dans la licence d’utilisation. Puisqu’en fait le logiciel libre décrit plus une spécificité juridique que technique, n’importe quel logiciel peut être libre ou privateur.

Le logiciel libre est construit autour de quatre libertés :

  • la liberté d’utiliser le logiciel sans restriction d’usage ;
  • le droit d’étudier le logiciel et de le modifier pour qu’il réponde à nos besoins ou pour corriger ce qu’on va considérer être des erreurs et pour cela, évidemment, il faut un accès au code source ;
  • le droit de redistribuer le logiciel
  • et le droit de partager les versions modifiées qu’on aura pu produire. Et c’est à partir de là que se créent ce qu’on appelle les communautés. Il me semble, au sein des auditions, que le sujet des communautés autour du logiciel libre revenait assez régulièrement.

Par opposition, on considère que tout logiciel qui ne garantit pas l’ensemble de ces libertés, car s’il en manque une on ne peut pas vraiment parler de logiciel libre, elles sont toutes interdépendantes, eh bien on parle de logiciel privateur qui prive les utilisateurs de ces libertés essentielles.

Je pense aussi que pour réfléchir le logiciel libre par rapport à cette réflexion sur la souveraineté numérique ou informatique, je pense qu’il est peut-être intéressant de penser à cette expression Code is Law, qui est une expression extrêmement connue du moins parmi les personnes qui s’intéressent à ce sujet, qui est tirée de l’œuvre fondatrice qui est Code is Law and Other Laws of Cyberspace qui est une œuvre de Lawrence Lessig qui date de 1999 et déjà elle était extrêmement pertinente. Lawrence Lessig, pour le présenter très rapidement, est entre autres avocat et il était, je ne sais pas s’il l’est encore mais en tout cas il était professeur de droit constitutionnel à Harvard et créateur des licences Creative Commons5 qui sont extrêmement importantes dans toute la communauté non seulement du logiciel libre mais du savoir libre et du partage des connaissances.
Je n’ai pas la prétention de résumer de manière exhaustive, en très peu de temps et de manière fidèle, une thèse aussi riche. En fait il part d’un constat assez simple : il considère que chaque temps, chaque ère a son régulateur et que ce régulateur va édicter les règles et en assurer l’application. Dans le cyberespace, donc l’ère du cyberespace, c’est le code informatique qui va réguler : le code informatique va valoir loi dans le cyberespace. Il va réguler, conditionner nos interactions sociales, l’exercice de nos libertés, nos interactions avec les pouvoirs publics notamment. Et c’est bien sûr une question de plus en plus importante à mesure que des pans de plus en plus importants de l’activité humaine passent par des outils informatiques. Le code est du droit donc les personnes qui écrivent ce code créent du droit, ce sont des régulateurs dans leur espace ; elles vont façonner les conditions de l’expression, la maîtrise des activités et des libertés fondamentales des personnes sur les réseaux informatiques.
Si on prend le cas de Facebook dans son propre cyberespace — souvent on entend dire que Facebook, Twitter et YouTube, et je pense que c’est très juste, s’apparentent de plus en plus à des États — et effectivement dans le périmètre, dans le silo technologique créé et maintenu par Facebook, il décide de ses propres règles donc conditionne l’exercice de la liberté d’expression qui se fait via cet outil-là.

Je vais revenir sur pourquoi finalement pour nous la question du logiciel libre est aussi fondamentale, la question, si on réfléchit en termes de droit de ce point de vue c’est : a-t-on accès à ces règles ? Est-ce qu’on a conscience, est-ce qu’on a connaissance, est-ce qu’on a la possibilité d’avoir connaissance des règles qui vont s’imposer à nous et conditionner nos usages ? Qui décide de ces règles ? Selon quelle procédure ? Qui peut faire un contrôle ? Dans quelles conditions on peut faire ce contrôle ? Et qui peut agir dans la détermination de ces règles ?
C’est de ce point de vue qu’on considère à l’April que le logiciel libre va incarner un fondement démocratique et un rapport démocratique aux technologies. D'une manière un peu caricaturale et non exhaustive à nouveau, je pense que si on veut définir une démocratie, un des aspects qu’on peut dire c’est qu’elle nécessite la connaissance des règles qui vont s’imposer et l’acceptation de ces règles, la connaissance des procédures de leur élaboration et la capacité des personnes à contribuer à l’élaboration de ces règles et aussi ainsi de les remettre en cause. C’est ce que le logiciel libre permet de faire par rapport à l’outil informatique. Et c’est vraiment en ça que c’est une réponse politique et que ça offre une grille de lecture à cette question qui est donc éminemment politique, celle de la souveraineté numérique.

La souveraineté numérique a été très souvent définie lors des auditions et de manière très pertinente. Je me retrouve beaucoup dans celle très intéressante, dans l'approche développée par Claire Landais, la Secrétaire générale du secrétariat de la Défense et de la Sécurité nationale, qui distingue effectivement différentes approches par rapport à la souveraineté numérique.

Très rapidement, du point de vue de l’April, on la perçoit du point de vue des utilisateurs et des utilisatrices et à travers leur capacité de contrôler et de déterminer les conditions de l’expression de leurs libertés fondamentales sur les réseaux informatiques.

Je pense aussi qu’il est important d’avoir ce rapport, de se dire qu’il y a forcément un gradient, on n’est pas "souverain ou pas souverain", l’important c’est de se poser la question de comment garantir les meilleures conditions de souveraineté sur les outils qu’on utilise.

On pense aussi qu’il est important de rappeler que la souveraineté informatique n’est pas une fin en soi des personnes publiques en général et de l’État en particulier, mais ça doit être un moyen d’assurer que les outils informatiques des personnes publiques soient bien au service des citoyens et des citoyennes et qu’ils leur permettent d’avoir des infrastructures informationnelles loyales et de confiance. Je pense que cette notion de confiance est extrêmement importante.
Au-delà de ça, je pense que les pouvoirs publics dans une société qui se veut démocratique soient aussi au service de la création d’un écosystème, si on veut, informationnel qui soit vecteur d’émancipation et de liberté et évidemment non pas de contrôle et d’aliénation. Malheureusement on voit effectivement ce qui peut arriver notamment sur Facebook, Twitter et YouTube où on voit des problématiques de profilage par les entreprises de leurs utilisateurs, de surveillance par les États des citoyens à travers ces outils-là ; on voit à quel point il y a des intérêts antagonistes. Il faut maintenir une vigilance importante pour que la population aussi reste souveraine du point de vue démocratique de l’informatique.
Bien sûr il n’y a pas de réponse miracle. On persiste à dire que le logiciel libre est une condition minimale et on ne peut pas prétendre à une souveraineté et à une politique de souveraineté informatique, numérique, sans une priorité au logiciel libre dans les administrations.

Justement sur la priorité au logiciel libre et puisqu’on a l’opportunité d’intervenir après l’audition de monsieur Bou Hanna, le directeur de la DINSIC [Direction interministérielle du numérique et du système d'information et de communication de l'État], peut-être une manière de répondre à des propos, à des positions qu’il a pu tenir par rapport au logiciel libre. Je pense d’ailleurs que notre divergence de point de vue avec le directeur de la DINSIC tient peut-être au prisme de lecture qu’il va avoir. On a l’impression qu’il ne le décrit, qu’il ne le pense que d’un point de vue très technique en termes d’usages spécifiques et on pense qu’il y a la nécessité d’avoir une couche de réflexion politique supérieure par rapport à cela.

Déjà priorité ne veut pas dire imposer, parce qu’il me semble que monsieur le directeur avait parlé de forcer les agents et, bien sûr, il n’est pas question de forcer les agents, de forcer en dépit des besoins matériels des administrations l’usage de logiciels libres, mais bien de mettre en place et à la hauteur de ce qu’il est possible à un moment donné des politiques d’accompagnement et de transition vers plus de liberté informatique, une meilleure maîtrise des systèmes d’information utilisés.
On a déjà eu l’occasion de démontrer la compatibilité de la priorité au logiciel libre avec le droit de la commande publique — malheureusement souvent est invoquée une incompatibilité — notamment en 2016 lors de l’étude de ce qui était à l’époque le projet de loi pour une République numérique. Le Conseil national du numérique avait d’ailleurs publié à l’époque un argumentaire très similaire au nôtre. Ces argumentaires n’ont jamais été contredits. Ce qu’on aimerait, peut-être, c’est qu’à la limite si le gouvernement souhaite contredire notre argumentaire qu’il le fasse sur le fond et pas seulement d’une position d’autorité.
Juste signaler très rapidement que le Conseil d’État en 2011 a effectivement validé un marché public de prestation portant sur un logiciel libre spécifique qu’une collectivité avait gratuitement acquis donc n’avait pas besoin de faire un appel d’offres spécifique pour l’obtenir et ensuite elle a fait un appel d’offres de prestation pour l’adapter à ses besoins. Le Conseil d’État a considéré que « eu égard à son caractère de logiciel libre, ce logiciel était librement et gratuitement accessible et modifiable par l’ensemble des entreprises spécialisées qui étaient toutes à même de l’adapter aux besoins de la collectivité et de présenter une offre indiquant les modalités de cette adaptation ». Donc il nous semble important de déconstruire ces idées reçues.

Monsieur Bou Hanna a également parlé d’une approche « pragmatique » et non pas « idéologique ». C’est un très vieil argument qui est opposé aux défenseurs des libertés informatiques et du logiciel libre. Effectivement le logiciel libre, on ne s’en cache pas, c’est une conviction politique, et c’est la conviction que la priorité au logiciel libre et au aux formats répond à d’impérieuses considérations d’intérêt général. Ça ne veut pas dire pour autant que c’est une approche qui ne soit pas pragmatique, qui ne soit pas matérialiste par aspect. Le logiciel libre, notamment parce qu’il donne accès au code source, on en revient aussi à ça, du moins de manière générale apporte les garanties juridiques via sa licence de maîtrise de l’outil, de capacité de mutualisation, d’indépendance vis-à-vis d’un éditeur donné et crée de la confiance.

Je pense que la question de confiance est effectivement centrale et on voit d’ailleurs que la DINSIC elle-même place cette considération au centre de son action avec la labellisation des outils de confiance, ainsi qu’elle l’appelle. Effectivement, quand on parle de confiance, c'est vrai de manière générale mais peut-être plus fortement encore en informatique, la confiance est toujours plus ou moins déléguée. Je pense qu’il est virtuellement impossible de maîtriser d’un bout à l’autre de la chaîne de production et de décision, d’avoir une maîtrise totale.
La question c’est finalement de savoir sur quelle base on va déléguer cette confiance. Une réponse invariante à cela c’est la transparence et la capacité de pouvoir contrôler. C’est-à-dire que finalement le logiciel libre permet ça puisqu’on a le code source : n’importe qui à n’importe quel moment peut vérifier comment il fonctionne.
De ce point de vue justement la capacité des personnes publiques d’accéder au code source et de pouvoir modifier le logiciel c’est pour nous une condition absolument déterminante de confiance et donc de souveraineté.

Je prends peut-être un peu de temps, donc je vais accélérer mon propos.
Un point qui nous paraît essentiel : parallèlement à la priorité au logiciel libre il faut qu’il y ait une action déterminée pour mettre fin aux soi-disant partenariats avec les grandes entreprises du numérique, typiquement les GAFAM. Il faut savoir qu’en France on voit quand même qu’il y a une relation privilégiée entre l’État et certains de ces GAFAM, Microsoft en tête, là je pense au partenariat avec l’Éducation nationale qui a déjà évoqué. On a vu, lors de l’étude du budget 2019 et sur le plan de transformation numérique du ministère de la Justice que la garde des Sceaux a été auditionnée par la commission des lois de l’Assemblée nationale et a annoncé que la suite bureautique Microsoft Office sera déployée dans l’ensemble des ministères sur plus de 40 000 postes. On a cherché, on n’a pas trouvé d’appel d’offres qui pourrait justifier justement ce genre d’annonce et on trouve ça finalement assez inquiétant. On imagine difficilement dans d’autres cas de figure ce genre d’ouverture ; ce sont des marques, ce ne sont pas des choix neutres et il faut une détermination des besoins, il faut passer par les systèmes classiques.
Et le partenariat qui nous semble le plus problématique et le plus emblématique de tout cela et sur lequel on a une action assez forte, c’est l’accord-cadre qui lie le ministère des Armées à Microsoft depuis 2009, renouvelé deux fois depuis, dans une opacité très forte. C’est un accord qu’on appelle « open bar » parce qu’il organise un contournement assez massif des règles de la commande publique. Selon nous il a mis en place des procédures sur un objet du contrat qui n’est pas tout à fait juste et on reprend de ce point de vue-là les propos du rapporteur de la commission des marchés publics de l’État de l’époque qui avait émis de très fortes réserves, notamment sur l’objet réel du contrat. Par la suite il a d’ailleurs évoqué la possibilité d’un délit de favoritisme. Donc on perçoit déjà des difficultés importantes autour de ce contrat-là.
Nous on appelle à ce que la lumière soit faite sur ce contrat. Je ne vais rentrer dans tous les détails de cet accord qui est très dense, on peut déjà remarquer qu’en amont de la contractualisation un des groupes d’experts militaires qui avait été mandaté pour analyser les risques pointait du doigt sur ce contrat global justement un risque de perte de souveraineté, d’addiction aux produits de Microsoft ou d’affaiblissement de l’industrie française et européenne du logiciel. Des critiques quand même très fortes qui n’ont jamais été adressées, du moins dans tous les documents qu’on a essayés d’obtenir parce que, à nouveau, c’est marqué par une forte opacité.
Sur la base de ces éléments on a pu échanger avec une de vos collègues, madame la sénatrice Joëlle Garriaud-Maylam qui a déposé, en 2017, une proposition de résolution de création d’une commission d’enquête pour faire la lumière sur cet accord-cadre entre d’ailleurs Microsoft Irlande, bien sûr, et le ministère des Armées.

Très rapidement la question de la communauté que j’évoquais. Effectivement les communautés sont centrales sur le logiciel libre. On parle de communautés, il y a cette idée d’un commun, un commun informationnel qui est basé vraiment sur ce qui est de la connaissance. En fait le logiciel c’est ça, c’est de la connaissance transcrite dans un langage informatique et la communauté ce sont les personnes qui vont partager quelque chose en commun et ce commun informationnel.
Donc on pense qu’il y a un enjeu important que les pouvoirs publics soutiennent, sans préempter les communautés existantes, mais comme c’est de la connaissance et la connaissance c’est aussi un facteur important de souveraineté, qu’ils soutiennent cette connaissance qui est une ressource commune qui bénéficie à tous, notamment aux collectivités, aux citoyens et ainsi de suite. Ils peuvent soutenir par des appels d’offres.

Franck Montaugé : Vous pouvez conclure pour qu’on puisse vous poser quelques questions avant de se séparer. Vous allez vite, mais il y a beaucoup de choses.

Étienne Gonnu : Je conclus en trois points, moins d’une minute.
Par des appels d’offres, par le temps de travail des agents et par soutien à des initiatives qui existent peut-être déjà au sein des pouvoirs publics ; on peut penser à une application effective du Référentiel général d’interopérabilité6, qui a encore malheureusement trop tendance à être ignoré par de nombreuses administrations. Politique de contribution de la DINSIC qui avait été saluée à l’époque par la Cour des comptes qui mettait en place, pour accompagner les agents dans leurs contributions au code informatique libre. On peut aussi penser à la pérennisation du socle interministériel de logiciels libres7.
Un point sur l’Éducation qui est vraiment pour nous une problématique classique de souveraineté. Il y a un enjeu fondamental à utiliser et à mettre en avant le logiciel libre au sein de la formation, à sortir d’un rapport peut-être purement formation au code et avoir une véritable perspective de formation à l’informatique comme une science et comme un fait social. Cet enjeu c’est bien sûr de permettre aux jeunes générations de devenir des adultes parfaitement émancipés dans une société informationnelle où le logiciel est omniprésent.

Franck Montaugé : Merci à vous.

Olivier Iteanu : Merci Monsieur le président, Mesdames et Messieurs les sénateurs. Je vous prie d’abord d’excuser l’absence de Lucien Castex, notre secrétaire général, qui est retenu à la Commission consultative nationale des droits de l’homme.
J’ai l’honneur de représenter l’association, le chapitre français de l’Internet Society8 qui a une dénomination anglo-saxonne mais qui est bien une association loi 1901, qui a été constituée en 1996. À l’époque j’étais son secrétaire général puis j’ai assumé la fonction de président de 2000 à 2004 et je suis son président d’honneur. De surcroît j’ai aussi l’honneur d’être aujourd’hui son avocat dans le cadre d’une action de groupe que l’association a engagée. C’est une action de groupe au sens Class Action américaine puisqu’il s’agit non pas comme l’a fait avec succès, et bravo à La Quadrature du Net, de saisir une autorité administrative qui va sanctionner administrativement d’une peine pécuniaire certes, mais une société non conforme puisque ce n’est pas un tribunal, donc une entreprise non conforme, mais il s’agit bien de saisir un tribunal de l’ordre judiciaire, puisqu’il s’agit en l’occurrence du tribunal de grande instance de Paris, pour obtenir réparation. Réparation pour l’ensemble des personnes qui viendront donner mandat à l’association, d’après mes derniers chiffres elles sont un peu plus de mille à la date d’aujourd’hui, qui va donc porter une action en l’occurrence contre Facebook Inc, Facebook Irlande et Facebook France je précise, pour sept griefs qui ont été identifiés.
Comme la loi sur la modernisation de la justice du 21e siècle nous fait l’obligation, pour cette action de groupe, de mettre en demeure préalablement l’entreprise visée, cible, c’est ce que nous avons fait, puis d’attendre quatre mois ; le délai de quatre mois étant passé nous avons lancé officiellement une tentative de conciliation avec Facebook parce que nous sommes quand même des gens raisonnables et si cette tentative de conciliation qui sera officielle, car il n’est pas question que l’affaire présentielle échoue, eh bien nous assignerons, pour cette première action de groupe indemnitaire, au mois de septembre.
À titre personnel je suis avocat à la cour d’appel de Paris depuis 29 ans ; je dédie mon activité aux droits du numérique. J’ai écrit cinq livres dont le premier, en 1996, Internet et le droit ; c’était le premier livre de droit français sur Internet et j’enseigne à l’université Paris I Sorbonne et Paris XI en droit du numérique.

Puisqu’il s’agit de propos liminaires, je vais peut-être donner un éclairage différent sur tout ce qui a été dit, auquel je souscris, en trois points.
Le premier, le refus d’entreprises du numérique de se soumettre à la loi. C’est quand même un problème parce que ça veut dire qu’on peut se réunir et voter dans nos parlements européens toute loi que l’on voudrait bien mais si les entreprises qui sont ciblées par ces lois considèrent qu’elles ne sont pas soumises à la loi française, là on a un véritable problème ; ça sera mon premier point.
Le second c’est la volonté de ces entreprises d’appliquer leurs propres concepts. Je suis désolé, mais la liberté d’expression n’est pas le freedom speech ou le free speech. Nous, quand il est question d’un problème de droit de la presse, on va dire, on parle de diffamation, d’injure. Je trouve regrettable que nous ayons dans la loi actuellement discutée, et c’est vraiment un des symptômes du problème de la souveraineté numérique puisque c’est votre commission, d’utiliser le terme « haine », hate speech. On a fait une traduction du terme « haine », hate speech, alors qu’on a une réglementation qui s’applique, j’aurai l’occasion d’y venir, mais c’est tout à fait exemplaire et symptomatique de ce problème.
Et enfin, pourquoi nous sommes dans cette situation ? Là je ne parlerai pas de droit, je parlerai de politiques publiques, car on a un problème de solutions alternatives, c’est évident. Et pourquoi l’Europe est la seule zone du monde où nous avons des oligopoles dans tous les domaines du numérique quand ce n’est pas le cas en Chine, quand ce n’est pas le cas en Russie, ni en Corée et même peut-être dans certains pays d’Amérique du Sud ? Il faut quand même se poser la question. Pourquoi on en est là aujourd’hui c’est aussi à cause de ça, mais c’est lié à la problématique de la souveraineté numérique car si ces entreprises considèrent qu’elles ne sont pas soumises aux contraintes européennes alors que leurs concurrents européens, eux, y sont bien soumis, alors il ne faut pas s’étonner qu’on n’a pas aujourd'hui d’offre européenne. C’est aussi un problème.
Et puis j’aurai l’occasion de parler des libertariens. Ce sont ces gens, moi j’y ai cru beaucoup, il y a plus de 20 ans, qui ont développé un discours très libéral ou libertarien, dans tous les domaines pas que économique, et qui sont, à mon avis, probablement une explication de la situation dans laquelle on est aujourd’hui.

Premier point : le refus de se soumettre à la loi locale. J’ai commis mon dernier ouvrage sur votre thème puisqu’il s’appelait Quand le digital défie l’État de droit, digital c’est un mot anglais, je ne désignais personne en partie – un ouvrage qui a d'ailleurs été primé au Forum International de la cybersécurité à Lille en janvier 2017 – et je me suis amusé, en introduction de l’ouvrage, à suivre une jeune fille de 15 ans, car c’est un problème : les moins de 25 ans ont quand même dans la relation au numérique une relation que nous n’avons pas, nous qui ne sommes pas natifs de ce milieu. J’ai passé une journée avec une jeune fille de 15 ans, évidemment c’est fictif. J’ai commencé le matin, je n’ai pas mis Europe 1, j’ai regardé Twitter. Ensuite j’ai été en Uber au travail, elle avait un peu plus de 15 ans, donc on va dire au lycée. Ensuite j’ai été sur Linkedin pour faire un peu mon petit marketing sur mes petites affaires, et puis mes amis sur Facebook, WhatsApp et tout ça. J’ai passé en revue une trentaine de services. J’ai évidemment terminé ma journée avec ma vidéo préférée sur YouTube et ma série sur Netflix. Cette personne que j’ai appelée Alice – ça rappellera Bob et Alice pour ceux qui font de la cryptologie – a passé un contrat avec chacun de ces services. Oui ! Comme nous tous et j’ai regardé simplement quelle était la loi qui était affichée, je ne veux pas dire applicable, mais affichée. Quelle était la loi qui était affichée, quelle était la juridiction qui était affichée ? On a beau être libertarien et être un citoyen du monde, on désigne quand même des lois nationales, je le dis pour ceux qui ne le savent pas, et les juridictions nationales : 90 % sont californiennes et les lois applicables et les juridictions désignées. C’est quand même un problème ! C’est pourquoi je pense que votre commission est fondamentale, elle traite d’un sujet fondamental, c’est la disparition de notre État de droit parce que toute la société est en train de s’organiser sur les réseaux ou autour des réseaux à titre principal ou même partiel, mais autour des réseaux dans toutes les activités. Or si ces réseaux ne sont pas en droit local, qu’est-ce qui va rester de l’État de droit ? Les premières entreprises globales, la première d’entre elles Mac Donald, on avait quand même la possibilité de toucher le gérant au coin de la rue quand on allait acheter son hamburger ; c’est toujours possible d’ailleurs. On pouvait également se plaindre, discuter, débattre échanger.
Est-ce que quelqu’un ici a réussi à parler à Google ? En tant qu’utilisateur j’entends ? À Facebook ? À Twitter ? Personne ! Impossible ! Vous avez ce que j’ai appelé dans mon livre, et je pense que l’Union soviétique en aurait rêvé, « le règne des formulaires ». Quand vous avez un problème on vous demande de remplir un formulaire. Ensuite il part. Parfois dans la presse on nous dit : « On a mis 10 000 personnes, 15 000 personnes pour répondre », mais la réalité c’est qu’on a cette situation-là aujourd’hui et ça c’est un problème fort de souveraineté numérique.

Je vais vous donner trois exemples sur le refus d’appliquer la loi.
On est actuellement en train de discuter d’une loi sur la haine alors qu’on a déjà des textes pour les intermédiaires techniques. En 2013, rappelez-vous, sur Twitter on a eu l’affaire du hashtag « un bon juif, un juif mort ». On a identifié des tweets, évidemment derrière les tweets il y a des pseudos, il y a des pseudonymes.
Nous avons voté en 2000 une directive communautaire qui est en fait la copie d’une loi américaine de 1998 qui avait été promulguée par Bill Clinton, qui s’appelait le Decency Act. Dans cette directive de 2000 que nous avons transposée en 2004 dans la loi pour la confiance dans l’économie numérique, nous avons créé un régime spécial de responsabilité pour les intermédiaires techniques, les fournisseurs d’accès et les sites web, les hébergeurs web, en disant à raison ces gens-là sont quand même les garants de la liberté d’expression, on ne peut leur appliquer un droit de la presse automatiquement sinon ils vont faire de l’autocensure, donc on va leur appliquer une responsabilité limitée. S’ils ont connaissance d’un contenu manifestement illicite, a dit le Conseil constitutionnel, et cette connaissance est présumée si on leur envoie une notification qui a une structure particulière, avec des informations particulières, et s’ils n’ont pas procédé au retrait promptement, agit promptement, c’est exactement les termes de la loi américaine, alors leur responsabilité peut être engagée. On donne un avantage à des intermédiaires techniques, on leur donne une responsabilité limitée, il est donc logique en contrepartie qu’on leur demande quand même quelque chose. Ce que leur demandait la loi et la directive de 2000 c’était une collaboration avec les autorités judiciaires, c’est-à-dire qu’ils devaient conserver pendant un an les données de connexion – ils le font, d’ailleurs c’est obligatoire – et en cas de réquisition judiciaire ils doivent communiquer à l’autorité judiciaire ces données. C’était, excusez-moi, je vais dire un mot anglais aujourd’hui, c’était un deal qui me paraissait totalement acceptable. Je précise que ces données de connexion sont soumises au secret professionnel, donc ils ne peuvent pas les révéler comme ça, et deuxièmement, s’ils ne respectent pas la demande de réquisition judiciaire ils sont soumis à un an d’emprisonnement et 75 000 euros d’amende.
Il y a eu beaucoup de réserves à l’époque sur ce système, notamment de La Quadrature, car on donnait aux intermédiaires techniques une sorte de droit de police, c’est vrai, mais plus de 15 ans après on peut voir que les abus ont été quand même assez limités et que ce système fonctionnait assez normalement.
En 2013 il y a le hashtag un bon juif. Un certain nombre d’associations antiracistes portent l’affaire sur le plan judiciaire et demandent à Twitter de communiquer les données de connexion derrière les tweets antisémites, manifestement antisémites, clairement antisémites, des menaces de mort, enfin c’est évident. Qu’est-ce que répond Twitter devant le juge français ? Je lis un extrait de l’ordonnance du 24 janvier 2013 du président du TGI de Paris. Il dit la chose suivante, donc il ouvre les guillemets : « Twitter prétend que les contenus hébergés sont stockés sur des serveurs lui appartenant situés aux États-Unis » et Twitter refuse de communiquer les informations de connexion qui sont en sa possession au motif, je répète, que « les contenus hébergés sont stockés sur des serveurs lui appartenant situés aux États-Unis ».
Est-ce que le parquet a agi puisqu’il avait un texte pénal ? La réponse est non. Donc je dirais que la première des choses sur la souveraineté numérique c’est un problème de volonté ; c’est un problème de détermination et de volonté. Nous n’avons pas cette volonté, j’expliquerai pourquoi tout à l’heure.

Deuxième exemple puisque ça a été évoqué : la société Facebook a déjà été condamnée par la CNIL en avril 2017. À l’époque les sommes étaient ridicules puisque le maximum était de 150 000 euros et d’ailleurs elle a écopé du maximum. Facebook Inc et Facebook Irlande étaient donc attraits devant la CNIL. Je précise que la plainte, le dossier avait été ouvert par la présidente, madame Falque-Pierrotin, qui a fait un travail remarquable en avril 2015. La mise en demeure est de mai 2016. La condamnation est d’avril 2017. Le temps n’est pas un facteur neutre. Eh bien c’est, à ma connaissance, le seul cas de toute l’histoire de la CNIL depuis qu’elle dispose du droit de sanction, depuis 2004, où la société Facebook a joué la chaise vide. Vous regardez la décision, Facebook Inc dit : « Je ne viens pas ». Est-ce que c’est admissible ? Est-ce que vous connaissez une autre organisation européenne qui tenterait simplement de ne pas se présenter devant la CNIL ? Elle ne s’est pas présentée ; la chaise vide !

Des exemples comme ça je peux en donner des dizaines. En tant que praticien du droit, et je ne suis pas le seul, on a systématiquement des organisations qui s’adressent au marché français, on les voit faire de la publicité sur le marché français, on voit qu’elles gagnent de l’argent avec le marché français, elles rendent des services dont nous sommes d’ailleurs tous utilisateurs, moi-même souvent, et elles refusent de se soumettre à leurs responsabilités devant les juges français. Ce n’est pas un problème de telle loi, tel ci, tel ça. Je vous ai donné l’exemple de la loi pour la confiance dans l’économie numérique et de Twitter ou de la CNIL, eh bien elles refusent de se soumettre et ça c’est un véritable problème car évidemment ces entreprises et ces services peuplent notre quotidien et particulièrement celui des jeunes.

Le deuxième point que je voudrais dire c’est le problème des concepts. J’en ai dit un mot à l’instant. La liberté d’expression à la française n’est pas le free speech. Contrairement à une idée qu’on peut d’ailleurs constater, le free speech américain n’est pas véritablement la liberté absolue, contrairement à ce qu’on nous vend. Nous avons une liberté d’expression. Et sur les problèmes notamment de Daesch et les vidéos qu’on nous montre, nous avons une croyance profonde : entre la pensée, la parole publique et l’action, tout est lié. Quelqu’un va s’exprimer publiquement et on sait que lui-même ou ses interlocuteurs ou ses auditeurs ou ses lecteurs sont capables, oseront demain de passer à l’acte. On le sait et c’est aussi notre expérience de l’histoire européenne. Eh bien malheureusement on voit bien que ces concepts-là ne sont pas entendus de la même façon par ces acteurs américains. Il y a des sondages réguliers qui sont publiés, notamment par l’UEJF [Union des étudiants juifs de France], sur les taux de réponse de ces grandes entreprises qui sont peut-être de bonne volonté, qui, de manière régulière, signent des accords à l’Élysée ou ailleurs en prenant des engagements sur la modération à priori, mais c’est la loi qui doit s’appliquer, ce ne sont pas des accords, ce n’est pas de la co-régulation, c’est la loi qui doit s’appliquer. Donc on voit le problème entre liberté d’expression et free speech
On le voit évidemment entre privacy et données à caractère personnel ; ce n’est pas du tout la même chose. La privacy c’est un concept complètement différent et même la vie privée et données personnelles ce n’est pas la même chose. La vie privée c’est une conséquence potentielle d’une violation de données personnelles.

Enfin, je vous invite à regarder les problématiques de copyright et de droit d’auteur car c’est très intéressant. Là on a harmonisé les droits. Et aux États-Unis, à côté de la Silicon Valley et de la puissance des GAFAM, vous avez une autre industrie qui s’appelle Hollywood, qui a également sa puissance. Or on se rend compte d’une chose c’est que la question des droits d’auteur est prise au sérieux par les GAFAM. Ça provient de plusieurs choses. Je cite un cas d’un producteur américain qui avait notifié un soir à YouTube — je vous disais tout à l’heure que ce système de notifications pour la loi pour la confiance dans l’économie numérique existe en matière de droits d’auteur notamment aux États-Unis — 100 000 vidéos sur YouTube qui portaient atteinte, tel que constaté, à ses droits d’auteur, à son copyright, le lendemain matin YouTube les avaient retirées. Évidemment il demandait quelques milliards de dollars de réparation devant les tribunaux. Là on voit que ces grands acteurs respectent les droits d’auteur. Ils les respectent parce qu’aux États-Unis il y a une force qui est prête à les faire appliquer et parce qu’il y a des risques associés. On n’est pas dans un monde de Bisounours : s’il y a des risques clairs en face d’une situation, eh bien on voit que leur volonté d’appliquer en l’occurrence nos valeurs et notre droit est prête à évoluer.

Je vais vous donner un exemple. Nous avons eu un cas, en tant que praticiens, d’une personne. Sur Facebook il y avait un groupe qui avait été avec sa photo et le titre était très injurieux à son égard. Nous avons d’abord fait valoir l’injure publique et nous n’avons rien obtenu. On a pu déceler que la photo venait d’un trombinoscope d’une entreprise. Cette photo avait un titulaire des droits, avait un droit d’auteur. Nous avons donc rempli le formulaire droit d’auteur, puisqu’il y a un formulaire pour chaque question, eh bien par miracle la photo et le groupe a été fermé.

Donc je veux dire par là et encore une fois que le deuxième mot c’est volonté. Lorsqu’il y a de la volonté, lorsqu’il y a un risque associé, manifestement elles évoluent.

Troisième point, ce sera mon dernier, pourquoi nous en sommes là ? D’abord effectivement on a problème de solutions alternatives et en particulier pour les moins de 25 ans, aujourd’hui se séparer de tous ces services, c’est une situation quasi impossible à obtenir. Je voudrais quand même attirer votre attention sur un deuxième point, ce qu’on appelle les libertariens. C’est un peu le cheval de Troie d’une certaine industrie évidemment de la Silicon Valley. Qu’est-ce qui fait qu’entre une certaine industrie chinoise et l’industrie américaine et des GAFA eh bien nous sommes très souvent très avertis d’une problématique possible avec certains acteurs de l’industrie chinoise quand nous laissons passer, nous laissons s’avancer certains acteurs de l’industrie américaine, pas tous évidemment, mais certains ? C’est le discours avant-gardiste. Vous savez, dans toute guerre économique, et le droit c’est un outil de guerre économique, il y a une guerre de l’information devant. Lorsqu’on nous vend que tout est liberté, que tout est mondial, que tout est universel, lorsqu’on crée du vocabulaire comme « la disruption », comme « la haine » – on peut trouver des tas de mots qui nous sont vendus, que nous achetons et en particulier que les moins de 25 ans achètent sans réserve –, alors effectivement on est paralysé. Personne n’est contre les citoyens du monde, personne n’est contre la liberté. Mais quand on regarde en détail, quand on regarde les contrats de ces entreprises, on voit qu’il y a des droits locaux qui sont appliqués ; on voit qu’elles revendiquent la propriété intellectuelle, qu’elles sont prêtes à l’opposer, on voit qu’elles se battent entre concurrents, on voit également que les grands discours qu’on nous vend ne sont pas toujours ceux qui sont la réalité des choses.
J’ai écrit cet ouvrage simplement parce que j’ai lu un ouvrage que je vous conseille, d’Eric Schmidt, qui s’appelle The New Digital Age. Moi j’ai été emballé pendant 250 pages, c’était ce que je voulais : un nouveau monde exceptionnel, fait de liberté et d’échange. Et puis il y a un point qui m’a fait point basculer c’est lorsque Eric Schmidt a expliqué, avec Jared Cohen le coauteur, qu’il faudrait tout de même que les parents réfléchissent bien aux prénoms qu’ils donnent à leurs enfants s’ils veulent que ces enfants soient bien placés sur le moteur de recherche Google. Là j’ai compris qu’il y avait probablement un syndrome, le syndrome de, je ne sais pas, de dieu qui s’était emparé d’eux. Et puis, en lisant de plus près, je me suis rendu compte que lorsqu’ils parlaient de la Chine ils parlaient de ce dont on parle aujourd’hui dans cette commission : ils parlent valeur, ils parlent droit, ils parlent défense de leur patrimoine économique et quand ils nous parlent, ils nous parlent d’autre chose !
Une des explications qui fait que nous sommes dans cette situation aujourd’hui c’est effectivement, il faut aussi le savoir, que nous faisons face à une véritable guerre des mots et qu’il faut parfois savoir la dépasser.

Voilà ce que je voulais dire en propos liminaire. Après je suis à votre disposition, comme mes collègues, pour échanger sur ce thème qui me tient à cœur.

Franck Montaugé : Merci beaucoup à tous les quatre. Je vais passer la parole à mes collègues en commençant par Monsieur le rapporteur. Gérard.

Gérard Longuet : C’est absolument passionnant et j’ai peur que nous n’ayons pas le temps nécessaire pour approfondir toutes les pistes que vous avez ouvertes et qui nous font, je le pense, m’exprimant en mon nom propre mais certainement traduisant le sentiment des collègues, réfléchir sur ce problème très simple de la souveraineté. La souveraineté ça commence par l’application des lois nationales sur un territoire. Qu’est-ce qu’un territoire ? C’est en fait une question majeure.
Je suis assez sensible à cette interrogation libertarienne parce que l’idée d’échapper à l’État et l’idée de vivre dans un monde virtuel est une idée très séduisante et qui se heurte assez rapidement à toute une série de limites. Vous venez d’en évoquer une, mais c’est un ressort extrêmement important qu’on aurait absolument tort de méconnaître.
Je veux revenir à des idées peut-être plus concrètes.
Le droit de la portabilité, vous en avez parlé. Comment vous l’imaginez ? Pour que vous compreniez le sens de ma question, un réseau c’est une aventure commerciale qui s’efforce d’accréditer qu’une certaine catégorie de gens ont plutôt envie de se retrouver sur ce réseau parce qu’ils se ressemblent, parce qu’ils se comprennent, parce qu’ils peuvent se parler. Il y a l’effet masse, que vous avez évoqué, dans la famille. C’est vrai qu’à partir du moment où il y a un réseau qui est dominant il évince les autres parce qu’on peut leur parler, mais il y a aussi le fait qu’il peut être générationnel, il peut être d’un état esprit, d’une époque de la vie. Pour l’instant les durées de vie sont relativement longues. Il serait peut-être intéressant de savoir si vous imaginez que le réseau peut être non pas un produit jetable mais un produit à cycles, avec un démarrage, une envolée, une maturité, un déclin. Est-ce que la portabilité serait justement une réponse pour passer de l’un à l’autre ?

Alexis Fitzjean O Cobhthaigh : Merci Monsieur le rapporteur pour votre question. Peut-être une précision de terminologie : ce dont on parlait c’était de l’interopérabilité. Le droit à la portabilité existe déjà aujourd’hui. C’est le droit de récupérer ses données.

Gérard Longuet : Oui. Pardonnez-moi de ne pas être le plus compétent sur ces sujets même si je suis le rapporteur.

Alexis Fitzjean O Cobhthaigh : Je vous en prie je me permettais du coup cette précision pour qu’on soit bien clairs.

Gérard Longuet : J’accepte mes limites.

Alexis Fitzjean O Cobhthaigh : Vous posez une question extrêmement intéressante à laquelle il va probablement être difficile de répondre. Je vais essayer de vous apporter des éléments de réponses. Ce qu’on regarde c’est que dans la jeune histoire du Web, qui n’existe que depuis le début des années 90, il y a eu effectivement des communautés qui se sont fondées autour de certains réseaux sociaux qui étaient très à la mode à un moment, qui aujourd’hui sont plus ou moins tombés dans l’oubli. Ça existe, c’est vrai.
Cela étant lorsqu’on regarde en réalité aujourd’hui des réseaux par exemple comme Facebook ou comme Twitter, je crois que Facebook, les derniers chiffres d’utilisateurs qui sont annoncés c’est autour de deux milliards de personnes.

Gérard Longuet : Et 700 millions. Un chiffre que j’ai lu.

Alexis Fitzjean O Cobhthaigh : Deux milliards 700 millions. Vous avez un chiffre qui est beaucoup plus précis que le mien. Il y a probablement une partie de faux comptes ou de comptes doubles dedans, mais, cela étant, on est quand même sur une plateforme qui, de par sa taille, change complètement et radicalement de nature et obtient en réalité un pouvoir concret sur nos vies et sur les États. Et c'est pour ça que je crois qu’il ne faut pas le voir que comme un réseau. C’est une plateforme effectivement sociale qui permet de communiquer, mais également qui permet d’autres choses.
Puisqu’on parle de souveraineté, j’ai été assez surpris d’entendre que par exemple un service public comme la SNCF allait désormais proposer la vente de billets sur le chat de Facebook. Qu’est-ce que ça veut dire ? Ça veut dire qu’en réalité on utilise une plateforme, qui en plus est une plateforme étrangère, pour vendre des billets alors qu’on n’en a pas besoin parce que la SNCF est tout à fait capable d’avoir un site internet qui fonctionne.

Gérard Longuet : Elle le fait d’ailleurs.

Alexis Fitzjean O Cobhthaigh : Elle le fait, elle vend des billets en ligne. Et ça crée en réalité une forme d’assujettissement et d’inféodation à un service tiers parce qu’on se rend dépendant de ce service. Et demain si une partie non négligeable des clients de la SNCF décide d’utiliser ce moyen-là d’acheter son billet et si demain Facebook décide de clôturer ce moyen ou alors de le monétiser pour la SNCF ? Ou de créer des conditions d’utilisation auxquelles la SNCF devrait se soumettre ? C’est de cela dont on parle. Ce n’est pas uniquement un réseau. En réalité aujourd’hui si vous regardez par exemple ce type de géants, ils arrivent à acquérir les nouveaux réseaux émergents à la mode qu’ils achètent cher.

Gérard Longuet : Ça c’est vrai. La commission a beaucoup travaillé sur la destruction de la concurrence par les achats sélectifs et à des prix qu’ils contrôlent.

Alexis Fitzjean O Cobhthaigh : C’est pour ça qu’en réalité cette question du cycle est vraie dans une certaine mesure. C’est certain, l’histoire le montre : il y a déjà eu des réseaux sociaux dont on parle très peu aujourd’hui, mais lorsqu’on voit en réalité la puissance qu’ont ces réseaux-là.

Gérard Longuet : Ils échappent à la mode.

Alexis Fitzjean O Cobhthaigh : Voilà. Si vous voulez c’est un petit comme lorsque vous avez une position dominante qui permet de s’extraire des règles de la concurrence, d’ailleurs c’est probablement déjà en partie le cas, mais ça va au-delà parce que ce n’est pas uniquement la vente d’un service, c’est la captation d’informations, d’une multitude d’informations extrêmement précises ; il y a une granularité des données qui est extrêmement fine, extrêmement vaste, sur un nombre de gens extrêmement important, qui permet derrière de développer des modèles et d’ailleurs de développer des modèles prédictifs pour prévoir des comportements, pour vendre des services, pour vendre des produits et peut-être même ensuite pour inciter à un acte politique. Lorsque vous avez le scandale Cambridge Analytica, lorsqu’on entend qu’il y a eu une expérimentation qui a visé, je n’ai plus les chiffres exacts, mais je crois que c’est quand même plusieurs centaines milliers de personnes, peut-être millions, je vous avoue que je n’ai pas le chiffre en tête, qui a en réalité manipulé ces personnes sans qu’elles le sachent, parce que c’est une forme de manipulation. Lorsqu’on crée des modèles qui font qu’on va vous présenter tels types de messages parce que vous appartenez à telle catégorie socioprofessionnelle, à tel moment de la journée parce qu’on sait qu’à ce moment vous êtes plus réceptif, c’est une forme de manipulation. La publicité et la propagande ça a toujours existé, c’est vrai, et la manipulation c’est un peu l’essence du commerce, en tout cas de la négociation. Mais là on est à un stade qui n’a jamais existé dans l’histoire de l’humanité.

Gérard Longuet : Qu’apporte l’interopérabilité ?

Alexis Fitzjean O Cobhthaigh : Si vous voulez, la force de réseau-là et ce qui a été dit tout à l’heure par Olivier Iteanu était assez juste : aujourd’hui c’est difficile de dire à jeune, un adolescent ou un jeune adulte, « n’utilise plus ces réseaux-là ». Non ! Parce qu’en fait c’est devenu quasiment essentiel pour eux ; c’est un moyen de communication et surtout, si vous refusez d’y être, vous vous coupez d’une partie de votre réseau social. C’est ce qu’on appelle l’effet de réseau, le fait qu’un réseau social, lorsqu’il atteint un certain seuil, devient tellement important qu’il capte cette attention-là. Il capte cet intérêt. L’interopérabilité permet de casser ça.

Gérard Longuet : On est là et ailleurs en même temps !

Alexis Fitzjean O Cobhthaigh : C'est-à-dire que vous êtes ailleurs, mais vous pouvez continuer d’interopérer, donc de communiquer… C’est exactement pareil que le téléphone ou le mail, je reprends cet exemple, je pense que c’est l’exemple le plus parlant.

Gérard Longuet : Oui, oui, l’image est claire.

Olivier Iteanu : Un mot sur portabilité des données parce que c’est quand même un point très important et c’est un bon exemple. Parce que la question sous-jacente qu’on pose avec la portabilité des données – en clair prendre ses données, partir avec ses données sous son bras et aller chez le concurrent, en gros – c'est de savoir à qui appartiennent ces données. Nous avons un concept en Europe et on tient jusqu’à présent sur ce concept, même s’il a été attaqué y compris effectivement dans le RGPD, dans le Règlement général sur la protection des données, c’est que les données à caractère personnel ne sont pas appropriables, ne sont pas dans le commerce juridique. C’est un attribut de notre personnalité. On ne peut pas les vendre. D’ailleurs, lorsque je consens à un tiers à ce qu’il collecte mes données, dans un des six cas légaux possibles, je peux, dans la seconde qui suit, demander à ce qu’il retire mes données. C’est un attribut de ma personnalité. Alors que les Anglo-saxons, qui poussent d’ailleurs aussi à Bruxelles, mais on entend aussi parfois, y compris ici en France, des philosophes qui font beaucoup de bruit avec cette notion, poussent un autre concept qui est celui de la patrimonialisation des données. Vous avez entendu. Simplement, si on patrimonialise les données sous l’idée, la fausse idée, qu’il faut aussi participer avec Facebook à la richesse qui est créée par ses propres données, à partir du moment où j’ai cédé mes données, eh bien j’en ai perdu le contrôle pour un gain qui, de toute façon sera, en tout état de cause, mineur. Donc il faut tenir sur ce concept juridique européen, celui de l’attribut de personnalité.
Deuxièmement, quand on dit « portabilité des données », de quelles données on parle ? Est-ce que ce sont les données administratives que j’ai déclarées à Facebook au moment où j’ai rejoint Facebook ? D’abord c’est souvent déclaratif, ce n’est pas toujours exact. Mais attention, Facebook va produire des données sur moi. Est-ce qu’elles sont incluses dans la portabilité des données ? Et il va y avoir aussi des jonctions, on le sait, puisque par exemple WhatsApp, Facebook, on sait que ces donnés qui sont, encore une fois, produites avec d’autres sur la base des données que j’ai souvent, effectivement, communiquées, est-ce qu’elles rentrent dans la portabilité des données ? Moi je pense qu’il faudrait, évidemment ! Mais là vous touchez quand même à un problème c’est que vous touchez au modèle d’affaires de toutes ces grandes entreprises. Là vous touchez quelque chose ! Les mille milliards de valorisation à la bourse qui sont l’objectif de toutes, certaines l’ont déjà atteint, c’est ça, ce sont les données qu’elles ont produites avec les données qu’on leur a communiquées et qu’elles vendent aujourd’hui. Il faut affirmer nos valeurs.
Nous avons perdu la guerre des technologies. Nous avons perdu la guerre des services. Il nous reste une chose, c’est l’accès au marché. Parce que tout le monde est intéressé par les 500 millions de consommateurs en Europe, mais c’est encore à nous de fixer les règles d’accès à ces 500 millions de personnes et c’est même à vous, parlementaires, de fixer les règles d’accès à ces 500 millions de personnes. Ça il faut que ça soit conforme à nos valeurs et à notre droit.
Donc cette question de portabilité est effectivement essentielle pour moi et elle est exemplaire. Il faut qu’on tienne sur nos concepts.

Gérard Longuet : C’est un débat assez passionnant d’un point de vue libertaire. Ce réseau est mondial et on peut poser la question à l’inverse, c’est-à-dire de quel droit on priverait les 500 millions d’Européens de la possibilité d’appartenir à un réseau mondial ?

Alexis Fitzjean O Cobhthaigh : C’est là où n’a peut-être pas été assez… En fait l’interopérabilité ne vous empêche pas d’y appartenir. Il faut bien comprendre ça. Le principe de l’interopérabilité déjà, d’une part, ça vous offre le choix entre les instances sur lesquelles vous voulez aller : si vous voulez aller sur Facebook global ou alors sur l’alternative locale. Et surtout, si vous allez sur l’alternative locale, ça vous permet même de continuer à communiquer avec les autres et de recréer éventuellement des groupes d’intérêt ; ça ne vous empêche pas de le faire. Si vous voulez aujourd’hui créer un groupe ou, au contraire, vous créer votre propre instance locale, vous pouvez très bien la dédier à un centre d’intérêt, à un loisir, à l’appartenance d’une communauté, peu importe. Ça, ça ne change pas, ça ne l’enlève pas.

Gérard Longuet : Pour prendre une image simplifiée, pour acheter une baguette de pain on n’a pas encore besoin d’Amazon, mais sous prétexte qu’Amazon est une puissance mondiale, si on explique aux Européens qu’ils ne peuvent pas accéder ou qu’ils doivent accéder à Amazon dans des conditions limitées, ça risque d’être mal compris.

Olivier Iteanu : Je pense qu’on n’est pas contre ces acteurs, on leur demande qu’ils se soumettent à notre loi, évidemment. Tout ce qu’on dit doit être couplé avec une politique publique d’incitation à l’innovation et aider les plus vertueux. On l’a dit tout à l’heure, il nous manque des alternatives, c’est évident. C’est un problème.

Franck Montaugé : Je vais donner la parole à Pierre Ouzoulias qui la demande depuis un grand moment. Je te la redonne après. Pierre.

Pierre Ouzoulias : Merci Monsieur le président. Monsieur Gonnu, j’ai entendu comme vous devant cette commission les propos d’un directeur d’une administration du gouvernement qui nous a expliqué que finalement ce qui était déterminant c’était la façon dont les fonctionnaires sur leurs bureaux pouvaient utiliser les logiciels et que s’ils allaient aujourd’hui vers des logiciels privateurs c’est qu’ils étaient plus faciles d’utilisation.
Comme je n’utilise que des logiciels libres, j’en ai tiré une grande fierté, me disant que j’étais à un niveau d’intelligence largement supérieure à celui d’un fonctionnaire, ce que j’ai apprécié ! Ce qui m’a personnellement inquiété, comme vous, je l’ai senti, c’est que finalement le critère de souveraineté n’était pas pris en compte dans les achats publics de l’État, ce qui est un souci majeur. Quand je dis « de l’État » ce n’est pas tout le monde, parce que nous avons entendu ici des membres du ministère de la Défense qui n’avaient pas du tout le même discours. Par ailleurs vous parliez du ministère de la Défense, mais dans ce même ministère la Gendarmerie a fait un choix totalement différent et pour des raisons de souveraineté.

Étienne Gonnu : Et avec grande réussite.

Pierre Ouzoulias : Et avec grande réussite, tout à fait.
Aujourd’hui, quand on achète un réfrigérateur, sur le réfrigérateur vous avez une échelle qui permet de savoir en tant que consommateur quel sera le niveau de dépense énergétique. Est-ce qu’on pourrait concevoir un système de labellisation qui me permettrait de savoir très facilement quel est le niveau de protection de ma souveraineté et de mes données personnelles ? C’est-à-dire est-ce que vous, par exemple l’April, en relation avec l’État je l’espère, vous pourriez être un organisme de certification qui pourrait donner à l’usager, ce qu’il ne peut pas faire lui-même, la compatibilité par rapport aux quatre règles que vous avez évoquées ?
Je vous donne mon expérience. Aujourd’hui, quand je vais vers un logiciel libre, je vais sur le site de l’université de Lausanne [École polytechnique fédérale de Lausanne] qui a un tableau9 très bien fait et qui me conseille en tant qu’utilisateur tel ou tel logiciel pour telle raison. J’ai regardé du côté français, je n’ai pas trouvé d’équivalent et je trouve que ça serait déjà un premier pas très intéressant. Est-ce que vous seriez capables de le faire ? Est-ce que le gouvernement serait capable de le faire ? Est-ce que le gouvernement serait capable de travailler avec vous pour le faire ? Voilà. Trois questions.

Franck Montaugé : Prend la parole qui veut pour répondre.

Étienne Gonnu : Monsieur le sénateur m’a sollicité. Sur l’aspect certification, je parle éventuellement sous contrôle du conseil de l’administration de l’association à laquelle j’appartiens, je pense que la réponse serait non parce qu’on n’a pas cette vocation-là. Je pense qu’il y a déjà des critères. Je pense que si on parle de l’utilisation d’une informatique de logiciels libres et de formats ouverts, dans le cas des logiciels libres il y a déjà une information et un critère, sans être une certification, mais qui donne une information fondamentale, c’est la licence d’utilisation qui régit l’utilisation et qui confirme le caractère libre d’un logiciel.
Finalement la question est aussi, peut-être, vers l’éducation, c’est-à-dire qu'il serait intéressant d’apprendre aux jeunes générations déjà d’avoir un esprit critique sur les technologies, comprendre ce qu’impliquent les licences d’utilisation, qu’est-ce que ça leur garantit, pourquoi ces critères et ces libertés sont fondamentales.
Au-delà de ça, c’est la difficulté quand on parle de logiciel libre : effectivement toute la population, tout le monde n’a pas vocation à être expert en informatique, à être informaticien ou informaticienne. D’ailleurs ce n’est pas indispensable que tout le monde ait cette expertise-là. J’aime bien prendre l’exemple de la liberté de la presse : elle bénéficie à toute la collectivité, elle est importante et elle est déterminante pour qu’une démocratie soit saine, pour autant tout le monde n’est pas journaliste. Tout le monde a intérêt à la protection des sources même si tout le monde n’exerce pas ce droit fondamentalement. Donc former et éduquer à avoir ce recul critique.
Par contre, ce qu’on peut former, ce sont les personnes en tant qu’utilisateurs et utilisatrices à la capacité de contribution et à interagir avec d’autres personnes pour enrichir la connaissance commune.
Sur la certification je pense qu’on a déjà des informations et peut-être qu’il serait intéressant, d'ailleurs, de former aussi les agents à comprendre ce qu’impliquent notamment les licences d’utilisation.

Après est-ce qu’il serait possible d’avoir une labellisation pour la souveraineté ? Ça me paraît difficile. Selon quels critères ? En tout cas il existe déjà des critères qui sont les licences d’utilisation et les libertés informatiques.
Je ne sais pas si d’autres personnes veulent s’exprimer. Je pense qu’il y avait une autre notion sur la portabilité. Monsieur le sénateur, vous parliez quelque part de survivance des services. Je pense qu’il y a un autre aspect qui est fondamental et peut-être qu’on n’y pense pas assez sur la souveraineté, c’est un peu aussi la mémoire, l’archivage, la mémoire informationnelle. Et là encore les formats ouverts et les licences libres sont des garanties de pérennité des logiciels. Si on pense de portabilité, la notion de pérennité des données et de pérennité des services est indispensable. Je ne peux que vous renvoyer au travail formidable…

Gérard Longuet : C’est un des sujets les plus passionnants. La mémoire est un atout ou un inconvénient. Vous êtes avocat, cher maître, la prescription existe et elle est pour la paix de la société.

Étienne Gonnu : Là aussi on peut voir, notamment pour les informations scientifiques, on perd parfois des données parce que les systèmes ne sont plus maintenus, on n’a plus l’information pour pouvoir lire les données. Ça fait partie de la pérennité. Je vais mentionner, pour ne pas l’oublier, aussi de l’Inria qui est formidable projet.

[Regards interrogatifs du président et du rapporteur]

Étienne Gonnu : Software Heritage10 qui est un projet démentiel, ils veulent construire une tour de Babel. C’est Roberto Di Cosmo qui est à l’origine de ce projet, donc Software Heritage. En gros, tout simplement, ils veulent archiver l’ensemble des codes sources jamais produits. On voit aussi l’aspect assez dingue du projet mais qui est fondamental justement en termes de mémoire informationnelle.

Franck Montaugé : Une idée d’un conservatoire.

Étienne Gonnu : Tout à fait.

Franck Montaugé : Qu’on connaît en matière technologique.

Alexis Fitzjean O Cobhthaigh : Si je peux me permettre, je souhaite réagir à votre remarque. Je pense que la mémoire est à la fois un avantage et un inconvénient. En revanche, ce que ces exemples montrent justement, c'est que le choix de nous appartenir, à nous en tant qu’être humain et en tant que société, ne doit pas appartenir à une société tierce, à la fois pour le côté avantage et à la fois pour côté inconvénient. C’est-à-dire que lorsqu’on fait des choix technologiques et que ces technologies ne sont plus supportées, surtout si ce sont des secteurs critiques, ça implique de changer ces technologies rapidement. Et c’est là où l’absence de mémoire est un inconvénient et c’est là où la mémoire est un avantage.
En revanche, effectivement, sur toutes les questions de droit à l’oubli et de droit à l’erreur, ce que vous avez mis quand vous étiez adolescent.

Gérard Longuet : Ce que vous avez dit sur la vie privée était très fort, le droit de se tromper, le secret.

Alexis Fitzjean O Cobhthaigh : Justement, c’est mon collègue qui le disait. Vous évoquez la prescription à juste titre, mais tout cela ce sont des choix qui ont été déterminés par la société et par le biais de ses représentants, par le Parlement, ça n’est pas à une entreprise de déterminer les durées de conservation de mémoires. Et c’est là, en fait, le problème, c’est là où on touche le problème.
Je crois que justement ce qu’Étienne Gonnu essayait de souligner c’est qu’en faisant certains choix, vous vous soumettez en réalité, enfin on ; quand je dis vous…

Gérard Longuet : Vous vendez votre droit d’aînesse contre un plat de lentilles. En réalité vous êtes libre d’abandonner tout cela. Tout ce que vous dites c’est un acte libre parce que vous préférez un avantage gratos plutôt que de payer quelque chose qui est un vrai service, pour certains aspects est un vrai service.
Par exemple imaginez qu’un ministre de la poste dise « moi je transporte votre courrier gratuitement, je vous demande simplement le droit de regarder vos lettres ». C’est exactement ce que font les réseaux sociaux.

Alexis Fitzjean O Cobhthaigh : Il y a deux différences fondamentales.
Ce que défend La Quadrature là-dessus c’est que ce modèle économique aujourd’hui n’est pas conforme au RGPD, c’est illégal. Une des conditions du RGPD c’est qu’un traitement de données à caractère personnel doit être licite, il doit correspondre à une finalité, il doit avoir une base légale, il y en a six dedans. Aujourd’hui ce modèle économique est fondé sur le consentement et ce consentement doit être libre, explicite et éclairé. Lorsqu’on vous dit : « C’est soit vous consentez, soit vous n’accédez pas au service », eh bien votre consentement n’est pas libre, explicite et éclairé. Et ce n’est même pas moi qui vous le dis, ce sont les lignes directrices de la CNIL, ce sont les décisions de la CNIL et ce sont les lignes directrices du G29 qui regroupe les CNIL européennes.

Gérard Longuet : À l’heure actuelle tout le monde tope sur « j’accepte ».

Alexis Fitzjean O Cobhthaigh : Oui, mais ça ce n’est pas un consentement. En fait, votre consentement n’est pas éclairé si vous cliquez sur « j’accepte » sans pouvoir comprendre.

Gérard Longuet : Non. Ce n'est pas un consentement éclairé.

Alexis Fitzjean O Cobhthaigh : C’est pour ça que la différence qu’il y a avec l’exemple du ministre que vous donnez, c’est qu’aujourd’hui c’est déjà illégal en réalité.
Et la deuxième chose, je crois que le cadre de cette audition dépasse nos choix propres, ce sont aussi des choix publics qui sont faits et qui ont été évoqués notamment dans le cas de la commande publique. Lorsque vous avez des ministères qui allouent des sommes colossales… Ce que vous évoquiez, l’intérêt des fonctionnaires sur place, effectivement c’est vrai, mais en réalité si on allouait ces sommes d’une part à la formation et d’autre part, l’avantage du logiciel libre c’est que ça permet à l’administration de modifier le logiciel en fonction de ses besoins ou de recourir à un prestataire pour le faire ; l’exemple de la décision du Conseil d’État de 2011 le montre. C’est ça, en réalité, le sujet auquel on touche ici. C’est une question de choix politiques : est-ce qu’on alloue ces sommes qui représentent plusieurs dizaines ou centaines de millions d’euros sur quelques années à la formation et au fait de développer des logiciels qui soient utiles à l’administration et, au-delà, à la société ? Ou est-ce qu’on les alloue dans l’achat ou dans la location de solutions propriétaires ? Et si on le fait à quel prix ? Parce que le problème du logiciel propriétaire, encore une fois, c’est que le code est fermé. En réalité vous ne savez pas ce qu’il fait, vous savez uniquement ce qu’il veut bien vous montrer. Et lorsque vous utilisez ce type de logiciels dans des ministères sensibles ou critiques, qu’est-ce qui ne vous dit qu’il n’y a pas en réalité une porte dérobée ? Tout cela est une question de confiance. On peut lui faire confiance peut-être, mais peut-être pas !

Olivier Iteanu : En quelques mots sur la question du logiciel libre, je pense que c’est vraiment dans le sujet de la souveraineté numérique, pour le coup. Très clair ! Vous citiez le secteur public, sachez par exemple qu’une organisation comme le Cigref, je ne sais pas si vous avez eu l’occasion de les entendre, le Club informatique des grandes entreprises françaises, je ne sais pas si c’est toujours le développement de l’acronyme, mais l’acronyme Cigref est toujours là, ce sont 150 DSI [Directeurs des systèmes d'information] des premières grandes entreprises de France. Ils se sont regroupés et ils ont créé des groupes de travail par fournisseur, Microsoft évidemment, Oracle, SAP, je crois qu’il y a Google bien sûr. Il y a quelque temps ils ont créé un groupe de travail sur le logiciel libre parce qu’évidemment eux sentent la pression des grands éditeurs, donc vous voyez, même le secteur privé le fait.
Un point là-dessus, quand même, puisqu’on parlait tout à l’heure de l’interopérabilité des services, nous avons eu une expérience à titre personnel sur les logiciels libres. Il y a quelques années on avait fait le choix d’Open Office, on a été obligés d’abandonner : lorsqu’on interopérait avec nos clients, qu’on envoyait des fichiers et qu’eux étaient Word de Microsoft, eh bien malheureusement il y avait un certain nombre de difficultés qui se posaient chez le client parce que ça intéropérait mal, vous voyez, ce qui a été dit tout à l'heure. Et ce n’était pas la difficulté du logiciel, c’était le problème que l’effet club n’y était pas.

Gérard Longuet : Juste une remarque. Ces mentions de vos associations sont passionnantes parce que l’exemple que vous avez donné du Cigref je le connais à peu près convenablement. Les clubs d’utilisateurs des grands logiciels, des grands progiciels standards, ont justement pour objet d’équilibrer le rapport de forces entre les vendeurs et les utilisateurs. Les utilisateurs acquièrent un certain poids parce qu’ils sont prescripteurs, tandis que ce dont nous parlons ce sont souvent des relations entre des particuliers et un grand système et là, évidemment, le particulier est totalement désarmé sauf lorsqu’il y a une action collective, symbolique d’ailleurs, parce que j’imagine que vous ne pouvez pas tout évoquer, mais le simple fait que ça existe peut interpeller et les uns et les autres, et les fournisseurs et les particuliers.

Franck Montaugé : Je vais peut-être, avant de terminer, vous poser personnellement une question tout en vous remerciant pour cet échange extrêmement riche.
Vous avez donné une dimension politique et sociétale extrêmement forte, extrêmement importante par rapport au sujet qui intéresse notre commission d’enquête. Nous avons reçu il y a quelques semaines un philosophe de la technique, que vous devez certainement connaître, qui s’appelle Bernard Stiegler et qui en appelle à un « web néguentropique », considérant que la manière dont les choses se développent aujourd’hui, à partir de ces outils, va plutôt dans un sens de déconstruction, qui peut d’ailleurs toucher l’être humain lui-même, que d’élévation vers le mieux.
Vous nous avez fait des propositions. Est-ce que vous considérez que ces propositions vont dans le sens d’un Web qui serait, justement, néguentropique et finalement d’une adaptation du capitalisme, parce que c’est aussi de ça dont il s’agit, que l’on qualifie de 2.0, je crois que c’est comme ça qu’on dit aujourd’hui, allant jusqu’à englober les problématiques universelles auxquelles on est confronté aujourd’hui, j’ai en particulier en tête tout ce qui touche au climat et aux différentes transitions auxquelles le genre humain aujourd’hui est confronté ?
J’ai beaucoup apprécié, en tout cas ça va nourrir ma propre réflexion, ce que vous avez dit sur les plateformes, sur leur échelle, qui finalement aujourd’hui détruisent plus qu’elles ne créent de valeur intrinsèque, je ne parle pas de valeur monétaire. C’est à partir de cette remarque-là et de cette proposition-là que j’en viens donc à formuler cette question.

Stiegler lui-même, dans un de ses écrits, il ne nous l’a pas dit l’autre jour, en est allé jusqu’à penser qu’il fallait sauver le capitalisme de lui-même, parce qu’il n’y a pas d’alternative, à priori en tout cas à ce stade mais on pourrait en discuter, en tout cas immédiat et rapide.
Est-ce que vos réflexions et vos propositions considérées d’un point de vue presque philosophique et éthique vont dans ce sens-là ? Est-ce que j’ai bien compris les propos que vous avez exprimés, qui sont très riches et qui méritent d’être médités ? Merci.

Axel Simon : Merci beaucoup Monsieur le président pour cette question qui est profonde et qu’on n’aura certainement pas le temps de traiter en cinq minutes, mais qui ouvre des pistes très intéressantes.
Un premier point qu’il me semble important de rappeler c’est que le système économique capitaliste a la capacité d’absorber à peu près tout et n’importe quoi pour l’intégrer à son système et continuer à faire fonctionner son système. J’ai eu la chance de faire des études d’économie à Dauphine, donc j’ai étudié ça et il me semble, si je ne trompe pas, qu’un des buts principaux du système capitaliste c’est de promouvoir le profit comme élément qui permet d’aller de l’avant. On vise le profit avec cette idée qu’en visant cela on aura d’autres choses bénéfiques par la suite.
On semble atterrir à un stade à l’heure actuelle, et c’est peut-être plus ma conviction personnelle, où ça atteint clairement des limites.
J’ai entendu parler plusieurs fois de choses comme du capitalisme de surveillance. En fait, la surveillance en elle-même devient une source de profit et on le voit dans les systèmes dont on parlait là. Je vais en revenir à ça, mais je pense que vraiment cette question d’échelle est assez fascinante. On voit des échelles qui sont destructrices et qui sont prêtes à incorporer tout et n’importe quoi parce qu’on est sur une addition des comportements individuels qui est telle que les masses deviennent vraiment intéressantes à plein d’échelles, en termes d’informations sur la population, en termes de possibilités de la manipuler, en termes de profits qu’on peut en tirer, en termes de base à partir de laquelle on peut construire encore une autre prise de pouvoir ou de domination. Toutes ces dimensions-là font que ces systèmes-là ont intérêt à perdurer. Une de questions que vous posiez tout à l’heure était quelle était la durée de vie de ces réseaux ? Moi aussi pendant un moment je me disais « on a eu Friendster, puis on a eu Myspace, maintenant on a Facebook ça passerait bien à un moment », sauf que ça atteint des échelles qu’on n’a jamais vues au préalable. En fait, tout ceci est très récent dans l’histoire de l’humanité. Un réseau qui permet d’inter-lier deux milliards de personnes, qui est géré par environ 30 personnes aux États-Unis, à ma connaissance ça n’a jamais eu lieu. C’est complètement nouveau et complètement à part dans cette dimension pure.
C’est évidemment aussi pourquoi, à mon avis, ces acteurs-là essayent absolument de nous expliquer qu’ils sont des plateformes neutres, qu’ils ne sont qu’une forme d’infrastructure, qu’ils ne sont là que pour interconnecter les gens, qu'ils ne cherchent pas spécialement à en tirer un bénéfice. Certes, ils le font presque sur le côté, mais c’est presque un état de fait, ce n’est pas vraiment leurs choix ! Alors qu’en fait c’est l’inverse. Leurs choix sont guidés par le fait d’en tirer un bénéfice immédiat et personnel, parfois quitte à détruire des choses dans la vie des personnes qu’ils vont manipuler. Le nombre de scandales auxquels Facebook est exposé ce n’est même plus drôle ; il y a une liste qui est telle qu’on revient dedans en se disant « je l’avais oublié celui-là, il était intéressant », pourtant c'était il n’y a que huit mois. C’est incroyable ! Il y a des enfants qui ont été encouragés à dépenser l’argent de la carte bancaire de leurs parents pour pouvoir avoir des espèces de petits objets de collection électroniques, enfin informatiques ; ça va quand même très loin !

Tout ça pour dire que la dimension est clairement quelque chose qui met à part. On a connu avant une autre forme de l’Internet, qui était nettement moins centralisé, où on n’était pas forcément tous sur des réseaux centralisés, on n’était pas obligé de tous se parler par mail, par Gmail ou par Hotmail, mais on avait beaucoup plus de variété. On a connu ça, on sait que ça fonctionne ; ça donne des choses différentes, mais c’est difficile de comparer parce que les deux époques ont aussi une différence en termes de technologie qui est telle qu’une version à nouveau décentralisée d’Internet, telle qu’on l’a connue dans les années 90 en général, appliquée maintenant avec les technologies modernes, donnerait forcément quelque chose de différent et de plus proche de ce qu’on a maintenant. Mais on sait que c’est possible, on sait que ça existe.
La question c’est dans quelle mesure on se donne une volonté de retourner vers ça en essayant de contraindre les gros acteurs peut-être à accepter les petits acteurs, à les empêcher de les racheter, à les forcer à jouer le jeu avec eux et à laisser la possibilité aux gens de faire le choix d’aller à différents endroits ? Ou est-ce qu’on abandonne ça et on considère que c’est perdu et qu’Internet, maintenant, c’est un régime d’oligopole et on abandonne cette idée ?

Olivier Iteanu : Monsieur le ministre évoquait tout à l’heure une image biblique, celle du plat de lentilles contre le droit d’aînesse. J’en ai une autre. Je pense que notre société est fondée sur, on va dire, trois piliers qui sont la vérité et la justice qui mènent à la paix. Si on ne contrôle pas, si on ne protège pas la liberté d’expression des abus, des appels au meurtre, etc., on n’aura pas la paix. Si on fait de la société une société d’ultra-surveillance, on n’aura pas la paix.
Donc au-delà du terme « souveraineté numérique », parce que ce terme « souveraineté » est connoté politiquement, malheureusement !, on est d’accord, on n’est pas d’accord avec ce mot, mais derrière ce sont des enjeux de paix que vous traitez. Je crois qu’il faut vraiment en avoir conscience.

Franck Montaugé : Monsieur Gonnu, très rapidement.

Étienne Gonnu : Sur la question de la centralisation. Internet, c'était sa première promesse, s’est construit sur un réseau distribué, acentré, sans centre, ce qui évitait justement qu’il y ait des nœuds de pouvoir qui se créent, qui ont pris là une ampleur absolument démentielle. Il ne faut pas que la puissance des pouvoirs publics capitule face à cela, malheureusement dans les textes actuels – que ce soit contre la haine sur Internet, sur le droit d’auteur, sur le règlement antiterroriste, sur la loi contre les fausses informations – on a quand même l’impression qu’il y a une forme de capitulation face à ces grandes plateformes. On admet qu’elles ont un pouvoir total sur leurs utilisateurs, sur leur territoire numérique, et finalement on leur délègue des prérogatives de puissance publique.
Je pense qu’il y a une réponse qui est ancienne, qui date de bien avant le numérique, c'est celle des moyens qu’on alloue notamment à la justice, qu’on alloue aux administrations. Elle est aussi là la réponse. Il ne faut pas qu’il y ait de capitulation. Il faut cesser de passer par des textes qui vont finalement renforcer, en fait, les phénomènes de centralisation. C’est très complexe et je ne dis pas que de notre côté, en France, on va pouvoir déconstruire tout un réseau mondialisé. Mais un réseau mondialisé acentré est possible et il faut éviter de renforcer les phénomènes de centralisation, ne serait-ce qu’en arrêtant de passer des lois qui, finalement, délèguent volontiers l’application de la justice à des plateformes hégémoniques.

Franck Montaugé : Merci.

Gérard Longuet : Je serais demandeur si vous pensez pouvoir le faire, si vous l'aviez, d’une petite note sur l’organisation internationale des usagers que vous êtes ici. Savoir s’il y a des organisations et quel est leur poids respectif aux États-Unis, en Angleterre, en Europe. Ça m’intéresserait de savoir s’il y a une force qui s’organise.

Franck Montaugé : D'accord. Monsieur Fitzjean.

Alexis Fitzjean O Cobhthaigh : Juste très rapidement parce que beaucoup de choses ont été déjà dites, mais votre question est extrêmement intéressante et extrêmement complexe. C’est extrêmement transversal, sur plein de sujets : la philosophie, l’économie, l’histoire, le juridique ; on pourrait probablement faire au moins une thèse voire plusieurs thèses dessus, mais en deux points.
Ça renvoie déjà à cette idée de : est-ce que la technologie est neutre ou pas ? Et clairement la technologie n’est pas neutre. La conception de la technologie induit des choix d’utilisation, donc a une influence concrète et directe sur la manière dont ensuite on interagit avec elle. Donc le fait de choisir une technologie acentrée ou centrée a, derrière, des conséquences. Et la manière dont le Web a été pensé et créé dans les années 90 par son inventeur, c’était une manière acentrée. Pourquoi ? Parce que ça été fondé sur l’hyperlien, le fait de pouvoir cliquer sur un lien, d’aller sur une autre ressource et de ne pas avoir toutes les ressources au même endroit.
La deuxième chose pour répondre à votre question sur le capitalisme : souvent, je considère qu’en réalité capitalisme et libéralisme ça n’est pas la même chose, ce sont des choses différentes. Je préfère parler plutôt de libéralisme. Lorsqu’on regarde les conditions classiques, économiques, du libéralisme, on voit qu’il y a notamment les conditions de la transparence de l'information, l’atomicité des producteurs, l’atomicité des consommateurs, etc. En réalité le droit de la concurrence est pensé, sa finalité c’est justement de conserver ces conditions-là parce qu’on considère dans la théorie classique libérale que ces conditions sont les meilleures de manière à satisfaire la consommation.
On peut en penser ce qu’on veut mais aujourd’hui je constate qu’on est dans ce modèle de pensée et en réalité, lorsqu’on va jusqu’au bout, on peut considérer que l’interopérabilité a justement pour effet, de même que le droit à la concurrence, de conserver ces conditions-là, parce que ça permet d’avoir une véritable liberté de choix et pas uniquement un pouvoir concentré sur quelques acteurs. Et c’est pour ça que je pense, alors capitalisme je ne sais pas, mais en tout cas je crois que ces propositions-là peuvent très bien, comme le disait tout à l’heure mon collègue, s’intégrer dans le libéralisme, en tout cas ne le remettent pas en cause ; au contraire, ça vient offrir une dose de liberté plus importante.
Après, ça n’a aucun jugement de valeur sur le bien fondé ou non de ces théories, mais il me semble qu’elles se marient bien entre elles.

Gérard Longuet : Je vous rassure, pour tout capitaliste c’est le monopole pour ses ventes et la concurrence pour son approvisionnement !

Franck Montaugé : Merci à vous. Merci beaucoup.

Oubliez Firefox Quantum, dîtes plutôt Firefox Browser

La fondation Mozilla va proposer de la sortie de la version 70 de son navigateur, prévue pour octobre, pour modifier le nom de son navigateur. Le nom "Firefox Quantum" va devenir "Firefox Browser", browser signifiant "navigateur" cela semble beaucoup plus cohérent.

Accompagné d'un nouveau logo, l'objectif est de mieux différencier et harmoniser les services proposés par Mozilla autour de Firefox et peu connu pour certains. Je rappelle que Mozilla propose Firefox Send pour envoyer des fichiers mais également Firefox Monitor pour savoir si vos comptes sont concernés par une éventuelle fuite de données.

Le nom Firefox Quantum était utilisé depuis la version 57 de Firefox, ce qui sera de l'histoire ancienne à partir du 22 octobre 2019 prochain.

Sortie du bureau léger Xfce 4.14

Xfce est un bureau léger pour UNIX. Son principal avantage est d’être « normal » : un menu pour lancer des applications, une barre de tâches, un gestionnaire de fichiers, un panneau de configuration… Il ne cherche pas à révolutionner le bureau, à en mettre plein la vue ou à supprimer des fonctionnalités à chaque version.

Après plus de quatre années de développement, la version 4.14 remplace la version 4.12.

Captures d’écran

Capture Xfce 4.14

Capture Xfce 4.14

GTK

Le passage de GTK 2 à GTK 3 et de D-Bus GLib à GDBus étaient les objectifs de cette nouvelle version qui ont demandé beaucoup d’efforts.

Nouveautés

Le gestionnaire de fenêtres gère maintenant la synchronisation verticale, les écrans à haute résolution (HiDPI) et a un nouveau thème par défaut.

Le gestionnaire de fichiers, Thunar, propose maintenant des énormes et gigantesques vignettes et une navigation au clavier plus complète. Les gens qui stockent de la musique ou des photos de poneys furieux seront contents de pouvoir changer la vignette d’un dossier en mettant simplement un fichier folder.jpg à la racine pour faire apparaître la pochette d’un album photo ou une image de poney arc-en-ciel.

Le service de notification a maintenant un mode « Ne pas déranger » pour ne plus voir les invitations à discuter avec des Polonaises ou les insultes du chef qui râle, car la production est cassée.

Enfin, le projet s’est doté de son propre économiseur d’écran.

Télécharger ce contenu au format Epub

Commentaires : voir le flux atom ouvrir dans le navigateur

Nextcloud 17 beta : disponibilité, téléchargement, éditeur TEXT

On apprenait en juillet dernier l'arrivée d'un éditeur de texte collaboratif dans la prochaine version du nuage open source Nextcloud. La version 17 est en approche. La première bêta vient de sortir.
La semaine dernière, les développeurs ont appuyé sur le bouton "feature freeze". Il n'y aura donc plus de nouveautés en attendant la sortie de Nextcloud 17 à la rentrée prochaine. L'idée de cette série de versions bêta est de vous proposer de tester le nouvel environnement avant sa sortie officielle fin août (...)

- Applications