Mardi 22 mars 2016

Mardi 22 mars 2016
«The Code is Law»
Lawrence Lessig
Dans mon butinage sur l’influence et les incidences des GAFA sur nos vies et notre quotidien je suis tombé à de nombreuses reprises sur un renvoi vers un article de 2000 écrit par Lawrence Lessig : «The code is Law», «le code est Loi».
Tous ces renvois parlaient d’un article fondamental.
Framasoft dont l’objectif est une dégoogilisation de l’internet a publié sur son site une traduction française de cet article.
Lawrence Lessig est un état-unien, né en 1961. Il est  juriste, professeur de droit à Harvard. Spécialiste de droit constitutionnel et du droit de la propriété intellectuelle, il se veut un défenseur de la liberté. Wikipedia prétend qu’ «Il est l’une des voix les plus écoutées dans les débats sur les limites du droit d’auteur et sur le développement mondial de l’Internet.»
Dans cet article, il décrit comment le code informatique, ce qui constitue le matériel créatif du monde numérique, influe sur les règles et au sens le plus formel sur la Loi qui s’impose à nous.
Il écrit notamment :
« À chaque époque son institution de contrôle, sa menace pour les libertés. Nos Pères Fondateurs craignaient la puissance émergente du gouvernement fédéral ; la constitution américaine fut écrite pour répondre à cette crainte. John Stuart Mill s’inquiétait du contrôle par les normes sociales dans l’Angleterre du 19e siècle ; il écrivit son livre “De la Liberté” en réaction à ce contrôle. Au 20e siècle, de nombreux progressistes se sont émus des injustices du marché. En réponse furent élaborés réformes du marché, et filets de sécurité. Nous sommes à l’âge du cyberespace. Il possède lui aussi son propre régulateur, qui lui aussi menace les libertés. Mais, qu’il s’agisse d’une autorisation qu’il nous concède ou d’une conquête qu’on lui arrache, nous sommes tellement obnubilés par l’idée que la liberté est intimement liée à celle de gouvernement que nous ne voyons pas la régulation qui s’opère dans ce nouvel espace, ni la menace qu’elle fait peser sur les libertés.
Ce régulateur, c’est le code : le logiciel et le matériel qui font du cyberespace ce qu’il est. Ce code, ou cette architecture, définit la manière dont nous vivons le cyberespace. Il détermine s’il est facile ou non de protéger sa vie privée, ou de censurer la parole. Il détermine si l’accès à l’information est global ou sectorisé. Il a un impact sur qui peut voir quoi, ou sur ce qui est surveillé. Lorsqu’on commence à comprendre la nature de ce code, on se rend compte que, d’une myriade de manières, le code du cyberespace régule.
Cette régulation est en train de changer. Le code du cyberespace aussi. Et à mesure que ce code change, il en va de même pour la nature du cyberespace. Le cyberespace est un lieu qui protège l’anonymat, la liberté d’expression et l’autonomie des individus, il est en train de devenir un lieu qui rend l’anonymat plus difficile, l’expression moins libre et fait de l’autonomie individuelle l’apanage des seuls experts.
Mon objectif, dans ce court article, est de faire comprendre cette régulation, et de montrer en quoi elle est en train de changer. Car si nous ne comprenons pas en quoi le cyberespace peut intégrer, ou supplanter, certaines valeurs de nos traditions constitutionnelles, nous perdrons le contrôle de ces valeurs. La loi du cyberespace – le code – les supplantera. […]
Mais rien n’est plus dangereux pour l’avenir de la liberté dans le cyberespace que de croire la liberté garantie par le code. Car le code n’est pas figé. L’architecture du cyberespace n’est pas définitive. L’irrégulabilité est une conséquence du code, mais le code peut changer. D’autres architectures peuvent […] rendre l’usage du Net fondamentalement contrôlable. […]Ce qui rend le Net incontrôlable, c’est qu’il est difficile d’y savoir qui est qui, et difficile de connaître la nature des informations qui y sont échangées. Ces deux caractéristiques sont en train de changer : premièrement, on voit émerger des architectures destinées à faciliter l’identification de l’utilisateur, ou permettant, plus généralement, de garantir la véracité de certaines informations le concernant (qu’il est majeur, que c’est un homme, qu’il est américain, qu’il est avocat). Deuxièmement, des architectures permettant de qualifier les contenus (pornographie, discours violent, discours raciste, discours politique) ont été conçues, et sont déployées en ce moment-même. Ces deux évolutions sont développées sans mandat du gouvernement ; et utilisées conjointement elles mèneraient à un degré de contrôle extraordinaire sur toute activité en ligne. Conjointement, elles pourraient renverser l’irrégulabilité du Net.
Tout dépendrait de la manière dont elles seraient conçues. Les architectures ne sont pas binaires. Il ne s’agit pas juste de choisir entre développer une architecture permettant l’identification ou l’évaluation, ou non. Ce que permet une architecture, et la manière dont elle limite les contrôles, sont des choix. Et en fonction de ces choix, c’est bien plus que la régulabilité qui est en jeu.
[…] Ainsi, le fait que l’architecture de certification qui se construit respecte ou non la vie privée dépend des choix de ceux qui codent. Leurs choix dépendent des incitations qu’ils reçoivent. S’il n’existe aucune incitation à protéger la vie privée – si la demande n’existe pas sur le marché, et que la loi est muette – alors le code ne le fera pas. […] Si c’est le code qui détermine nos valeurs, ne devons-nous pas intervenir dans le choix de ce code ? Devons-nous nous préoccuper de la manière dont les valeurs émergent ici ?
[…] Ce n’est pas entre régulation et absence de régulation que nous avons à choisir. Le code régule. Il implémente – ou non – un certain nombre de valeurs. Il garantit certaines libertés, ou les empêche. Il protège la vie privée, ou promeut la surveillance. Des gens décident comment le code va se comporter. Des gens l’écrivent. La question n’est donc pas de savoir qui décidera de la manière dont le cyberespace est régulé : ce seront les codeurs. La seule question est de savoir si nous aurons collectivement un rôle dans leur choix – et donc dans la manière dont ces valeurs sont garanties – ou si nous laisserons aux codeurs le soin de choisir nos valeurs à notre place.
Car c’est une évidence : quand l’État se retire, la place ne reste pas vide. Les intérêts privés ont des objectifs qu’ils vont poursuivre. En appuyant sur le bouton anti-Étatique, on ne se téléporte pas au Paradis. Quand les intérêts gouvernementaux sont écartés, d’autres intérêts les remplacent. Les connaissons-nous ? Sommes-nous sûrs qu’ils sont meilleurs ?
Notre première réaction devrait être l’hésitation. Il est opportun de commencer par laisser le marché se développer. Mais, tout comme la Constitution contrôle et limite l’action du Congrès, les valeurs constitutionnelles devraient contrôler et limiter l’action du marché. Nous devrions examiner l’architecture du cyberespace de la même manière que nous examinons le fonctionnement de nos institutions.
Si nous ne le faisons pas, ou si nous n’apprenons pas à le faire, la pertinence de notre tradition constitutionnelle va décliner. Tout comme notre engagement autour de valeurs fondamentales, par le biais d’une constitution promulguée en pleine conscience. Nous resterons aveugles à la menace que notre époque fait peser sur les libertés et les valeurs dont nous avons héritées. La loi du cyberespace dépendra de la manière dont il est codé, mais nous aurons perdu tout rôle dans le choix de cette loi.»
Lawrence Lessig – janvier 2000 – Harvard Magazine
(Traduction Framalang  : Barbidule, Siltaar, Goofy, Don Rico)
Rappelons que ce texte date d’il y a 16 ans. Il est largement prémonitoire parce que le monde numérique a énormément changé depuis.
La démocratie et donc nous le peuple ne pouvons-nous désintéresser du code, de ce que l’on fait avec, des valeurs qui sont induites par ce qui est codé.
Notre futur et nos libertés en dépendent.
Cela rejoint largement les réflexions menées autour des GAFA.
Un exemple que j’ai entendu récemment peut essayer d’éclairer cette réflexion que certains trouvent peut être très (trop)  conceptuel.
La Google car se comporte exactement selon la manière dont elle a été codée. Tous les gens compétents disent qu’elle va conduire beaucoup mieux que n’importe quel humain. Toutefois, elle sera confrontée à des problèmes très difficiles.
Voici une Google car qui roule à 50 km/h en ville, brusquement un enfant jaillit devant la voiture en courant après un ballon. C’est un cas de force majeure.
Je suppose que tous les humains qui calculent lentement et sont très intuitifs vont instinctivement freiner à fond sans réfléchir.
La machine n’est pas intuitive mais calcule très vite et connait parfaitement les conséquences normales de son action.
Elle aura une première injonction : ne pas freiner trop vite sinon la voiture peut faire une embardée et blesser le conducteur et une seconde injonction freiner suffisamment pour ne pas entrer en collision avec l’obstacle qui vient d’apparaître.
Donc le code devra dire : est-ce que la priorité est d’éviter de blesser l’enfant ou de blesser le conducteur et si selon son calcul il est prévisible que l’un ou l’autre sera blessé. Il faut coder ​ce choix.
Cas un peu particulier mais qui montre qu’avec un robot on doit répondre aux questions et répondre aux questions ce ne sont pas que des problèmes techniques, ce sont aussi des valeurs.
Ce texte de Lessing appartient désormais à la culture générale de l’honnête homme du XXIème siècle.
Je vous redonne le lien vers le texte dans son intégralité : La traduction française de cet article.
<670>