N° 282 - Été 2022
- Michael Maier, Un Rosicrucien à la cour des Habsbourg, par A. Marbeuf
- Hasard et Informatique, par L. Loiseau
- Alchimiste, par S. Valcourt
- Réflexions sur la téranga, par A. Nanga
- La voie du milieu, par P. Deschamps
- L’escargot, ce guide spirituel, par A. Gournet
- Documents d’Archives de l’A.M.O.R.C. : La véritable et parfaite préparation de la pierre philosophale de la fraternité de l’Ordre de la Rose-Croix d’Or
N° 281 - Printemps 2022
- Francis Bacon, le chancelier rosicrucien, par A. Marbeuf
- L’holomatière, l’esprit au coeur de la matière, par M. Armengaud
- La spiritualité et ses pièges, par M. Schuermans
- La musique dans le règne animal, par F. Billieux
- L’émotion esthétique, une voie d’accès au Sacré, par M. Auzas-Mille
- Hypatie, une étoile dans le ciel d’Alexandrie, par J. Dejean
Hasard et informatique
par Lionel Loiseau conférencier de l’U.R.C.I. section Informatique
Si l’homme, à la différence des autres espèces, possède une capacité distinctive à se projeter dans le futur, à spéculer sur les risques, mais aussi sur d’hypothétiques récompenses, il existe, dans toute décision ou action humaine, une part irréductible de hasard qui le ramène inéluctablement à sa finitude et à son ignorance. Tel le néant d’où il semble surgir, le hasard est un concept évanescent à toute définition, qui se retire au fur et à mesure que l’on s’en approche. En creux et à rebours, il peut être défini comme la source d’événements qui pourraient être intentionnels mais qui ne le sont pas. Sans causes ni intentionnalité, il nous laisse démunis sans possibilité de prévenir ni de prédire. Il paraît toiser notre niveau d’inconnaissance, de discernement et même d’imagination.
Alors, parce que cela nous rassure, nous nous persuadons que « le hasard fait bien les choses ». Nous utilisons des expressions toutes faites telles que « marcher au hasard », « se rencontrer par hasard », « les dés sont jetés », qui nous dédouanent, dans notre quotidien, d’une responsabilité insoutenable et nous renvoient tour à tour à des notions de « fortune », de « destin », c’est-à-dire à une part d’inconnu qui va bien au-delà de nos connaissances, de nos compétences, de nos certitudes, et de nos capacités. L’origine du mot « hasard » est attribuée à l’arabe « az-zahr, رهزلا ». Le mot désignait initialement un jeu de dés mais aussi, par métaphore, tous les domaines relevant de la « science de la chance ». Progressivement, le hasard, à la différence de la chance, s’est teinté de danger, déjà perceptible dans le mot « hasardeux », évoquant des risques irréfléchis et l’aventure téméraire. Ce sens additionnel est celui du mot anglais « hazard » qui se traduit par « risque » ou par « péril ».
Nous allons tenter de parer ce hasard fuyant de quelques prédicats, assurément contestables, selon nos convictions et présupposés les plus intimes, et aussi nos sensibilités les plus profondes. Puis, nous allons exposer comment la science moderne, et plus précisément l’informatique, tente d’apprivoiser son imprédictibilité et de repousser ses frontières, mais au détriment de nos latitudes quotidiennes. En chemin, nous croiserons le prodigieux Blaise Pascal, tour à tour, inventeur, mathématicien et philosophe.
Considérations sur le hasard
L’homme est tenu de suivre la flèche du temps qui part du passé vers le futur, des causes à leurs conséquences. Ainsi, Antoine Augustin Cournot, mathématicien et philosophe du XIXe siècle, définissait le hasard comme la « rencontre de deux séries causales indépendantes ».
Pour l’illustrer, prenons le sort malheureux du dramaturge grec, Eschyle, tué par un rapace – probablement un gypaète barbu – ayant, selon la légende, précipité depuis le ciel une tortue sur son crâne. La tortue lui est littéralement « tombée dessus par hasard », nous rappelant ainsi que le mot « chance » tire son étymologie du verbe latin « cadere » ayant engendré « choir », « chute » ou l’intentionnelle « méchanceté ». Le vautour s’était probablement perfectionné à lâcher des tortues pour les fracturer et les dévorer plus aisément. Eschyle, quant à lui, ne pouvait pas rester éternellement cloîtré chez lui. C’est donc la rencontre fortuite, et en l’occurrence funeste, cinématique et concomitante, de deux événements, de deux trajectoires, de deux causes indépendantes quoique concevables, qui a provoqué la mort du malheureux.
Notons que cette conception accidentelle du hasard en exclut toute finalité, toute tentative d’interprétation et tout pronostic sur le futur. Ce hasard-là est tout aussi aveugle que pourrait l’être l’amour. Il échappe à la raison, à la proportion. Il ne peut être que subi, intuitivement admis, et accepté avec résignation.
Dans l’analyse des faits passés, Henri Bergson avance toutefois l’idée – contre-intuitive – que pour un homme « l’enchaînement mécanique des causes et des effets » ne prend le nom de « hasard » que s’il s’y sent impliqué. Autrement dit, qu’un gypaète précipite des tortues est une curiosité dont on ne disserterait pas outre mesure. Mais qu’une tortue heurte précisément la tête d’un célèbre tragédien mérite quant à elle l’appellation de « hasard ». L’accident devient en quelque sorte coloré d’un effet qui lui confère une part de mystère, voire une intention profonde, comme si, finalement, tout était écrit par avance. Parce qu’après tout, l’intentionnalité du hasard est intimement associée à la finalité de l’homme dans l’univers. Si le hasard, qu’il soit naturel ou divin – peu importe à ce stade – n’avait vraiment aucun but, comment l’homme, l’humanité, le vivant, dans leur ensemble, pourraient-ils être susceptibles d’en avoir un ?
Il est vrai que l’homme a une particularité cognitive à vouloir – et à pouvoir – identifier des structures signifiantes même dans des productions aléatoires telles que des paysages, des nuages, de la fumée, ou même encore dans des taches d’encre (prenons l’exemple du test de Rorschach). Ainsi, la plupart d’entre nous vont être en mesure de discerner un visage dans un relief martien alimentant ainsi l’hypothèse d’une potentielle vie extraterrestre. Des objets vont pouvoir être humanisés. Une prise murale peut ainsi facilement évoquer un visage souriant. Les films d’animation, ou encore les développeurs de produits commerciaux, l’ont bien compris. La science s’est aussi emparée de cette particularité. La psychologie y voit un phénomène intéressant, baptisé « paréidolie », susceptible d’alimenter des biais de confirmation, certaines visions mystiques ou iconiques. Ainsi, en 2004, un toast sur lequel était perçu le visage de la Vierge Marie a été vendu pour 28 000 dollars. L’« apophénie », quant à elle, relève de la pathologie psychiatrique. Elle altère la perception conduisant à attribuer des sens particuliers à des événements anodins accréditant certaines thèses complotistes.
Dans le prolongement de cette intention prêtée au hasard, surgit alors la prédestination. Si le résultat est plutôt funeste, celle de la « fatalité », avec son lot de « mauvais sorts », voire même de « malédictions », la « veine », la « bonne étoile », ou la « bonne fortune » seront, quant à elles, plus propicement orientées. Quant à la « providence », naturelle, divine, ou étatique, si elle prête aussi aux événements une intention, issue d’un dessein intelligent, elle s’oppose diamétralement à celle du hasard que rien a priori ne gouverne. « Le hasard, c’est l’ombre de Dieu », prétend un proverbe. Le glissement du hasard vers la providence devient le même, sur un fond d’angoisse existentielle, que celui de l’ignorance vers la foi. La providence véhicule une promesse de récompense que n’assume pas le hasard, même si « la chance sourit aux audacieux ».
Infantilisés par la perte de la prévisibilité de notre futur, par la difficulté de nous y projeter, déchus de notre piédestal de vanité où le destin nous aurait prétendument placés au sommet de la création, nous en sommes ainsi conduits à nous déclarer tour à tour résolument « chanceux », « optimistes », ou « pessimistes », considérant toutefois que le « suroptimisme » est un biais cognitif et émotionnel pouvant conduire à des décisions « hasardeuses ».
Nous pourrions aussi penser que le vrai hasard ne se répète pas. À la différence du facteur, il ne sonne jamais deux fois. Il est « semelfactif », totalement libre, impromptu, irresponsable, contingent, puissant et irrévocable, cela parce que les répétitions suscitent l’espoir d’apprivoiser les événements. Dès lors qu’une manifestation se produit au moins deux fois – devenant ainsi récurrente – nous spéculons sur sa reproductibilité, écartant l’hypothèse du vrai hasard aveugle. Nous en recherchons les chaînes causales et les circonstances. Les itérations nous font l’apprivoiser et l’entrer dans le domaine des séries, des probabilités, des moyennes, des « espérances » mathématiques, des intervalles de « confiance », et éventuellement dans celui des lois des grands nombres. « L’accumulation met fin à l’impression de hasard », nous dit Freud.
C’est ainsi, parce que la prédictibilité du futur s’accorderait bien de l’explicabilité du passé, que l’homme ne peut pas s’empêcher de rechercher les causes et les lois qui gouvernent les événements, surtout s’ils sont tragiques, et de se demander si cela aurait pu se passer autrement. Dans cette quête, le mathématicien suisse du XVIIe siècle, Jacques Bernouilli, soutenait que le hasard n’existait pas, qu’il naissait de notre ignorance : « L’incertitude n’est pas dans les choses, mais dans notre tête : l’incertitude est une méconnaissance. »
Dans notre vie ordinaire, nous prenons des décisions « au hasard », dans un brouillard cognitif, ou tout simplement parce que l’effort de collecte d’informations additionnelles pourrait être prohibitif, même au regard de notre aversion au risque. Ainsi, en est-il des transactions les plus courantes. Quant à des décisions plus exceptionnelles, elles portent elles-mêmes leur part de hasard. Ainsi, dans une forme de capitulation, et d’oscillation entre raison raisonnante et intuition, nous finissions par nous en remettre à cette dernière, peu convaincus, par nous « jeter à l’eau », et à prendre des décisions, « au petit bonheur la chance », exprimant ainsi notre « liberté d’indifférence ».
Bien informés ou pas, il est concevable que le hasard puisse aussi être d’une trop grande complexité pour nos capacités bornées de raisonnement. Ainsi, le mathématicien Pierre-Simon de Laplace expliquait le déterminisme en affirmant qu’un génie – certes surhumain – connaissant exactement la position et le mouvement de tous les objets, même infinitésimaux, aurait accès à la connaissance du passé (les causes) comme du futur (les conséquences) de l’univers. Il notait toutefois que cette certitude nous était inaccessible en termes de complexité et que seul un résultat aléatoire pouvait être proposé. Ainsi par exemple, la théorie mathématique du chaos étudie le comportement récurrent de systèmes dynamiques très sensibles aux conditions initiales. Pour de tels systèmes, des différences, mêmes infimes, dans les conditions initiales entraînent des résultats totalement différents, rendant en général toute prédiction impossible à long terme. Ce comportement chaotique est à la base de nombreux systèmes naturels, tels que la météo ou le climat.
« L’effet papillon » résume en une métaphore la théorie du chaos. Sa formulation provient du scientifique Edward Lorenz, en 1972, lors d’une conférence intitulée : « Le battement d’ailes d’un papillon au Brésil peut-il provoquer une tornade au Texas ? ». Sont donc considérés comme « hasardeux » les systèmes dynamiques dont le niveau de complexité est tel que l’esprit humain ne peut pas en déterminer le devenir. Cela concerne particulièrement le domaine du vivant. Par exemple, il n’est pas possible de prédire avec exactitude la forme plastique et la dimension que prendra une plante.
Il existerait ainsi deux types de hasards : le hasard objectif, fait d’indéterminations, considérant qu’il échappe à toute capacité, et le hasard subjectif, fait d’incertitudes, qui résulte de facteurs trop complexes pour des gens – ou des machines – ordinaires.
C’est ainsi que notre santé, notre intégrité, et notre sécurité semblent être les fruits d’une réussite si exceptionnelle qu’elles en sont merveilleuses. Non seulement nous sommes mortels mais, par tous les pores de notre peau, de mille manières vulnérables. Cela suppose la conjonction d’un si grand nombre de facteurs, potentiellement révocables, que leur reconduction de jour en jour semble en elle-même un si délicat équilibre et une si miraculeuse coïncidence qu’il faudrait en rendre grâce chaque jour à un bienveillant hasard.
La vie que nous vivons, la famille qui nous élève, le lieu, l’époque, nos rencontres, le sentiment paradoxal de permanence qui nous habite, n’ont pas été décidés par nous. Notre vie semble une parenthèse de contingence, flottant sur un océan de non-être, ouverte par une naissance qui nous a été offerte et refermée par une fin inéluctable et imposée. Elle paraît être la manifestation d’un heureux hasard qui nous soustrait à chaque moment contre des désastres (étymologiquement des « mauvaises étoiles ») en puissance, une lutte continue de précarités potentielles contre une miraculeuse continuité.
Intentionnel ou aveugle, merveilleux ou banal, heureux ou tragique, le hasard qui s’immisce partout dans nos rencontres, dans nos découvertes, peut même s’avérer fécond. Tout d’abord, c’est en cherchant à comprendre la notion de hasard, en croisant le jeu à plusieurs reprises, que Blaise Pascal, le mathématicien de premier ordre, a créé une formidable et nouvelle discipline de recherche, par une méthode dite de résolution du « problème des partis », qui donnera naissance au calcul des probabilités. Cette méthode permet d’apprivoiser le hasard, d’en repousser les contours, en donnant la primauté à la masse statistique, aux grands nombres, au détriment de l’individu, de sa variabilité, de ses caprices, en proposant aussi des calculs probabilistes au détriment de la certitude mathématique. Ses travaux ont ouvert le champ des sciences humaines, mais l’irruption de considérations probabilistes et des principes d’incertitude a affecté tous les autres domaines scientifiques même ceux considérés comme les plus purs.
Il a ainsi découvert que le monde a priori fondamentalement désordonné peut être, en même temps, admirablement réglé, que le hasard obéit à des lois – celle des grands nombres et des séries – derrière lesquelles nous pouvons conjecturer une nécessité. Les frontières du hasard, pour imprécises qu’elles demeurent, deviennent alors une science disputée à la providence, aux caprices de la nature, et aux augures, à l’instar des prêtres romains interprétant le vol des oiseaux, ou les viscères des animaux sacrifiés, comme des volontés de Jupiter.
Quant à la sérendipité, c’est l’art de faire des découvertes par chance, par accident, ou même par négligence. Elle combine à la fois le hasard et la sagacité. Qu’il s’agisse de la pseudo-sérendipité la découverte accidentelle d’une vérité que l’on recherchait – comme dans le cas du fameux eurêka d’Archimède, ou de la vraie sérendipité la découverte accidentelle de quelque chose que l’on ne recherchait pas – comme dans les cas des bandes velcro ou du téflon, toutes deux croisent à des degrés divers l’intentionnalité, une réaction inattendue, et une capacité à laisser « sa chance » au hasard. Les découvertes de Darwin sur la théorie de l’évolution érigent, quant à elles, le hasard en pilier de la vie et de ses mutations. La dérive génétique consacre l’évolution d’une population et d’une espèce causée par des événements aléatoires. Et si nos décisions peuvent parfois paraître suboptimales – on les nommera parfois des « intuitions » c’est parce que l’évolution a sélectionné ce trait. Au lieu d’adopter un comportement stéréotypé en toutes circonstances, une portion de hasard résiduel, ou de fantaisie, permet une certaine variabilité et une adaptation aux conditions évolutives de notre environnement.
Mais, dépassés que nous sommes par la somme incalculable de possibles et de dangereux latents que le hasard se chargera de matérialiser et jeter sur notre route, conformistes, dociles, nous finissons de guerre lasse par accepter d’enchaîner notre futur, notre liberté créatrice et féconde, notre volonté, notre courage, notre dignité, notre « servitude volontaire », à ceux des gouvernants, des autres, et à des systèmes. Notre libre arbitre individuel cède le pas à la sécurité commune, à des décisions arbitraires, consensuelles ou démocratiques, à des systèmes judiciaires, exécutifs, politiques ou d’employeur, et puis aussi – fait nouveau depuis le XXe siècle – à l’informatique et à ses algorithmes.
Hasard et informatique
Précoce, dès l’âge de 19 ans, notre cher Blaise Pascal, l’inventeur, s’est illustré en concevant la plus déterministe des machines imaginées par l’homme, la « Pascaline », (photo ci-après) la première machine à calculer, encore mécanique, conçue pour automatiser des opérations arithmétiques. Il va ainsi ouvrir la voie aux calculatrices électromécaniques, puis électroniques, des siècles suivants, qui deviendront, avec l’invention des microprocesseurs au XXe siècle, les ordinateurs que nous connaissons aujourd’hui. À ce titre, Pascal mériterait d’être la figure tutélaire de l’informatique si cette industrie n’était pas aussi pourvoyeuse en « divertissements pascaliens » dérivatifs de notre « misère humaine » dans laquelle le hasard de l’évolution nous a plongés.
Un ordinateur reste déterministe dans la mesure où il reproduit invariablement le même résultat si on lui fournit les mêmes paramètres en entrée, et aussi l’électricité pour l’alimenter. D’emblée, il est incapable de créer de l’aléa par lui-même. « Il n’existe pas de nombre aléatoire, juste des méthodes pour produire des nombres aléatoires », déclarait à ce titre John von Neumann, l’un des pères fondateurs de cette science nouvelle qu’est l’informatique. Générer des nombres au hasard n’est pas de tout repos mais les suites de chiffres aléatoires sont pourtant essentielles en simulation, dans les essais cliniques et en sécurité informatique. Pour générer des nombres au hasard, sans aucun lien déterministe, on peut très bien jouer à pile ou face, ou lancer un dé. Une méthode plus sophistiquée consiste, quant à elle, à utiliser des tables consignant de longues listes de nombres aléatoires. Il s’agit alors de choisir « au hasard » deux chiffres, un pour la page et un pour la ligne, et de récupérer le nombre correspondant.
Ces méthodes rustiques ne répondent toutefois pas aux besoins d’aujourd’hui. Les simulations de réactions nucléaires du CERN nécessitent par exemple plusieurs millions de nombres aléatoires par seconde. Et ces nombres aléatoires sont aussi essentiels pour déterminer quels patients recevront le placebo dans un essai clinique, pour encrypter des informations, ou pour perfectionner une chaîne de production dans une usine grâce à des simulations.
Deux types de générateurs de nombres aléatoires comblent cette demande : ceux basés sur des algorithmes, et ceux fondés sur des phénomènes physiques Déterministes, les générateurs algorithmiques ont besoin d’une information « pseudo-aléatoire » à transformer en paramètre d’entrée pour aller piocher dans des tables aléatoires. Il peut être ainsi possible de détecter les mouvements de la souris, les temps de frappe au clavier, le temps d’interruption du disque dur, la charge de la batterie, la température précise d’un processeur, ou le temps qui s’est écoulé, en millisecondes, depuis le 1er janvier 1900. Pourtant, le hasard ici reste artificiel, car réglé par des algorithmes. L’utilisation de nombres pseudo-aléatoires à la place de « vrais » nombres aléatoires peut être insuffisante vis-à-vis de la génération de clefs de chiffrement en cryptologie. Elles se doivent d’être parfaitement aléatoires pour garantir une sécurité maximale. Les meilleurs générateurs utilisent alors des phénomènes physiques tels que la radioactivité, les bruits thermiques, ou électromagnétiques, la mécanique quantique, à l’instar du choix – « aléatoire ? » – d’un photon de traverser ou pas une lame semi-réfléchissante. Il reste tout de même assez difficile de déterminer si les résultats produits sont « parfaitement » aléatoires. D’une part, parce qu’on ne pourrait réellement qualifier une suite d’aléatoire que si elle était infinie. D’autre part, parce qu’on ne sait toujours pas parfaitement définir le hasard (cf. nos propos en introduction) !
Dès la naissance des ordinateurs, les jeux ont été un terrain de prédilection, d’expérimentation, et de démonstration. Ils se sont employés à en circonscrire les éléments les plus hasardeux. Les règles, au départ simples et peu nombreuses, les choix réduits, les configurations faciles à analyser, les situations bien définies ont permis de développer des modes simplifiés, mais tout de même intéressants, où la « force brute » de l’ordinateur a pu s’exprimer massivement en conduisant progressivement à des optimisations. Il s’est notamment mis en place des arbres de décisions que les ordinateurs ont appris à ne plus explorer systématiquement en en supprimant certaines ramifications.
Ainsi, le premier exemple de « machine learning », en français, d’apprentissage automatique, est un programme développé en 1952 qui, en jouant au jeu de dames, s’améliorait de lui-même. Cette idée émane initialement d’Alan Turing, un célèbre mathématicien et cryptologue anglais, ayant réussi à casser le code – supposé aléatoire – de la machine Enigma allemande lors de la 2e guerre mondiale.
Les avancées du « machine learning », conjuguées à de vastes échantillons de données, ouvrent sans cesse de nouvelles perspectives. Parmi elles, l’analyse prédictive est capable, en croisant des données de différentes sources, de trouver des corrélations entre des séries causales d’apparence indépendantes – cela vous rappelle-t-il quelque chose ? – Pour nos pauvres cerveaux humains. Parmi les techniques utilisées figurent les forêts aléatoires (« random forests »). Elles combinent les concepts de sous-espaces aléatoires et des techniques de rééchantillonnage (« bagging »). L’apprentissage porte sur de multiples arbres décisionnels – formant ainsi des forêts – l’entraînement sur des échantillons de sous-ensembles de données aléatoirement modifiés conduisant ainsi à la génération de formes de tâtonnement et de sérendipité.
Le machine learning trouve bien entendu de nombreux champs d’application : aide au diagnostic, médical notamment, détection de fraudes à la carte de crédit, cybersécurité, analyse financière, dont celle du marché boursier, classification des séquences ADN, analyse prédictive en matière juridique et judiciaire. Parmi ses applications, on référencera, par exemple aux États-Unis, un système lourd de conséquences évaluant une probabilité de récidive, et fixant proportionnellement un montant de caution, ou alors un autre affectant une probabilité de contracter une pathologie particulière, ou encore des décisions d’autorisation de découvert bancaire, d’octroi de contrats d’assurance-vie, ou même aussi d’envoyer des missiles balistiques sur une cible adverse évaluée dangereuse. Autant de décisions, convenons-en, pouvant sensiblement influer sur – voire mettre fin à – nos quotidiens, devenus ainsi « algorithmisés ». Moins anxiogènes, certains algorithmiques prédictifs permettent tout simplement d’évaluer nos temps de trajet et de nous proposer des voies alternatives plus fluides, plus rapides, plus sûres, ou plus belles. Autre exemple, une équipe canadienne a créé une intelligence artificielle chargée d’étudier les relations amoureuses de 11 000 couples et de révéler les secrets des relations les plus harmonieuses.
Les algorithmes de machine learning, toutefois, ont la particularité que leur logique sous-jacente reste incompréhensible et opaque y compris pour leurs concepteurs. Ces algorithmes ne nous diront jamais ce qu’ils ne savent pas, car ils ne sont pas structurés pour ça. À l’instar du mythe de Frankenstein, ces créatures inorganiques échappent au contrôle de leurs créateurs, s’autonourrissent, s’auto-fertilisent et formulent des conclusions que leurs démiurges n’auraient jamais pu imaginer. Pour reprendre les mots d’Ali Rahimi, chercheur en Intelligence Artificielle chez Google, l’apprentissage automatique revient à faire « de l’alchimie ».
Probabilistes et mécanistes – merci le mystique Blaise Pascal ! –, abscons, opaques, et inexplicables, véritables boîtes noires, ces algorithmes, ingurgitant de colossales quantités de données, par leur puissance de calcul surhumaine et leurs facultés inlassables d’apprentissage, repoussent continuellement les frontières du hasard accidentel tel que défini par Cournot, les limites de notre ignorance et de notre finitude. En tant que « roseaux pensants » perdus dans l’univers, pour reprendre les termes du Blaise Pascal philosophe dans sa maturité, nous ne sommes pas « programmés » pour un monde aussi complexe, aussi dense en informations. Dépassés mais tout de même férus de progrès, nous en sommes venus à confier, comme on l’a vu, des décisions impactant directement notre quotidien à des algorithmes auto-apprenants.
Le hasard, autrefois conçu comme accidentel, naturel, providentiel, ou chaotique, arraché par les scientifiques aux caprices des dieux et de la Nature, est désormais progressivement rétrocédé à des ordinateurs et à leurs algorithmes, à des pensées, qui à défaut de se penser elles-mêmes, se mettent à penser pour nous ! Nos latitudes quotidiennes s’en retrouvent ainsi graduellement contraintes et subordonnées, nos erreurs, comme nos coups d’éclat ou de génie, noyées dans une nasse anonyme de médiocrités déterministes et statistiques, considérant que ces pseudo-hasards algorithmiques peuvent servir – sans arrière-pensée, bien sûr – des intérêts commerciaux ou hégémoniques, respectivement pour une poignée de multinationales privées, ou d’états suprématistes, ayant ensemble massivement investi et coopéré dans ce vaste champ technologique. Le hasard, dans ces cas-là, devient organisé et organisant, mais avant tout instrument de la volonté des autres !
SUR LE MEME SUJET :
Pas d'article en relation