Projet democratiedirecte.net
democratiedirecte.net

> 6. Analyses Recommander Imprimer 16 pages màj : 22 mars 2017

Intelligence collective vs artificielle Recommander màj :

PLAN

  1. Arbre des sciences
  2. Utilitarisme et valeur
  3. Matérialisme et prédation
  4. Intelligence artificielle
  1. Intelligence collective
  2. Citoyenneté numérique
  3. Conclusion

Arbre des sciences Haut

Homme-Dieu

Selon le point de vue proposé ici la philosophie serait le fondement des sciences parce que le référentiel est l'être pensant, et en particulier l'être humain dans la mesure où celui-ci est considéré comme étant d'une nature particulière sinon supérieure.

Pour formaliser et communiquer ses réflexions l'être humain a conçu des langages, dont l'art et les mathématiques. Progressivement il a développé les sciences, pour comprendre la nature et agir sur elle à son profit. Or nous verrons que la notion de profit implique celle de valeur, qui induit celle d'éthique ...

Le tableau suivant propose une structuration logique des sciences dans laquelle les langages exercent une fonction d'intermédiation entre la pensée philosophique (le pourquoi) et la compréhension rationnelle (le comment).

Utilitarisme et valeur Haut

Utilitarisme

Les sciences consistent essentiellement à mesurer les phénomènes naturels, et à décrire leurs relations. Cependant les connaissances ainsi acquises ne constituent pas nécessairement une explication fondamentale des phénomènes étudiés. Selon une vision "orthodoxe" de la science « la physique ne doit pas s'occuper de ce que les choses sont, mais de comment elles sont liées entre elles » [source p. 99]. Selon cette conception la science a accompli sa fonction utilitariste dès lors que les connaissances acquises permettent de reproduire le phénomène étudié et d'ainsi pouvoir développer des techniques pour améliorer le sort du genre humain.

Autrement dit, dès lors que l'on a compris le "comment cela fonctionne" cette conception orthodoxe considère le "pourquoi cela fonctionne ainsi" comme relevant du domaine philosophique ou religieux, donc de l'éthique, mais pas du domaine scientifique.

Mais quelle est la différence entre le "comment" et le "pourquoi" ? Et qu'entendent exactement ces scientifiques par « ce que les choses sont » ?

Ce qu'ils entendent par là c'est la notion d'éthique. Selon eux les considérations d'ordre éthique ne doivent pas s'immiscer dans la recherche scientifique, car elles auraient pour effet de la "pervertir" (cf. la "neutralité" méthodologique évoquée plus haut). Ainsi ce n'est pas aux scientifiques à décider si, par exemple, la bombe atomique est une mauvaise chose ou pas.

Mais par rapport à quels critères les considérations éthiques "pervertissent"-elles la recherche scientifique ? En posant cette question il apparaît clairement qu'accuser de perversion une pratique éthique de la science est évidemment contradictoire puisque – par le fait même de cette accusation – un jugement de valeur est posé.

Échapper à l'éthique est manifestement difficile. Selon nous ce n'est ni possible, ni souhaitable.

Comment expliquer une telle irrationalité de la part de professionnels de la rationalité ? « Cherchez la femme » recommande le dicton pour comprendre le comportement inexplicable d'un homme. « Cherchez l'intérêt financier », répondent plutôt de nombreux économistes, et vous découvrirez que "l'irrationalité" n'est qu'apparente, ou du moins relative.

Valeur

Intérêt financier disons-nous. Nous parlons donc ici de valeur. Or lorsque l'on tente de comprendre cette complexe notion de valeur, on en arrive inévitablement à celle d'éthique [approfondir]. Tiens donc, c'est justement cela que les scientifiques orthodoxes voudraient maintenir en dehors de leur domaine ...

Mais ce faisant ils sont alors confrontés à un gros problème : dans certains domaines cela est de toute évidence impossible. C'est notamment le cas de la science économique, qui ne peut évidemment faire l'impasse sur la valeur, qu'elle traite d'ailleurs - de façon très (trop ?) réductrice - au moyen des notions de prix et d'utilité.

Afin de contourner ce problème le dogme orthodoxe en est venu à faire une distinction entre d'une part sciences dites "exactes" ou encore "dures" (mathématique, physique, chime, biologie, ...), et d'autre part sciences dites "humaines et sociales" ou encore "molles" (psychologie, sociologie, économie, droit, politique, philosophie, histoire, ...). Or dans le vocabulaire utilisé pour nommer les protagonistes il est difficile de voir autre chose que l'idée selon laquelle les sciences humaines et sociales seraient moins ... scientifiques que les sciences "exactes". Décidément cela ressemble fort à une excommunication des hétérodoxes par des orthodoxes.

Répression et soumission. Ce vocabulaire dénigrant de sciences "molles" a pour effet que de nombreux chercheurs en sciences humaines et sociales tentent d'échapper "au bûcher" en évitant les thématiques impliquant les notions d'éthique et de valeur. Et plus cet évitement est difficile à réaliser sans paraître pour un scientifique "au garde à vous", plus on observe un comportement compensatoire prenant la forme d'une mathématisation à outrance. Ce phénomène de compensation et d'enfumage atteint logiquement son paroxysme dans la science économique.

Est-il rationnel de croire que l'on pourrait isoler les scientifiques - et partant leur production scientifique - des réalités psychiques, sociologiques, politiques, juridiques et économiques que tentent de comprendre les sciences humaines ? Cette croyance n'est-elle pas justement le signe que la distinction entre sciences exactes ("dures") et humaines ("molles") est factice ? Autrement dit : toutes les sciences, étant fruits de l'activité humaine, sont humaines par nature. Toutes doivent être constamment "durcies".

Intelligence artificielle : une solution ? Même s'il s'avère que ces limitations sont réelles, il me semble que "l'intelligence artificielle" n'y changera rien car les robots qui apprennent par eux-mêmes et se "re-programment" ont a l'origine été créés par des humains, et nous verrons plus loin que - selon nous - le temps qui passe ne changera rien au caractère déterministe de la programmation originelle par des humains (de même les logiciels prétendus pouvoir générer des signes aléatoires ne font que simuler un hasard qui n'est en réalité qu'une complexité programmée). Quant à la réponse à la question « les humains ne sont-ils pas que des machines biologiques, donc eux-mêmes "programmés" ? », qu'elle soit affirmative ou négative, change-t-elle fondamentalement la problématique ?

Une explication

Dans la suite de cet article nous allons montrer que la domination des sciences "exactes" sur les sciences "humaines" n'est pas étrangère au fait que les premières ont la faveur de l'idéologie actuellement dominante : le "libéralisme". On notera à cet égard la concomitante montée en puissance d'une autre distinction, non plus entre les sciences mais cette fois au sein de chacune d'elles : entre recherche fondamentale (phase amont) et recherche appliquée (phase aval). Cette distinction est apparue au début du 20° siècle, soit en même temps que le capitalisme financier moderne, lequel est caractérisé par un marché financier dont la taille est devenue substantielle par rapport à - voire déconnectée de - la sphère réelle. S'agit-il d'un hasard, ou bien ces deux phénomènes sont-ils intimement liés ?

Matérialisme et prédation Haut

Matérialisme

C'est lors du passage de la phase de recherche fondamentale à la phase applicative que la problématique de la valeur et de l'éthique se matérialise pleinement. Par le biais de leur financement toutes les sciences sont soumises à la dynamique rétroactive développement applicatif recherche fondamentale. Or l'effet rétroactif de la phase du développement applicatif sur la phase de la recherche fondamentale est de plus en plus déterminé par des critères de maximisation du profit au bénéfice d'une minorité de la population. Ainsi les domaines de recherche à haut contenu technologique (et donc capitalistique ...) sont privilégiés au détriment de domaines à faible contenu technologique.

Falsifications. Ce phénomène est d'autant plus inquiétant qu'il existe de nombreux exemples de recherches "scientifiques" ayant été falsifiées dans le but de "confirmer" le "bien-fondé" de certaines idéologies et politiques. Cela aussi bien dans les sciences humaines (histoire, économie, ...) que dans la R&D chère aux sciences "exactes" (cf. les graves dérives en chimie et biologie : exemple).

Ce phénomène est intimement lié à la vague "néolibérale", idéologie des grandes sociétés privées globales initiée dans les années 1980 :

La place prise dans l'économie mondiale par les grandes sociétés est illustrée notamment par celles liées à Internet (Google, Apple, Facebook, Twitter, Amazon, eBay, Uber, AirBnB, ...). Ces entreprises, toutes US, et actives partout dans le monde :

Le démantèlement des services publics est d'autant plus problématique qu'une fonction fondamentale de l'État est de garantir une allocation optimale des richesses, que ce soit pour la consommation ou la production.

Prédation

Il est donc flagrant que l'apparente irrationalité de la science orthodoxe dans son rejet des notions d'éthique et de valeur est particulièrement utile aux stratégies de prédation de la richesse collective par une oligarchie.

Selon Bernard Friot, professeur émérite à l'université de Nanterre, c'est la lutte des classes qui détermine ce qui vaut dans tout ce que nous produisons : « la valeur n’a pas d’autre fondement que politique, elle est le lieu d’expression de l’enjeu de pouvoir inhérent à toute production, à tout travail. (...) La classe capitaliste, en tant que classe dirigeante, exerce une dictature sur la production de valeur en la mettant au service de l’accumulation du capital : les richesses produites hors de son emprise (par les retraités, les fonctionnaires, les travailleurs indépendants, les chômeurs) sont déclarées sans valeur, tandis que valent des biens et des services parfaitement inutiles ou dangereux, dont la production alimente le capital » [source].

Toujours selon Friot, la lutte de classes est l’affrontement irréductible entre deux pratiques antagonistes de la valeur. Elle se joue dans :

Commander
des humains
à distance

Des technologies permettant de commander des humains à distance existent depuis au moins 2013 [source]. Des développeurs ont déclaré (cf. source ci-avant) : « il n'y a absolument aucune possibilité d'utiliser notre système sur une personne qui ne serait pas consentante ». On notera cependant qu'ils n'affirment cela que pour leur système. En outre d'autres technologies ont démontré qu'il est possible de forcer un animal à agir contre sa volonté. Il fait peu de doute que cela sera, ou est déjà possible sur des humains [source].

Intelligence artificielle Haut

Dans l'arbre présenté plus haut le lecteur aura remarqué la position/fonction particulière du langage mathématique, faisant lien entre le "pourquoi" (l'esprit ?) et le "comment" (la matière ?).

Les mathématiques traitent des formes, des nombres et des relations. Les outils majeurs en sont le calcul différentiel & intégral [1] et - particulièrement depuis l'avènement de la mécanique quantique au début du 20° siècle - le calcul probabiliste.

Objets et méthodes des mathématiques
ObjetsMéthodes

On notera que :

Transhumanisme

Le lecteur attentif constatera que l'entropie ontologique que décrit "l'évolution transhumaniste" (sic) permet de "justifier" l'affirmation (enseignée comme vérité scientifique dans les facultés d"économie) selon laquelle le capital serait ‐ à l'instar de l'être humain ‐ un facteur/agent de production (et non pas seulement un moyen/objet de production). On est ici en plein dans l'idéologie "libérale" considérant l'humain comme une marchandise dont le prix se négocie sur un "marché du travail". Cette idéologie ‐ dont on observe actuellement la fusion avec une laïcité radicale ‐ ressemble de plus en plus à une nouvelle religion des temps modernes, dont les économistes académiques sont les prêtres. Cette religion sert particulièrement bien les intérêts d'une oligarchie oeuvrant à la régression vers l'état de nature ("le renard libre dans un poulailler libre") par le démantèlement des nations, ce qui conduit à l'uniformisation culturelle et la déconstruction de l'État providence et de l'État de droit (mondialisation = entropie sociétale).

Dalaï Lama et George Bush

Le Dalaï Lama fête son 80e anniversaire avec Georges Bush ... [source].

On notera la cohérence entropique de cette idéologie "évolutionniste" fondée sur une double dynamique "technologisation-mondialisation" induisant :

In fine, cette dynamique entropique dissipe la distinction entre local et global, entre individu et société, ce qui n'est pas sans similitudes avec une conception bouddhiste du monde.

N'est-ce pas à une régression vers la loi de la jungle ("l'état de nature") que conduirait nécessairement une intelligence artificielle qui ne serait pas sous contrôle de l'intelligence collective ? Une jungle technologisée est toujours une jungle : gare à l'illusion technologiste !

Intelligence
artificielle

L'exploration de données, l'apprentissage automatique et les systèmes experts sont les trois principaux constituant des systèmes d'intelligence artificielle (SIA). Une question fondamentale est : quelle est la relation entre intelligence collective et intelligence artificielle ?.

L'une est l'oeuvre de l'autre. L'intelligence artificielle est le fruit de l'intelligence collective, non seulement au niveau de sa conception mais également de son utilisation. En effet c'est la collectivité qui constitue la source des bases de données, la "matière première" des systèmes experts. Or, comme le suggère la vidéo suivante l'exploitation rationnelle des ces données semble confrontée à certaines limitations.

Les 3 bugs majeurs du big data (4m54s - 2015)
Intelligence artificielle

Lutte des classes. La relation "intelligence collective vs artificielle" est très liée à celle entre facteurs/agents et moyens/objets de production. Il est flagrant que l'idéologie "libérale" vise à ne pas faire la distinction entre facteurs (agents) et moyens (objets) de production, donc non plus entre humains et machines, les premiers (du moins les salariés ...) étant assimilés à des marchandises au même titre que les secondes (cf. le "marché de l'emploi"). Or les facteurs/agents de production conçoivent et utilisent les moyens/objets. S'ils deviennent objets c'est nécessairement au profit de leurs "employeurs/propriétaires". Il y a donc bien une proximité étroite entre salariat et esclavagisme.

Dans le même ordre d'idées il est selon nous fondamental que l'intelligence artificielle demeure subordonnée à l'intelligence collective. En effet la complexité grandissante du fonctionnement des systèmes experts a pour effet que le risque existe d'une perte de contrôle des machines dites "intelligentes. À cet égard notons que même les systèmes d'apprentissage automatique sont fondés originellement sur des algorithmes écrites par des humains. Or ce travail de programmation est influencé par les intérêts propres aux programmateurs ou à leurs commanditaires. Autrement dit le contrôle ne sera pas perdu pour tout le monde : pour les commanditaires des moyens de production que sont les systèmes experts il est même inscrit dans le marbre de la complexité technologique ...

Ces considérations nous conduisent logiquement à la section suivante, qui traite des mécanismes et de la problématique de l'intelligence collective. Mais avant il nous faut évoquer un dernier fait, s'imposant à toutes les formes d'intelligence, artificielle ou collective : les limitations intrinsèques au savoir.

Limitations
intrinsèques
au savoir

Au moins trois théories suggèrent l'existence de limitations intrinsèques au savoir : théories de la calculabilité, du chaos et de la complexité.

Théorie de la calculabilité. Selon cette théorie certains problèmes mathématiques ne peuvent être résolus au moyen d’un algorithme car les algorithmes et les ordinateurs, aussi puissants soient-ils, possèdent des limites intrinsèques insurmontables. À noter qu'il s'agit ici d'une limitation logique, et s'imposant aussi bien aux machines qu'aux humains [approfondir].

Théorie du chaos. Celle-ci concerne les systèmes dynamiques complexes, et sensibles aux conditions initiales, tels que les phénomènes météorologiques ou économiques. Dans ce type de phénomènes des différences infimes dans les conditions initiales peuvent entraîner des résultats fortement différenciés, rendant en général toute prédiction impossible à long terme (effet "papillon"). Cependant il n'y a pas indéterminisme au sens que « des causes identiques produiraient des effets différents », mais identification incomplète et mesure imparfaite des paramètres. Il n'y a donc pas remise en cause du déterminisme, mais plutôt des limites de son utilisation : cette limitation de nos capacités de mesure est-elle surmontable par le progrès scientifique et technologique, ou bien constitue-t-elle une impossibilité physique ? Selon le principe d’incertitude de Heisenberg il y a bien une limitation physique insurmontable : en physique quantique toute amélioration de la précision de mesure de la position d’une particule se traduit nécessairement par une moindre précision de mesure de sa vitesse et vice-versa [approfondir].

Selon le physicien François Roddier « le phénomène non linéaire de sensibilité aux conditions initiales remet en cause l’idée de déterminisme et nécessite une révision de la notion de causalité. Les biologistes s’aperçoivent aujourd’hui que les gènes coévoluent avec leur environnement sans qu’il y ait nécessairement une relation de cause à effet » [source].

Théorie de la complexité. Alors que la théorie de la calculabilité concerne des limitations logiques, celle-ci concerne des limitations techniques (mais pas nécessairement intrinsèques). La théorie de la complexité établit des classes de complexité fondées sur les contraintes de ressources nécessaires à des systèmes informatiques (ordinateurs) pour résoudre un problème algorithmique. Ces contraintes sont de nature quantitative (temps et/ou espace mémoire) et qualitative (résistance à la chaleur, niveau de miniaturisation, ...) [approfondir].

Constatez par vous-même une limitation (intrinsèque ?) de l'intelligence artificielle, en cliquant sur le bouton "Google translation" situé en haut de page, puis choisissez l'anglais. Vous observerez certes une impressionnante rapidité de traduction, mais par contre une médiocre qualité générale, et même une incapacité de traduction de mots et expressions sortant de l'usage courant (ce qu'un cerveau humain réalise quant à lui facilement). Or cela fait plusieurs décennies que ces algorithmes de traduction sont constamment améliorées, et l'on disposent en outre d'ordinateurs suffisamment puissants que pour battre aux échecs les meilleurs joueurs du monde ...

Les voies du Seigneur ... Ces trois théories conduisent à la réflexion suivante : s'il existe des phénomènes naturels dont les lois seraient intrinsèquement insaisissables, on peut alors interpréter le phénomène religieux comme une perception et expression intuitive de la nature insondable de certains phénomènes (cf. « Les voies du Seigneur sont impénétrables »). On notera les implications de cette conclusion sur la problématique des systèmes de gouvernance globale (ce qui est précisément l'objet de la présente publication ...).

Intelligence collective Haut

Vaste sujet. Procédons donc pas étapes, en commençant par cerner le seul concept d'intelligence. Nous verrons ensuite dans quelle mesure il est possible de l'étendre de l'individu vers le collectif.

Intelligence individuelleTop

Capacités et
comportements

Nous commencerons par proposer une approche de définition aussi large que possible : nous entendons ici par "intelligence" « des capacités voire aussi de simples comportements, qui distinguent l'homme des autres animaux ainsi que des machines» .

Les capacités de traitement de données, telles que le volume de stockage (mémoire) et la vitesse de calcul, ne sont pas typiquement humaines puisqu'elles sont également (i) reproductibles par des machines (qui peuvent dépasser les capacités humaines en la matière), et (ii) observées chez les animaux (les capacités humaines étant généralement supérieures en la matière). Par contre l'humour apparaît comme spécifique au genre humain, avec lequel les autres animaux partagent - mais dans une mesure nettement moindre - l'esthétique, l'invention et la projection idéalisée dans l'avenir. Mais aussi la souffrance et la jouissance. Tout cela les machines ne peuvent que l'imiter (ce qui est déjà pas mal, et d'autant plus lorsqu'il y a amplification, notamment dans le cas de l'invention).

Les programmes qui modifient voire "créent" des programmes ont a la base été créés par l'homme, en particulier les règles d' "auto"-modification des règles. Machines pensantes, sans doute, mais machines conscientes ?

Quelques comportements qui distinguent l'homme - ou du moins certains humains - de l'animal et de la machine sont la religiosité, la volonté de comprendre les lois de la nature, ou encore le suicide ...

Spiritualité

Émotion. Si l'impulsivité et l'émotivité extrême risquent de nous faire prendre de mauvaises décisions, la rationalité peut nous y pousser tout autant. Ainsi les travaux d'Antonio Damasio auprès de personnes souffrant de lésions au niveau du lobe frontal du cortex cérébral, ayant pour effet de supprimer toute émotion, ont montré que ces personnes n'étaient plus aptes à prendre de bonnes décisions [source].

Conscience. La notion de conscience implique celles de libre arbitre, volonté et responsabilité. Ainsi le philosophie et physicien Dominique Lambert résume comme suit les traits distinctifs de l'humain :

Dans son roman "Pantagruel" écrit en 1532, François Rabelais fait dire à Gargantua écrivant à son fils Pantagruel : « science sans conscience n’est que ruine de l’âme ».

Cependant une expérience réalisée en 1983 par Benjamin Libet montre que l’activation cérébrale (supposée inconsciente) précède la décision consciente. Dans une autre expérience réalisée en 2008 par Chun Siong Soon l'activation cérébrale est observée jusqu'à 10 secondes avant la décision consciente, et en outre l'observation des zones cérébrales activées permet dans 60% des cas de prédire correctement le type de décision que l'individu observé prendra. En 2011, utilisant une autre technologie Itzhak Fried obtient un taux de prédiction correcte de 80%, 700 millisecondes avant la décision consciente [source]. Doit-on en déduire que le libre-arbitre ne serait qu'une illusion rétrospective sur nos actes ? Ne serions-nous que des feuilles balancées par le vent du déterminisme ?

Résultat de l'expérience de Libet [source]
Expérience de Libet

Quelques questionnement et faits viennent tempérer une éventuelle réponse affirmative à ces questions :

Physique
biologie
sociologie

Définition thermodynamique. Le physicien François Roddier définit l'intelligence en terme de thermodynamique : « Pris isolément, tout animal cherche à maximiser ses chances de survie (de dissiper de l’énergie). Pour cela, il répond à des stimuli (informations venant de l’environnement) en déclenchant des actions appropriées (travail mécanique). Le comportement le plus intelligent est celui qui déclenche le plus rapidement les actions les mieux appropriées » [source].

Fondements biologiques. Roddier fait remarquer que « les ordinateurs ont démultiplié le pouvoir de son cerveau rationnel, le néocortex. Quoique plus puissants que lui, ils lui sont pourtant entièrement soumis. De la même façon, notre néocortex est soumis à notre cerveau limbique, siège de nos émotions, qu’on appelait autrefois le "cœur". Notre cerveau limbique est lui-même au service d’un cerveau encore plus ancien, le cerveau reptilien. Ce dernier a été créé par nos gènes pour les servir. C’est pourquoi Richard Dawkins les qualifie d’égoïstes. Simples molécules, nos gènes obéissent quant à elle aux lois de la thermodynamique » [source].

Culture. On sait aujourd'hui que le comportement humain n'est que partiellement déterminé par ses gènes. Les interactions entre chaque individu et son environnement sont également déterminantes, et ont même pour effet de modifier la structure du cerveau (cf. par exemple les mécanismes neuronaux de modification plastique expliquant la différence entre mémoire à court et long terme), voire semble-t-il sur les gènes eux-mêmes ! Cela concerne l'ensemble du règne animal, sauf que l'aspect culturel (et donc social) jouerait un rôle bien plus important chez les humains que chez les autres animaux, notamment en raison des capacités humaines particulièrement développées en matière de langage (vocabulaire, syntaxe, grammaire, informatique, Internet, ...).

Évolution. Depuis le début du siècle, le QI baisse ... en Occident, de sorte qu'aujourd'hui le QI moyen est de seulement 98 en France et aux USA, contre 108 à Hong Kong et Singapour. Une des causes pourrait être la qualité et les budgets de l'enseignement, plus élevés dans les pays asiatiques.

Baisse inquiétante du QI en Occident (3m39s - 2017)

individu et collectivitéTop

Des foules
intelligentes

Les phénomènes de lynchage collectif montrent que les foules peuvent être cruelles et irrationnelles. Cependant, pour autant qu'un groupe soit bien auto-éduqué et organisé il peut faire preuve d'une grande rationalité et efficacité. Ce fait ne remet cependant pas en question l'utilité des experts.

La foule est-elle vraiment plus performante que les experts ? (2m43s - 2017)
Intégration
démocratique
du savoir

L'intégration des savoirs relève nécessairement d'un processus collectif, car aucun chercheur ne peut connaître et comprendre la totalité des connaissances, même de sa propre branche. Ce processus fonctionne dans le cadre d'un réseau mixte, c-à-d à la fois pair-à-pair et centralisé : des échanges de savoirs sont opérés "individuellement" dans le cadre d'un réseau pair à pair, et d'autre part une intégration des savoirs est opérée "globalement" qui requiert nécessairement une forme ou l'autre de centralisation.

Réseau pair à pair VS centralisé

Types de réseau

De plus en plus de logiciels concernent des applications de réseau (mail, navigateur, Facebook, ...). Celles-ci sont conçues sur base de deux types possibles de réseau :

Avantages et
inconvénients

Le coût total d'un serveur (matériel, local, maintenance, sécurité, ...) est bien plus élevé que celui d'un terminal "pair". En revanche une application en réseau pair à pair est confrontée à une plus grande complexité, et même - selon le théorème CAP - à des limitations induisant d'inévitables arbitrages entre critères de performance des fonctionnalités de l'application.

Exemple. Un moteur de recherche décentralisé est confronté à la difficulté d'opérer de façon décentralisée les fonctions suivantes :

  1. apprendre la topologie des nœuds du réseau (annuaire des utilisateurs, ...) ;
  2. rechercher l’information sur tous les nœuds ;
  3. recevoir une réponse d’un nœud répondant aux critères de recherche.

Exemple d'arbitrage : garantir que toute recherche obtient un résultat peut impliquer que deux mêmes recherches n'obtiendront pas le même résultat.

Réseaux sociaux
et monopole

Le réseau pair-à-pair est difficilement compatible avec un modèle d'entreprise privée. Concernant les applications dite de "réseau social", les utilisateurs préférant logiquement le réseau le plus populaire, celui-ci devient inévitablement un monopole. Le modèle d'entreprise du "réseau social" semble donc difficilement compatible voire incompatible avec le principe de concurrence (cf. Facebook). Dans ces conditions ne serait-il pas préférable qu'un réseau social soit géré par une entreprise publique ?

NB : le fait que Facebook sera probablement remplacé un jour par un autre monopole privé, ne change rien à la problématique.

Décentralisation :
une illusion ?

Selon nous il n'existe à ce jour aucun réseau complètement décentralisé et désintermédiatisé. Ainsi même le réseau Bitcoin (crypto-monnaie) :

La technologie de chaîne de blocs va sans doute permettre aux entreprises de faciliter l'externalisation de certaines de leurs activités et de réduire les frais des opérations de compensation. Mais il reste à démontrer qu'un système "décentralisé" peut l'être intégralement. Et dans l'affirmative il reste à démontrer qu'il serait plus efficace qu'un réseau mixte combinant des fonctions centralisées avec des fonctions décentralisées.

Local
global

La problématique de l'arbitrage entre centralisation et décentralisation est évidemment liée à la relation entre individus et société c-à-d entre niveaux local et global. On notera que les sciences "exactes" sont également confrontée à une problématique d'intégration entre niveaux local et global. Ainsi selon l'état actuel des connaissances en physique quantique, il semble qu'en-dessous d'une taille "charnière" située entre les niveaux moléculaire et atomique (niveau microscopique) les lois naturelles seraient différentes de celles observées au niveau macroscopique [vidéo de vulgarisation - 9m59s].

Pourtant, le global/macro étant composé du local/micro, on pourrait s'attendre à une cohérence d'intégration entre les deux dimensions ... (PS : ce principe de cohérence vaut aussi bien pour les sciences exactes que pour les sciences humaines).

Indétermination quantique. Cependant cette absence apparente de cohérence ne se manifeste que lorsque l'observateur est (ou s'est mis) dans l'incapacité d'identifier - parmi plusieurs comportements possibles des particules - celui va déclencher la mesure du phénomène observé ... (situation dite d'indétermination quantique) [vidéo de vulgarisation - 19m22s].

Auto-organisation

Le physicien François Roddier estime que « le concept de réseau neuronal peut s’appliquer à toute structure dissipative considérée comme un ensemble d’agents échangeant de l’énergie et de l’information. On sait aujourd’hui que ces agents s’auto-organisent pour maximiser la vitesse à laquelle ils dissipent l’énergie (principe d'entropie maximale). C’est apparemment le cas des molécules d’air dans un cyclone, des bactéries dans une colonie, des fourmis dans une fourmilière comme des neurones dans notre cerveau. C’est aussi le cas des sociétés humaines. Peut-on leur appliquer à tous le même modèle d’auto-organisation ? » [source]. Le physicien danois Per Bak a montré que tous s’auto-organisent suivant un processus qu’il a baptisé "criticalité auto-organisée" par lequel les structures dissipatives s'organisent à la manière des transitions de phase continues, comme le passage de l’état liquide à l’état solide, c-à-d au passage d’un état désordonné (l’état liquide) a un état ordonné (l’état cristallin). Des avalanches de bifurcations produisent des arborescences fractales : amplification des fluctuations --> rupture de symétrie (avec invariance par changement d'échelle) --> apparition et mémorisation d'information.

Selon Roddier, en biologie l'ontogenèse correspondrait à une transitions abruptes, et la phylogenèse à une transition continue. Les transitions abruptes nécessitent un apport extérieur d’information sous la forme d’un germe. Lors des transitions continues - cas des structures dissipatives - de l’information apparaît progressivement au fur et à mesure que la phase ordonnée se développe. Ces informations se propagent par percolation au sein de domaines d'Ising. En biologie, l’information est mémorisée dans les gènes. Les êtres vivants qui partagent les mêmes gènes forment des domaines d’Ising appelés espèces animales ou végétales. Chez l’homme l’information est principalement mémorisée dans son cerveau. Les sociétés humaines mémorisent à leur tour de l’information dans les livres, plus récemment dans les ordinateurs. C’est ce qu’on appelle la "culture". Les individus qui partagent la même culture forment des domaines d’Ising sous la forme de sociétés humaines. Les lois de la thermodynamiques expliquent donc aussi le phénomène sociologique d'auto-organisation [source1, source2].

Exploitation. On notera que l'exploitation des salariés est fondée sur l'appropriation de la plus-value collective - fruit du phénomène d'émergence - alors que les salariés sont payés selon un salaire déterminé.

François Roddier note que les sociétés humaines forment un réseau neuronal d'agents interconnectés On peut lui appliquer le modèle de cerveau de Bak et Stassinopoulos. La figure suivante montre un schéma de ce modèle. Dans les simulations numériques l'information reçue se limite à un signal binaire (par exemple un feu devient vert ou rouge), de même que l'action mécanique qui en résulte (si vert alors appuyer sur pédale droite, si rouge appuyer sur pédale gauche). Lorsque le bon levier est choisi, tous les neurones reçoivent le même signal de récompense/satisfaction lié à un apport d'énergie (par exemple le cobaye reçoit de la nourriture).

Cerveau de Bak-Stassinopoulos
Le modèle de cerveau de Bak et Stassinopoulos reçoit de l’information (Q2) de l’environnement sur lequel il agit (W=Q1+Q2) de façon à obtenir de l’énergie (Q1).

« Les neurones excités (cercles gris) forment un domaine d'Ising. Lorsque ce domaine percole, il connecte une information reçue à une action (travail mécanique). Le modèle s'auto-organise de façon à maximiser l'énergie reçue. La figure ci-dessus représente un réseau régulier de neurones mais les simulations faites avec des réseaux quelconques marchent également. Dans le cas d'une société humaine, chaque agent peut aussi bien recevoir de l'information que déclencher une action. Il peut aussi communiquer à distance avec n'importe quel autre agent » [source].

Le modèle de Stassinopoulos et Bak implique que le cerveau s’auto-organise, à l’aide d’oscillations de part et d'autre d’un point critique, seuil de percolation. Deux paramètres sont impliqués : l’intensité des connections entre les neurones, et le seuil à partir duquel l’information est transmise d’un neurone à l’autre. Ces paramètres oscillent au cours du temps de façon à maximiser la «satisfaction» générale. Par analogie avec les cycles de Carnot les seuils jouent le rôle d’une température. Des seuils bas facilitent leur franchissement, comme le ferait une température élevée; des seuils élevés empêchent leur franchissement comme le ferait une température basse. L’intensité des connections joue le rôle d’une pression. Elle mesure un flux de charge comme la pression mesure un flux de particules qui frappent une paroi [source].

Roddier note que « ce modèle peut servir à modéliser l'économie dans une société faite d'individus tous interconnectés entre eux (...). Dans le cas d'une économie humaine, on peut assimiler l'excitation des neurones à la richesse monétaire des individus. Les signaux d'entrée expriment le besoin en produits ou services. La transmission des signaux correspond à des transactions financières. En l'absence de percolation, ces transactions se limitent à des placements financiers. Lorsque le réseau percole, il conduit à une offre commerciale. Dans ce schéma, l'économie financière représente les réflexions du cerveau global. L'économie de production traduit ses actions réelles » [source].

Émergence

L'émergence est un phénomène selon lequel le tout serait plus que la somme de ses parties, et dont les automates cellulaires sont une illustration.

Dans le chapitre 3 est présentée une méthodologie appliquée à la conception et au développement d'un système de gouvernance de démocratie directe. Cette méthodologie active le phénomène d'émergence au moyen de trois principes fondamentaux : les comparaisons croisées, les validations itératives et la redondance initiale. Pour résoudre le dilemme de l'oeuf et de la poule (développer démocratiquement un système de démocratie directe, alors qu'il n'existe pas encore d'outils pour le concevoir et développer démocratiquement) est proposée l'intervention d'un meneur de jeu initial et temporaire [pour approfondir lire "Initialisation de la DD"] .

Théorie
des jeux

Selon une expérience réalisée en 1979 par Robert Axelrod la stratégie socialement et individuellement optimale dans nos relations avec autrui est la suivante : punir dès la première trahison, pardonner dès la première coopération [source].

Cette stratégie dite "donnant-donnant" est de type "à mémoire courte" car elle consiste à ne tenir compte que de la dernière action de l'adversaire (coopération ou trahison) en faisant table rase du passé (même si le passé de l'adversaire n'est fait que de trahisons !).

Une autre particularité notable de cette stratégie optimale est qu'elle permet - sur le long terme - de battre les adversaires dont la stratégie est de remporter un maximum de duels, et celà même s'ils y arrivent ! La raison en est que, dans un jeu répétitif à somme non nulle, la maximisation du nombre de victoires en duels ne maximise pas l'accumulation de points (c'est un peu la fable du lièvre et de la tortue).

Selon une estimation, dans un jeu non répétitif, les profils "traîtres" représenteraient 47% de la population contre 53% de "collaboratifs". Et dans les jeux répétitifs - permettant donc d'accumuler des informations sur le profil des adversaires - la situation dégénère généralement vers 100% de traîtres ... et donc de perdants, du moins lorsque les joueurs ne connaissent pas la théorie des jeux. Mais ce n'est maintenant plus votre cas : vous savez désormais que la stratégie optimale socialement et individuellement consiste à coopérer au premier coup, ensuite jouer le même coup que l'adversaire au tour précédent (trahir s'il a trahi, coopérer s'il a coopéré). Cela vaut aussi bien dans le travail professionnel avec les collègues que dans le travail éducatif avec les enfants (P.S. Appliquer ces conclusions exige donc de vaincre notre rancune tout autant que notre gentillesse. La raison doit l'emporter sur nos états d'âme ...). Au niveau des États, la stratégie "donnant-donnant" peut être appliquée dans la négociations des accords de libre-change conditionnel.

Cependant en 2012 des chercheurs ont trouvé un type de stratégies supérieures au donnant-donnant : les stratégies "à déterminant nul". Celles-ci sont cependant éthiquement un peu plus problématiques, et cela pour deux raisons : (i) elles reposent sur un procédé statistique relativement complexe (et avantagent donc les individus capables de les comprendre/appliquer) ; (ii) elles consistent à contraindre la partie adverse. Pour ce deuxième point la problématique éthique est cependant tempérée dans la mesure où (a) il s'agirait d'une contrainte généreuse (résultat gagnant-gagnant) ; (b) dans les grandes populations qui évoluent l'optimum ne serait plus cette contrainte généreuse, mais la coopération [source].

Une excellente vidéo de vulgarisation (14m36s) sur la théorie des jeux.

Trois formes d'intelligence collective dans le règne animal
Formations d'oiseaux Formations de poissons Pont de fourmis

Citoyenneté numérique Haut

Le concept de citoyenneté numérique est fondamental car il constitue le principal lien institutionnel entre intelligences individuelle et collective.

La citoyenneté numérique commence par la possibilité de s'identifier sur Internet au moyen d'une carte d'identité électronique, fondement des votations en réseau et, partant, de la démocratie directe [approfondir].

Mais elle passe aussi passe par la maîtrise individuelle de son ordinateur et la possession d'un site ouaib, ce qui implique d'être capable de :

  1. remplacer Windows/Mac par un système d'exploitation (SE) libre sur son ordinateur (je recommande debian.org qui est quasiment le seul SE libre non-commercial) ;
  2. louer sa propre adresse web (c-à-d celle de votre site web et de votre e-mail) ;
  3. configurer son client Mail (par exemple Evolution) ;
  4. louer un hébergement pour son site ouaib (NB : de préférence pas chez le même fournisseur que pour l'adresse ouaib, afin de pouvoir changer facilement d'hébergeur !) ;
  5. créer sa page ouaib (par exemple avec Bluefish) et de la télécharger sur son hébergement (par exemple avec FileZilla).

Malheureusement, force est de constater que même au sein de la population ayant reçu une formation supérieure la majorité des individus ne maîtrisent pas ces compétences. Pour en comprendre la raison on peut tenter de répondre à la question suivante : comment est-il possible qu'en 2017 ces compétences fondamentales - aussi bien pour la pratique économique que politique - ne soit pas inscrites dans le programme de l'enseignement obligatoire ? Quelques réponses possibles : (i) l'incompétente et/ou le dilettantisme de la classe politique ; (ii) une volonté - plus ou moins consciente - de ne pas développer ces savoirs afin de ne pas faciliter le développement de la démocratie directe ; (iii) la corruption (psychique ou/et financière) de la classe politique [exemple?1, exemple?2] afin de faciliter la domination monopolistique de technologies propriétaires (Facebook, Google, Microsoft, ...) .

Il ne reste donc que l'auto-formation :

Smartphones et réseaux sociaux. Une règle fondamentale de la citoyenneté numérique est de limiter au maximum notre dépendance aux logiciels et réseaux sociaux propriétaires : Android, Facebook, etc. Les développeurs sont invités à s'impliquer dans le projet d'une version Debian on mobile devices.

Conclusion Haut

1. Décision et propriété. Le concept d'intelligence collective conduit à la problématique du processus de décision, et partant à celle de la propriété.

Voir à cet égard, au niveau de la gestion des organisations, la notion de parties prenantes ("stakeholders" en anglais). À noter qu'il ne s'agit là que de la généralisation du principe de consultation, sans remise en question de la centralisation du processus de décision. Cette notion de partie prenante est de plus en plus mise en avant dans la gestion des entreprises privées comme "publiques".

2. Maîtrise de l'outil. Il importe que l'intelligence artificielle soit subordonnée à l'intelligence collective, afin de prévenir la prise de contrôle d'une intelligence "sur-humaine" soit par des machines "intelligentes" elles-mêmes (à supposer que ce soit possible ...), soit par leurs propriétaires privés (thèse nettement plus probable).

En fait il ne s'agit pas que de prévention mais aussi de neutralisation, puisque cette perte de contrôle collectif est déjà la norme pour ce qui concerne le second risque (la plupart des super-ordinateurs ne sont-ils pas la propriété de grandes sociétés privées ?).

3. Ouverture. Une condition nécessaire à la maximisation de l'intelligence collective est que le processus de diffusion et d'intégration des connaissances soit accessible à tous.

4. Service public. L'État peut participer à la réalisation des deux points précédents au moyen d'entreprises publiques dont la mission serait de fournir aux autres agents économiques (ménages et entreprises privées) :

Une Confédération des États-nations pourrait à son tour fournir le même type de plate-forme pour l'intégration des plate-formes nationales.

Ces principes ne correspondent-elles pas au concept de noocratie et noosphère ?

Thématiques induites :

[1] À noter que les phénomènes naturels sont généralement continus tandis que les machines électroniques ne peuvent traiter que des données discrètes.

Envoyez vos à l'auteur.
 
x

Pour recommander à des amiEs

  1. sélectionnez l'adresse de cette page :
  2. copiez (Ctrl+C)
  3. collez (Ctrl+V) dans votre message.