jeudi, novembre 7, 2024

L’ Afrique face à l’intelligence artificielle et au trans-humanisme

0 commentaire

« Une vie est une vie ; une vie n’est pas plus ancienne ni plus respectable qu’une autre vie, de même qu’une autre vie n’est pas supérieure à une autre vie. »

Charte du Mandé, article 1 de la déclaration des droits de l’Homme, Royaume du Mali, 1236

Selon le professeur de cybernétique, Kevin Warwick, « de la même manière que, dans un lointain passé, les humains se sont séparés de leurs cousins chimpanzés, dans les temps qui viennent les augmentés vont se séparer des simples humains qui ne représenteront plus, par rapport à eux, que les chimpanzés du futur, voués à disparaitre, ou à croupir dans les réserves que les posthumains consentiront peut-être à leur ménager. Telle serait donc l’alternative : s’augmenter ou finir au zoo. » . Cette affirmation, sans doute outrancière, est cependant loin de n’être que du verbe, parce que 1 venant d’un éminent professeur de l’université de Coventry auréolé de plusieurs distinctions scientifiques. A l’âge de 40 ans il a obtenu la prestigieuse distinction doctorat supérieur de l’Imperial College London et de l’Académie Tchèque des Sciences. De l’IET (Institution of Engineering and Technology), il a reçu la Médaille de Performance et la Médaille Mountbatten. Il a aussi reçu la médaille Ellison-Cliffe de la Royal Society of Medicine. Kevin Warwick se targue d’être le premier cyborg (cybernetic organism) au monde. Il s’est effectivement augmenté en se faisant implanté sous la peau une puce RFID (Radio-frequency identification) qui lui permet d’effectuer un certain nombre de tâches dont l’ouverture de portes à distance. Question : quel continent aura la plus grande concentration de « chimpanzés de Warwick » ? On y reviendra.

Volonté d’augmentation de l’Homme : moteur de progrès ?

Le volonté de s’augmenter est inhérente à l’évolution de l’Homme depuis qu’il a accédé au statut d’hominidé par la production de savoirs, l’Homme étant par excellence l’animal dont l’imagination transcende largement les capacités physiques et même mentales. Donc l’acte qu’a posé le Professeur Warwick s’inscrit dans une nouvelle étape d’un processus qui a commencé au paléolithique en Afrique, il y a plus de 3 millions d’années, lorsque l’ancêtre de l’Homme s’était mis à tailler la pierre pour en faire un outil . Une manière de prolonger sa main. Ensuite, il y a 10 mille 2 ans, avec la naissance de l’agriculture, l’Homme a eu l’idée de s’augmenter en domestiquant ses cousins animaux plus puissants mais moins intelligents que lui, pour exécuter les travaux champêtres.

En ce qui concerne la mémoire, dès le troisième millénaire avant notre ère, conscient de sa faillibilité, l’Homme a eu l’inspiration – tout simplement géniale pour l’époque – de consigner sa pensée, par l’écriture, sur un support matériel. Sur des tablettes d’argile, du papyrus et même des os par exemple. Avec la création de l’écriture en Mésopotamie, en Égypte puis en Chine, l’Humanité a opéré un tournant décisif dans la production, la diffusion, la conservation et l’accumulation des savoirs. Cet outil de prolongement de la mémoire humaine, principal coffre-fort et véhicule des savoirs jusqu’à l’arrivée de l’audiovisuel et des TIC, avait, par ailleurs, engendré l’émergence et le développement d’autres sciences. Par exemple, les mathématiques utilitaires (économie, géométrie élémentaires) sont apparues presque en même temps que l’écriture. En fait, l’évolution de l’Homme est si marquée par l’écriture que l’apparition de cette dernière est retenue comme la frontière entre la Préhistoire et l’Histoire de l’Humanité.

L’Homme ne s’est pas préoccupé que du monde visible à l’œil nu. Des lentilles ont été découvertes en Égypte, qui datent du troisième millénaire avant notre ère, ce qui signifie sans doute que l’être humain cherchait déjà à s’augmenter, afin de découvrir d’autres univers trop lointains pour être visibles : le cosmos ; ou voisins mais invisibles, qu’il côtoie ou qu’il abrite dans son organisme : l’infiniment petit. Aujourd’hui, on en est au microscope électronique Titan Krios installé par l’institut Pasteur de Paris en 2018, et présenté comme le plus performant au monde. Il permet de faire des observations à l’échelle du dixième de nanomètre. C’est l’échelle atomique.

Le processus d’augmentation de l’Humain s’est poursuivi jusqu’à la fin du 18ème siècle où une pré-singularité, venant d’Angleterre, s’est produite avec la première révolution industrielle. Cette dernière est marquée par l’avènement de la machine à vapeur moderne, qui a permis de passer de la production artisanale à la production industrielle. Une production de masse à une cadence au delà des capacités matérielles de l’Homme, qui a eu de profondes répercutions socio-économiques. Un siècle plus tard survint la deuxième révolution industrielle, impulsée d’Allemagne et de la Côte Est des États-Unis, et dont les principales caractéristiques sont l’exploitation du pétrole, la découverte de l’électricité, le développement de l’industrie automobile, et l’apparition du télex et du téléphone sans fil. L’Homme franchit ainsi une nouvelle étape de son processus d’augmentation en se donnant les moyens, par l’automobile, de se déplacer à des vitesses que sa physiologie ne lui permet pas ; et, par le téléphone, de se faire entendre étant physiquement absent.

Cependant, c’est à la suite de la deuxième guerre mondiale, que l’espèce humaine, après s’être augmentée pendant plus de trois mille millénaires sur les plans mécanique, mémorial, optique et cinématique, a accédé à un nouvel étage de ce processus d’externalisation des tâches que sa nature lui permet de penser, d’imaginer, sans en avoir les capacités matérielles et mentales de la réalisation. En 1948 est né le premier ordinateur (machine à architecture de Von Neumann) doté d’un algorithme lui permettant d’effectuer des opérations arithmétiques et logiques. C’est donc cette année qu’est apparue une nouvelle dimension du processus d’augmentation de l’être humain : l’augmentation intellectuelle. C’était l’an un de l’intelligence artificielle (IA), au sens premier du terme.

Ensuite, vers la fin des années 70, l’accès à l’ordinateur s’est démocratisé aussi bien dans le milieu des entreprises que dans les ménages ; et ceci grâce encore une fois à la volonté naturelle de l’Homme de s’augmenter pour réaliser les fruits de son imagination que sa nature ne lui permet pas de mettre en œuvre. En 1978, le déclic est venu de Dan Bricklin, un jeune informaticien américain qui s’est inscrit à un MBA au Harvard business School. Bricklin avait constaté le côté rébarbatif du travail d’un de ses professeurs, qui établissait des tableaux de valeurs interdépendantes telles que, dès qu’une seule valeur est modifiée, plusieurs autres le sont. Il s’est alors investi de la mission de développer une application utilisable sur un ordinateur, afin d’automatiser ce type de séries d’opérations. En un temps record, le jeune Bricklin a développé le logiciel Visicalc, le premier tableur de l’histoire de l’informatique, l’ancêtre du fameux Excel. VisiCalc étant développé pour l’ordinateur Apple II – une machine timidement commercialisée depuis 1977 – et permettant d’atteindre des vitesses de calcul inimaginables pour le cerveau humain, le couple VisiCalc-Apple II a connu un succès commercial retentissant à partir de 1979. C’était le début de la démocratisation de l’utilisation du micro-ordinateur ; et le point de départ d’un bouillonnement sans précédent en matière de production d’algorithmes en tout genre, et de l’essor des Technologies de l’Information et de la Communication (TIC). Ces nouvelles avancées en science et technique fondent ce qui est communément appelé la troisième révolution industriel.

Par Pr Abdou SENE, Spécialiste des mathématiques appliquées