Toujours considérée comme une faculté exclusive de l’Animal plus particulièrement de Homme, l’intelligence est de nos jours embarquée dans des composants électroniques. Elle constitue, selon Jean Piaget, « l’état d’équilibre vers lequel tendent toutes les adaptations successives d’ordre sensorimoteur et cognitif, ainsi que tous les échanges assimilateurs et accommodateurs entre l’organisme et le milieu. » (Piaget, 1967, p.17).
Cette conception piagétienne de l’intelligence, comme on la voit, la définit comme un équilibre qui est la résultante d’une somme d’interactions entre un sujet et son milieu, ces dernières évoluant et se développant de manière empirique et sur un plan génétique pré codé. C’est dire toute l’importance, pour le développement de l’intelligence, d’une participation active du sujet au sein de son milieu à un processus stimulant et continu d’apprentissage et d’acquisition de connaissances.
L’origine de l’Intelligence Artificielle
La notion a été conceptualisée en 1936 par le mathématicien Alan Turing qui a développé un modèle abstrait du fonctionnement des appareils mécaniques de calcul, tel un ordinateur en vue de donner une définition précise au concept d’algorithme ou de « procédure mécanique ». C’est dans son célèbre livre dénommé « Computing Machinery and Intelligence » qu’il a abordé pour la première fois l’idée de doter les machines d’intelligence. Il mit alors au point un test dit de Turing qui consiste à faire interagir à l’aveugle un sujet avec un autre, puis avec une machine programmée pour formuler des réponses sensées. La machine étant déclarée avoir réussi le test si le sujet ne parvenait pas à faire la différence entre la machine et l’humain. Ainsi on pourrait considérer la machine comme étant « intelligente ».
Lire aussi: Mamadi KABA, l’ingénieur qui traque les voleurs grâce à l’intelligence Artificielle
L’Intelligence Artificielle est ainsi une discipline relativement jeune surtout dans son développement actuel, qui se fonde sur les logiques, théories et techniques mathématiques d’analyse et de traitement des données dans le but de parvenir à faire imiter par une machine les capacités cognitives d’un être humain. Au moins deux écoles s’opposent à ce niveau ; d’une part ceux qui défendent que quels que performants puissent être les résultats, ils ne sauraient conférer aux machines l’attribut d’intelligence et les autres qui pensent qu’au contraire les machines deviennent réellement intelligentes.
Les premiers, qu’on peut qualifier de puristes, préfèrent en général employer le nom exact des technologies concrètement mises en œuvre et qui se rapprocheraient plus de l’apprentissage automatique (machine learning) et se défendent d’utiliser le terme « intelligence ». Ce concept de « Machine Learning » est une approche permettant aux ordinateurs d’apprendre sans avoir été programmés explicitement à cet effet. Cette école préfère le vocable de système expert car selon elle les résultats, bien qu’extraordinaires dans certains domaines, demeurent encore très modestes au regard des ambitions entretenues.
Les systèmes experts et le machine learning
Elaborer un système expert consiste ainsi, dans un domaine d’expertise ciblé et bien circonscrit, à bâtir un référentiel de toutes les connaissances y afférentes (base de connaissances ou base des faits), un référentiel de toutes les règles applicables (base des règles) et enfin un moteur d’inférence aussi appelé moteur de déduction ou d’interprétation qui permet d’appliquer les règles sur les connaissances pour résoudre des problèmes complexes comme le ferait un expert du domaine. Ce dernier (moteur d’inférence) est un mécanisme qui permet au système expert de raisonner et de tirer des conclusions. Ainsi le système expert, transcription logicielle d’un mécanisme cognitif d’un expert, est un outil capable de reproduire le raisonnement et l’analyse d’un expert dans un domaine précis. Il constitue une des prémisses de l’intelligence artificielle.
Le Machine Learning, concept fortement lié aux systèmes experts, est quant à lui une science qui utilise de puissants algorithmes permettant d’effectuer des prédictions à partir de données immenses en se fondant sur des systèmes d’analyse multidimensionnelle de données (Data analysis). Les premiers de ces algorithmes naquirent vers la fin des années 1950 et le plus connu d’entre eux est le perceptron, inventé en 1957 par Frank Rosenblatt au laboratoire d’aéronautique de l’université Cornell.
Comme on le voit, la sève nourricière des systèmes experts, comme du machine learning, est la base de données sur laquelle ils reposent. Ils ont besoin de volumineux réservoirs de données non structurées et de toutes sortes, qui sortent totalement du rayon d’action des outils classiques de gestion de bases de données. Il s’agit des Big Data.
Le Big Data
Il s’agit de données massives encore appelées méga-données, polymorphes de natures et de sources très diversifiées, qui remettent en cause les systèmes de stockage et de traitement de données jusque-là connus et utilisés. Ce sont des données provenant de partout et continuellement produites à partir des nombreux applications et outils que nous utilisons quotidiennement (messages, sms, vidéos, images, informations diverses, signaux GPS, etc.) et qui sont stockées de manière éparse dans le Cloud sur des serveurs et autres dispositifs dont la localisation nous est complètement inconnue.
Lire aussi: Souveraineté numérique : GFI Informatique donne des pistes de réflexion
Selon certaines estimations, nous procréons environ 2,5 trillions d’octets de données tous les jours. Ce sont ces données qui sont baptisées Big Data. Les géants du Net communément appelés les GAFA, acronyme de Google, Amazon, Facebook et Apple, surtout Google et Facebook, bâtissent leurs modèles économiques sur l’exploitation de ces données qu’ils collectent sur nous. Ils utilisent de puissants algorithmes pour procéder à des profilages d’utilisateurs (centres d’intérêts, catégories, comportements, localisations géographiques, tranches d’âges, etc.) qu’ils vendent à des annonceurs potentiels.
Les IoT ou Internet des Objets
La croissance exponentielle des Big data est d’avantage accélérée par l’apparition du nouveau concept d’IoT (Internet of Things) ou internet des objets. De nos jours de plus en plus d’objets que nous utilisons dans la vie courante sont capables de collecter et d’émettre des données grâce aux composants électroniques embarqués pour leur fonctionnement. Tout objet capable d’être connecté à Internet est aujourd’hui potentiellement un objet connecté qu’il s’agisse de smartphone, de montres, de caméras, d’équipements électroménagers, de véhicule, de système d’éclairage, d’équipement médical, de vêtements (hé oui), de commande numérique, de contrôle d’accès, de commande à distance, etc. Tous participent à la génération d’une immensité incalculable de données diverses dont les possibilités d’exploitation et les usages ne connaissent quasiment pas de limite.
L’Intelligence artificielle permet de transformer cette océan de données sans fond en un flux régulier d’informations pertinentes pour répondre aux attentes de plus en plus exigeantes des utilisateurs.
Mor Ndiaye Mbaye
Directeur de Cabinet Ministre de l’Economie Numérique et des Télécommunications
morfattah.Blogspot.com