L’Intelligence Artificielle permet à une machine d’effectuer une tâche qui requiert un raisonnement fondé sur des représentations, des inférences, de l’apprentissage et de la mémorisation : par exemple la reconnaissance d’images, la traduction de langage, l’analyse ou la prise de décision. Cette discipline au sens large débute avec la naissance de l‘informatique en s’appuyant sur l’algorithmique qui date de l’époque babylonienne…
Cependant, on observe depuis une dizaine d’années une démocratisation de l’IA. En effet, si les théories des réseaux de neurones apprenant datent d’une cinquantaine d’années, ce qui a changé c’est la puissance de calcul et la très grande capacité de stockage de données - dont l’IA est une grande consommatrice, qui sont maintenant à la portée de tous. Sans compter qu’il existe de nombreux environnements et bibliothèques de code qui simplifient grandement la mise en œuvre de modèles d’IA.
L’IA reste néanmoins une discipline compliquée qui demande des expertises pointues, des réglages délicats souvent laborieux et dont chaque application se concentre sur un objectif bien défini.
Notre cerveau est très puissant pour trouver des conclusions avec finalement peu de données en peu de temps. Alors que l’IA trouve des solutions en effectuant une multitude de calculs sur de gros volumes de données. Selon le philosophe Jean-Michel Besnier, co-auteur de « Les robots font-ils l'amour ? Le transhumanisme en 12 questions » : « la particularité de l’humain est de sortir des sentiers battus, tandis que celle de l’IA s’inscrit dans une logique de répétition de calculs ». Dans l’état actuel de nos connaissances, l’IA ne sait pas créer de nouvelles représentations du monde ex-nihilo.
Ce qui rend l’humain unique et qui lui a permis de prendre cette place sur Terre est son extraordinaire capacité à apprendre par imitation, autrement dit à capitaliser le savoir. Puis, à se décaler légèrement de ces acquis pour innover car contrairement aux idées reçues, l’innovation est rarement une rupture mais bien un léger décalage par rapport à une norme. C’est l’idée de « dé-coïncidence » du philosophe François Jullien.
Néanmoins, lorsque le domaine de représentation est bien défini, les capacités d’inférences et d’apprentissage de l’IA sont impressionnantes. Le niveau d’investigation autorisé par les algorithmes IA dépasse nos propres capacités. Prenons l’exemple d’Alpha GO : l’algorithme de DeepMind a vaincu les meilleurs professionnels du jeu de GO impossible à programmer avec des algorithmes classiques tant ses règles sont subtiles. Sa variante Alpha Zero a réussi à apprendre le jeu en quelques jours, en jouant - on pourrait dire explorant - contre elle-même, sans aucune alimentation de tactiques prédéfinies ou de parties jouées par l’homme. Alpha Zero a débuté seule, puis a retrouvé les mêmes intuitions que celles des meilleurs joueurs humains pour finalement trouver ses propres méthodes encore plus efficaces.
Il est certain que de plus en plus de tâches seront faites par des machines, obligeant l’humain à se convertir à d’autres taches. Comme toujours, les outils présentent des opportunités mais aussi des dangers à la hauteur de leur puissance. L’éthique et l’éducation restent donc primordiales pour maitriser les applications de ces technologies. Un autre débat est celui du couplage de l’IA, des Big Data et du contrôle des idées via la surveillance de masse… Là encore une question d’éthique.
L’architecture d’entreprise (EA) est une méthode de transformation continue des organisations qui doivent constamment s’adapter à leur écosystème : règlementations, attente des clients, nouvelles technologies, etc. Cette méthode collaborative s’appuie sur un graphe de connaissance qui décrit les constituants de l’entreprise et leurs interactions ainsi que sur un outil informatique de gouvernance pour cadrer et orchestrer la transformation tout en restant agile.
Dans le domaine de l’EA, les algorithmes classiques sont utilisés pour réaliser des analyses d’impacts, des comparaisons de scénarios ou encore l’analyse de propagation d’incidents au sein de la structure de l’entreprise.
Mais comme on l’imagine, l’entreprise est un système très complexe, non linéaire, qui met en jeu un grand nombre de variables. Et pour un tel système, il est difficile de modéliser a priori les équations de son fonctionnement et les règles qui régissent son évolution.
Le Deep Learning ou apprentissage profond joue sur différents niveaux d’abstraction - d’où la notion de profondeur - pour extraire du sens à partir de données qu’on lui fournit et produire un résultat tout en s’affranchissant des équations qui régissent le système. Voici quelques champs d’application de l’IA et du Deep Learning :
Il sera prometteur !
Comme on le voit à travers les exemples cités, l’architecture d’entreprise n’échappe pas à l’attractivité du potentiel de l’IA et on va assister à une amélioration et à une multiplication de ses usages dans les années à venir. Nous travaillons à son application sur les défis les plus ardus des entreprises : celui de la transformation continue et du design de l’entreprise du futur (future-proof enterprise). Mais cela requiert une puissante représentation (digital twin) de l’entreprise ainsi que des volumes de données importants. Ce qui n’est pas toujours le cas au sein de tous les domaines de l’EA.
Nous travaillons néanmoins à des solutions d’identification d’opportunités de transformation ainsi que de recommandation de scénarios de transformation. Par exemple, l’identification et recommandations de stratégies de migration vers le Cloud… Affaire à suivre !