annuler
Affichage des résultats de 
Afficher  uniquement  | Rechercher plutôt 
Vouliez-vous dire : 
lrelandeau
MEGA
MEGA

Qu’est-ce que l’IA, quelles tendances ?

L’Intelligence Artificielle permet à une machine d’effectuer une tâche qui requiert un raisonnement fondé sur des représentations, des inférences, de l’apprentissage et de la mémorisation : par exemple la reconnaissance d’images, la traduction de langage, l’analyse ou la prise de décision. Cette discipline au sens large débute avec la naissance de l‘informatique en s’appuyant sur l’algorithmique qui date de l’époque babylonienne…

Cependant, on observe depuis une dizaine d’années une démocratisation de l’IA. En effet, si les théories des réseaux de neurones apprenant datent d’une cinquantaine d’années, ce qui a changé c’est la puissance de calcul et la très grande capacité de stockage de données - dont l’IA est une grande consommatrice, qui sont maintenant à la portée de tous. Sans compter qu’il existe de nombreux environnements et bibliothèques de code qui simplifient grandement la mise en œuvre de modèles d’IA.

L’IA reste néanmoins une discipline compliquée qui demande des expertises pointues, des réglages délicats souvent laborieux et dont chaque application se concentre sur un objectif bien défini.

 

L’IA est-elle dangereuse, peut-elle remplacer l’homme ?

Notre cerveau est très puissant pour trouver des conclusions avec finalement peu de données en peu de temps. Alors que l’IA trouve des solutions en effectuant une multitude de calculs sur de gros volumes de données. Selon le philosophe Jean-Michel Besnier, co-auteur de « Les robots font-ils l'amour ? Le transhumanisme en 12 questions » : « la particularité de l’humain est de sortir des sentiers battus, tandis que celle de l’IA s’inscrit dans une logique de répétition de calculs ». Dans l’état actuel de nos connaissances, l’IA ne sait pas créer de nouvelles représentations du monde ex-nihilo.

Ce qui rend l’humain unique et qui lui a permis de prendre cette place sur Terre est son extraordinaire capacité à apprendre par imitation, autrement dit à capitaliser le savoir. Puis, à se décaler légèrement de ces acquis pour innover car contrairement aux idées reçues, l’innovation est rarement une rupture mais bien un léger décalage par rapport à une norme. C’est l’idée de « dé-coïncidence » du philosophe François Jullien. 

Néanmoins, lorsque le domaine de représentation est bien défini, les capacités d’inférences et d’apprentissage de l’IA sont impressionnantes. Le niveau d’investigation autorisé par les algorithmes IA dépasse nos propres capacités. Prenons l’exemple d’Alpha GO : l’algorithme de DeepMind a vaincu les meilleurs professionnels du jeu de GO impossible à programmer avec des algorithmes classiques tant ses règles sont subtiles. Sa variante Alpha Zero a réussi à apprendre le jeu en quelques jours, en jouant - on pourrait dire explorant - contre elle-même, sans aucune alimentation de tactiques prédéfinies ou de parties jouées par l’homme. Alpha Zero a débuté seule, puis a retrouvé les mêmes intuitions que celles des meilleurs joueurs humains pour finalement trouver ses propres méthodes encore plus efficaces.

Il est certain que de plus en plus de tâches seront faites par des machines, obligeant l’humain à se convertir à d’autres taches. Comme toujours, les outils présentent des opportunités mais aussi des dangers à la hauteur de leur puissance. L’éthique et l’éducation restent donc primordiales pour maitriser les applications de ces technologies. Un autre débat est celui du couplage de l’IA, des Big Data et du contrôle des idées via la surveillance de masse… Là encore une question d’éthique.


Quel lien entre IA - Deep Learning et Architecture d’Entreprise (EA) ?

L’architecture d’entreprise (EA) est une méthode de transformation continue des organisations qui doivent constamment s’adapter à leur écosystème : règlementations, attente des clients, nouvelles technologies, etc. Cette méthode collaborative s’appuie sur un graphe de connaissance qui décrit les constituants de l’entreprise et leurs interactions ainsi que sur un outil informatique de gouvernance pour cadrer et orchestrer la transformation tout en restant agile.

Dans le domaine de l’EA, les algorithmes classiques sont utilisés pour réaliser des analyses d’impacts, des comparaisons de scénarios ou encore l’analyse de propagation d’incidents au sein de la structure de l’entreprise.

Mais comme on l’imagine, l’entreprise est un système très complexe, non linéaire, qui met en jeu un grand nombre de variables. Et pour un tel système, il est difficile de modéliser a priori les équations de son fonctionnement et les règles qui régissent son évolution.

Le Deep Learning ou apprentissage profond joue sur différents niveaux d’abstraction - d’où la notion de profondeur - pour extraire du sens à partir de données qu’on lui fournit et produire un résultat tout en s’affranchissant des équations qui régissent le système. Voici quelques champs d’application de l’IA et du Deep Learning :

  • La reconnaissance d’images : Permet de photographier des dessins pour les convertir instantanément en modèles structurés. Les modèles peuvent être des modèles de processus, des modèles de données, des modèles de structures applicatives, de réseaux informatiques, etc. La conversion du dessin en modèle structuré permet de les analyser par exemple savoir que telle donnée sensible est utilisée dans le cadre de tel processus métier.
  • La traduction linguistique : Beaucoup d’entreprises ont le besoin de communiquer en interne dans différentes langues : une langue de travail officielle complétée de langues locales permettant à chaque communauté linguistique de contribuer dans sa langue natale. La traduction automatique instantanée, ou par lot, fonctionne très bien pour constituer un référentiel multilingue et faciliter la communication et l’alignement interne.
  • Transformation de modèles : La particularité de tout modèle est de ne pas être universel. Les modèles sont des représentations de la réalité conçues pour un usage particulier. On est amené à transformer les modèles pour en produire des vues différentes pour divers usages. On s’appuie alors sur un double mécanisme de transformation formelle de graphe et d’intelligence artificielle pour proposer des vues qui répondent aux préoccupations de divers utilisateurs dans l’entreprise.
  • Interaction en Langage naturel (Natural Language Processing - NLP) : Les techniques de traitement du (presque) langage naturel reposent sur l’analyse sémantique de la question et de son rapprochement vers des informations du référentiel [via des distances vectorielles par exemple - cf. Word2vec]. La mise à disposition des résultats via des requêtes et des rapports, facilite la consultation des données par l’ensemble des employés d’une entreprise pour qu’ils en comprennent le fonctionnement, la structure et contribuent à sa transformation.
  • La normalisation de données : Sur le même principe que les techniques NLP, la normalisation de données permet de rapprocher des termes et présenter des synthèses de données. Typiquement, si vous effectuez un scan de votre SI à la recherche des applications ou technologies déployées dans l’entreprise, les données brutes contiendront des doublons et des variantes - différences de nom, fautes de frappes, versions mineures d’un logiciel… - ou des composants mineurs qui noieront l’information. Il faut donc en extraire une vue nettoyée, consolidée et mise en perspective et classée en rapport aux leviers de gestion de l’entreprise.
  • Les métadonnées et la reconnaissance de « pattern » métier : Les nouveaux outils du cloud embarquent de plus en plus de métadonnées, aussi bien dans le cadre du big-data que dans le cadre des traitements informatiques - descriptions d’API, d’ETL, etc. L’analyse sémantique de ces métadonnées et leur rapprochement avec les informations du référentiel - portfolios des processus, des fonctions et des produits de l’entreprise - facilitent la mise en relation entre les équipes en charge du pilotage opérationnel et celles qui s’occupent des nouveaux développements et de la transformation continue. C’est un vecteur de succès de l’agilité à l’échelle.
  • L’analyse de risque des projets de transformation : Par la collecte des données opérationnelles des projets couplée à des données architecturales - échelle, domaine, complexité, ramifications, technologies, ampleur de la transformation, timing et ressources…- nous pouvons essayer de prédire le niveau de risque d’un projet de transformation. Ce risque est bien sûr différent d’une entreprise à l’autre et prend en compte de nombreux facteurs, comme celui de sa culture projet par exemple. Ici, il faut suffisamment de données d’une entreprise pour obtenir une signature pertinente qui la caractérise. 

 

Comment envisager le futur de l’IA au service de l’Architecture d’Entreprise ?

Il sera prometteur !

Comme on le voit à travers les exemples cités, l’architecture d’entreprise n’échappe pas à l’attractivité du potentiel de l’IA et on va assister à une amélioration et à une multiplication de ses usages dans les années à venir. Nous travaillons à son application sur les défis les plus ardus des entreprises : celui de la transformation continue et du design de l’entreprise du futur (future-proof enterprise). Mais cela requiert une puissante représentation (digital twin) de l’entreprise ainsi que des volumes de données importants. Ce qui n’est pas toujours le cas au sein de tous les domaines de l’EA.

Nous travaillons néanmoins à des solutions d’identification d’opportunités de transformation ainsi que de recommandation de scénarios de transformation. Par exemple, l’identification et recommandations de stratégies de migration vers le Cloud… Affaire à suivre !

1 Commentaire
contributeurs