En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour vous proposer des contenus et services adaptés à vos centres d’intérêts. En savoir plus et gérer ces paramètres. OK X
 
 

 

 

Dossiers

Les hébergeurs d’applications doivent intégrer la complexité de l’IA

Par David Szegedi, Field CTO France, Red Hat

Publication: 4 décembre

Partagez sur
 
Contrairement à ce que l’on peut croire, l’intelligence artificielle n’est pas une entité simple, mais bien une technologie multiple et complexe, aux cas d’usage et aux profils utilisateurs très variés, de sorte qu’il vaudrait même mieux parler « d’intelligences artificielles » au pluriel...
 

Pour gérer cette complexité et répondre aux attentes des entreprises qui souhaitent incorporer les fonctionnalités de l’IA dans leurs applications, il faut des outils adaptés, et plus spécifiquement un cadre capable d’agréger tous les types de cas d’usage au sein d’une plateforme unique.

Comprendre la complexité des IA

L’IA, dont il est question à toutes les sauces aujourd’hui, se divise en réalité en deux approches : l’IA générative, dite « IA grand public », que tout le monde connait depuis la création de ChatGPT il y a un peu plus d’un an, et qui consiste notamment à générer des images et vidéos et à développer des chatbots ; et l’IA prédictive, qui existe depuis bien plus longtemps, et qui consiste à analyser des données pour identifier des schémas récurrents. Le regain d’intérêt général pour l’IA, porté par les cas d’usage génératifs, a poussé les éditeurs informatiques à se tourner à nouveau vers cette technologie, pour être en mesure de répondre aux nouveaux usages émergents. Car la valeur ajoutée des usages de l’IA prédictive, comme améliorer les capacités de détection des fraudes par une banque, peut dans certains cas bénéficier des apports de l’IA générative, comme perfectionner un chatbot pour les clients de cette même banque.

S’appuyer sur des plateformes intégrées qui permettent de gérer les deux types d’IA, de manière indépendante, constitue donc un choix stratégique de premier plan pour les entreprises, tous secteurs confondus, qui veulent rester innovantes. Il ne faut pas non plus oublier les aspects sécurité et traçabilité ; en effet, l’IA n’est pas qu’un enjeu technologique, mais comporte aussi un pan lié à la gouvernance et à la conformité. Il faut être capable de savoir comment une intelligence a été entraînée, ou encore rester attentif aux biais potentiels qui peuvent apparaître. Ici, l’open source s’avère un choix stratégique pour apporter la transparence nécessaire, qui permettra aux entreprises de garantir la technologie sur laquelle sont construits leurs modèles d’IA. A l’heure actuelle, aucun des leaders en IA générative n’apporte cette transparence, et chacun reste une véritable boîte noire pour les utilisateurs.

Les cas d’applications sont multiples

L’IA a besoin de données dites « fraîches », c’est-à-dire récentes, afin de minimiser le risque de voir apparaître des biais ou de faux résultats (hallucinations). Cela explique pourquoi les itérations des modèles d’IA sont très régulières, et se produisent parfois en quelques mois, alors que les cycles de vie à l’ère des entrepôts de données et du Big Data était de l’ordre de plusieurs années,, avec le besoin de réinjecter de nouvelles données quand la modélisation mathématique a atteint sa limite. Par exemple, dans le cas d’un modèle de conduite autonome entrainé dans un milieu urbain donné, qui évolue très rapidement (travaux, signalisation, vitrines de magasins…), une voiture peut vite se retrouver perdue s’il n’y a pas eu d’itération récente de son modèle d’IA.

Face à cette accélération sans précédent du rythme de production, la plupart des utilisateurs, quel que soit leur niveau de connaissances, se sentent perdus. Le besoin en termes de puissance de calcul et de données est également de plus en plus pressant, pour permettre à l’IA de s’approcher au maximum de la granularité de l’intelligence humaine, et pouvoir évaluer chaque situation comme le ferait un humain.

Mais la meilleure illustration de la complexité de l’IA reste la diversité de ses cas d’usages. Historiquement, le premier secteur qui y a fait appel est la banque-assurance, pour faire face à l’explosion des volumes de paiements dématérialisés, et améliorer la détection des fraudes, grâce à l’échantillonnage des données et l’identification rapide de patterns de fraude. Ce secteur a également mis à profit l’IA pour améliorer la satisfaction client avec un parcours simplifié, plus rapide, assisté par des chatbots.

Du côté du secteur de la santé, l’IA a permis de faire d’énormes progrès dans l’interprétation des radios des patients, avant de confier l’étape du diagnostic à un professionnel de santé humain. Le parcours du patient est ainsi optimisé, en termes d’efficacité et de temps. De la même façon, ce gain de vitesse a également bénéficié à la création de médicaments et de vaccins. Sans l’IA, la recherche génomique ne pourrait pas aboutir à la rapidité de résultat actuelle.

Enfin, le secteur des transports fédère également deux cas d’usages majeurs, à commencer par la conduite autonome, qui dépend des progrès réalisés en matière de « sécurité fonctionnelle », c’est-à-dire la détection des risques autour des véhicules. Il s’agit d’un chantier extrêmement important, qui combine l’IA avec la technologie edge, au plus proche de l’utilisateur, grâce aux systèmes embarqués dans les véhicules. Et d’autre part, la généralisation de l’automatisation des trains de fret, qui pourrait, à terme, être appliquée également aux trains de passagers.

Diversifier les cas d’applications des plateformes

Pour répondre aux attentes des entreprises qui souhaitent des applications modernes intégrant l’IA, les plateformes d’hébergement des applications doivent savoir adresser tous les types de profils d’utilisateurs, du data scientist spécialiste en mathématiques, au MLops en charge de l’aspect opérationnel et du cycle de vie des modèles d’IA, en passant par le développeur.

Il faut désormais prendre en compte les apports de l’IA générative, en générant par exemple du contenu sur la base d’un prompt, pour répondre aux besoins des utilisateurs chargés des tâches d’administration ou de génération de contenus.

Pour l’administration, il peut s’agir de développer le conseil aux utilisateurs sur la base des bonnes pratiques constatées sur des configurations équivalentes. Pour le contenu, cela peut concerner l’aide à la création de code, en s’inspirant du patrimoine logiciel disponible chez les éditeurs ou bien directement chez les clients.

Dans le cas où les clients conçoivent eux-mêmes leurs propres applications, il faut créer, déployer et faire vivre des modèles d’IA, et notamment de Machine Learning, avec leur cycle de vie. Néanmoins, les plateformes qui réussissent à adresser plus d’un type de profil sont encore rares.

Le marché de l’IA est encore loin de la maturité, comme le prouve l’absence actuelle de standardisation sur les déploiements. Au contraire, il se trouve dans sa phase ascendante, celle durant laquelle il convient de se structurer avec les bons éditeurs, pour atteindre une IA standardisée et cadrée, qui permettra de décupler sa valeur ajoutée. Pour cela, il est indispensable de surmonter la complexité de l’IA et la diversité de ses profils technologiques en s’appuyant sur un cadre adapté.

https://www.redhat.com/

Suivez MtoM Mag sur le Web

 

Newsletter

Inscrivez-vous a la newsletter d'MtoM Mag pour recevoir, régulièrement, des nouvelles du site par courrier électronique.

Email: