console.warn && console.warn("[GTM4WP] Google Tag Manager container code placement set to OFF !!!"); console.warn && console.warn("[GTM4WP] Data layer codes are active but GTM container must be loaded using custom coding !!!");

Actualités et ressources

Expérience interactive IVADO Labs avec le robot Ameca

Nous avons récemment développé un programme capable de répondre à une variété de questions sur les services d’IVADO Labs et les technologies d’intelligence artificielle. Nous avons travaillé avec Engineered Arts pour intégrer notre programme à leur robot humanoïde Ameca, afin de donner une dimension hautement interactive aux conversations. Déployée à l’occasion de l’événement ALL IN, cette expérience a été couronnée de succès! Retour sur les étapes clés de ce projet novateur.

Intelligence artificielle générative

Notre objectif était de donner un aperçu concret de ce qu’il est possible de faire actuellement en exploitant l’intelligence artificielle générative avec une approche de programmation personnalisée. C’est ainsi que nous avons eu l’idée de développer un assistant conversationnel capable de nous accompagner sur notre kiosque à l’événement et de répondre à des questions sur IVADO Labs et plus généralement sur le potentiel de l’intelligence artificielle. En intégrant le programme au robot Ameca, nous avons renforcé l’interactivité humain-machine dans un contexte événementiel. En plus de démontrer comment l’IA peut être utilisée pour créer une expérience à la fois informative et divertissante, cela s’est avéré être un excellent exercice de sensibilisation pour communiquer sur le potentiel et les points de vigilance à prendre en considération avec les systèmes d’IA actuels. En termes imagés, nous avons donc conçu le « cerveau » du robot, tandis qu’Engineered Arts a créé son « corps »

Placeholder iframe

Oups

Tu dois accepter les COOKIES marketing pour REGARDER CETTE vidéo.

Le cerveau derrière le robot

Pour programmer le « cerveau » d’Ameca, nous avons utilisé une combinaison de méthodes et d’outils lui permettant de fournir des réponses pertinentes.

 

D’abord, nous avons créé une base de connaissances sur IVADO Labs, composée d’un certain volume de documents textes tels que des extraits de notre site web, des textes, des diapositives, etc. Cela peut sembler une étape simple à réaliser au sein de sa propre organisation, mais il y a plusieurs enjeux techniques à prendre en considération. Parmi eux, faire en sorte que la documentation soit la plus facile possible à interpréter par le modèle de langage. Cela implique notamment de hiérarchiser l’information d’une certaine manière, et d’itérer avec le modèle de langage pour stabiliser la pertinence des réponses. Il y a également l’étape de conversion des documents textes au format vectoriel, pour les rendre interprétables par le programme.

 

En parallèle, notre connaissance des derniers outils disponibles et des librairies de grands modèles de langage (Large Language Models) nous a permis de rapidement faire un choix éclairé sur la combinaison d’outils à exploiter pour obtenir le modèle le plus performant possible dans le temps imparti. Notre choix s’est porté sur:

 

  • LangChain et LlamaIndex pour connecter les ressources documentaires, orchestrer les différents appels aux modèles et proposer une interface conversationelle; 
  • L’API d’OpenAI pour encoder les documents, trouver les correspondances et répondre aux questions contextualisées.

 

Par la suite, l’enjeu majeur d’un point de vue programmation était de réussir à fournir un contexte, un cadre, pour que le programme réussise à associer des documents ou des bouts de documents de manière pertinente pour formuler une réponse appropriée à la question posée. Nous avons principalement exploité le modèle GPT3.5-turbo d’OpenAI pour cette étape. Pour valider le modèle, nous avons déployé un test à l’échelle d’IVADO Labs, invitant l’équipe à poser des questions à l’assistant conversationnel et à classer ses réponses selon quatre niveaux de satisfaction / insatisfaction. Cette étape de test nous a permis de déceler des erreurs non identifiées jusque-là et de générer un stock de questions pour faciliter les itérations sur les tests suivants.

 

Finalement, en vue de déployer le modèle dans ce contexte événementiel où l’incertitude est élevée, nous avons dû le programmer de sorte que certaines caractéristiques comme la longueur et le ton souhaités des réponses génèrent des interactions qui soient les plus naturelles et spontanées possibles.

Coulisses des questions / réponses

Concrètement, lorsqu’un participant posait une question à Ameca, un algorithme de reconnaissance vocale automatique (en anglais, “speech to text”) convertissait la question orale en texte via le logiciel Whisper d’OpenAI.

Ainsi convertie, la question était ensuite dirigée vers notre API déployée dans notre environnement infonuagique (cloud). Notre API appelait le modèle, récupérait ainsi une réponse et la renvoyait au robot. Ameca répondait alors au participant avec une voix de synthèse conçue par Amazon Polly, en français ou en anglais selon la langue utilisée pour lui parler.

 

Retour d’expérience

Mettre notre programme à l’épreuve dans un tel contexte événementiel était une expérience riche d’apprentissages! Nous avons reçu beaucoup de questions sur le fonctionnement du robot, beaucoup de monde pensait que le robot était « simplement » connecté à ChatGPT pour répondre à toutes sortes de questions. Cela nous a permis d’expliquer comment nous avons réussi à créer une expérience sur-mesure pour amener plus de valeur ajoutée aux participants.

Nous avons également engagé des discussions avec des représentants de différentes industries sur le potentiel d’application de l’intelligence artificielle générative pour leurs propres organisations. Amélioration du service à la clientèle en fournissant des réponses instantanées, accès facilité à l’information, formulation rapide de différents scénarios: plusieurs cas d’usage pertinents ont été discutés.

Réservez une démonstration personnalisée avec notre équipe

Quels domaines souhaitez-vous optimiser avec l'IA ?
  • Vous pouvez sélectionner plusieurs réponses parmi les options ci-dessous.