Cet article date de plus de cinq ans.

Nouveau monde. La version française de l'assistant Google a plus d'autodérision que son équivalent américain

Sympathique, empathique, serviable mais pas trop intrusif et surtout politiquement correct… Les enceintes intelligentes disposent d’une véritable personnalité créée par des équipes spécialisées.

Article rédigé par franceinfo, Jérôme Colombain
Radio France
Publié Mis à jour
Temps de lecture : 2min
Des assistants vocaux connectés (JEROME COLOMBAIN / RADIO FRANCE)

Alors que l’opérateur Orange a lancé cette semaine son assistant vocal, baptisé Djingo, la France compte deux millions d’enceintes "intelligentes". Derrière ces appareils connectés se cachent des bataillons d’auteurs et de spécialistes du langage qui s'affairent à bâtir la personnalité de chaque intelligence artificielle.

franceinfo : Qu’est-ce qui définit la personnalité d’un assistant vocal ?

Lauren Ducrey, responsable de la personnalité de l’assistant Google en français : L’idée est de faire réagir et sourire les utilisateurs lorsqu’ils interrogent l’assistant tous les jours. Par exemple, si l’on demande à l’assistant Google "amuse-moi". En France, on aura une réponse localisée du genre "je peux vous raconter un événement de l’histoire de France" ou "voici une expression française".

Comment faire pour que cette personnalité convienne à tous les publics ?

Il faut que ce soit un personnage accessible aux jeunes comme aux moins jeunes et à chaque pays. Pour cela, nous utilisons des expressions idiomatiques, comme "ciao l’asticot" au lieu de "see you alter alligator", en anglais. Nous nous appuyons aussi sur des événement culturels, tels que la fête des mères ou la fête des pères qui ne tombent pas aux mêmes dates que dans les autres pays. En ce qui concerne le ton, l’assistant est plus dans l’autodérision qu'aux États-Unis afin de coller à l'état d'esprit français.

Y a-t-il des sujets tabous ?

Nous travaillons de manière rapprochée avec une équipe de Google chargée des relations institutionnelles sur toutes les questions sensibles. Par exemple, l’assistant n’a pas d’opinions en matière de religion ou de politique.

N’y a-t-il pas un risque à donner une apparence trop humaine à une intelligence artificielle ?

L’assistant ne doit jamais prétendre être humain, afin de ne pas entretenir de confusion. Par exemple, si on lui dit "je t’aime", il botte en touche et répond "moi, j’aime vous aider" ou "pour moi, discuter avec vous est un plaisir qui me met au septième logiciel". Ce qui m’intéresse personnellement, c’est d’inscrire la diversité linguistique et culturelle dans la sphère numérique et de faire de l’assistant le produit de notre diversité, plutôt qu’un produit très standardisé.

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.