AI & Society #15 Juin 2019

Vous souhaitez revivre la 15ème édition d’AI & Society de Juin 2019 ? Découvrez les récapitulatifs des 3 conférences de Pierre-Julien Grizel, Thomas Solignac et Clotilde Chevet.

Talk technologique – Vision par ordinateur — apprendre à une IA à trouver une aiguille dans une botte de foin

Avec Pierre-Julien Grizel, CEO / CTO chez NumeriCube et Responsable de majeure Data Science & IA à Epita.

Pierre-Julien nous propose de comprendre ce qu’est l’analyse d’image, et nous décrypte comment donner du sens aux informations détectées par les IA sur des visuels. Pour ce cas, l’objectif est de détecter une aiguille dans une botte de foin. Pour cela, il décompose son propos en 3 étapes clés :

  • Qu’est-ce que le Deep Learning ?
  • Les réseaux de neurones à convolution : comment ça marche ?
  • Comment fonctionne l’architecture d’un détecteur ?

Quand on parle de machine learning et de deep learning, on parle d’algorithmes capables de deviner/ prédire des comportements en se basant sur les résultats de jeux de données exemples.

Appliquée à notre cas d’aiguille dans une botte de foin, la donne change puisque les données qu’on va analyser sur des images sont des pixels : il faut donc trouver un moyen d’expliquer et de transformer une image en une représentation numérique pour pouvoir l’analyser et y détecter notre aiguille. Le problème c’est que le nombre de pixels est très important et ce qui suggère d’une part beaucoup de paramètres à prendre en compte et d’autre part notre aiguille peut-être placée n’importe où sur une image ce qui donne encore plus de variables à traiter. Pour remédier à cela, Pierre-Julien nous explique ce qu’est la convolution : une technique permettant de réduire des paramètres et de rendre les éléments invariables dans l’espace.

À partir de ces réseaux de neurones à convolution, on va être capable d’effectuer plusieurs types d’opérations. Dans un premier temps, on va être capable de classifier une image puis de décrire où se trouve l’élément dans cette image. Ensuite, ces réseaux vont pouvoir faire de la détection d’objets dans une image et peuvent ainsi tracer un contour autour du ou des éléments en question. Enfin l’opération la plus complexe est la segmentation : les pixels des images vont être analysés un à un et on va être capable de dire à quel objet appartient chaque pixel de l’image. Cette dernière opération est très utilisée pour la reconnaissance d’image pour les voitures autonomes ou encore l’analyse d’imagerie médicale.

Le principe de base de la détection est de faire passer un rectangle sur des images, et d’essayer de le faire matcher avec différentes échelles d’images, jusqu’à ce qu’on détecte quelque chose qu’on est capable de classifier. Un détecteur passe donc sur l’ensemble des parties d’une image, et va être capable de localiser un objet, en essayant de rationaliser la taille des éléments compris dans cette image par rapport à l’objet recherché, et de trouver ses coordonnées.

Voilà comment on retrouve une aiguille dans une botte de foin ! Ces techniques sont plus globalement utilisées pour détecter des défauts dans des chaînes de production, ou encore pour trouver des anomalies dans les analyses des cellules en médecine.

Talk business – Quelle place pour les concepts d’émergence dans les développements d’intelligence artificielle ?

Avec Thomas Solignac, CEO & Co-fondateur de Golem.ai.

L’Intelligence Artificielle fait-elle apparaître des phénomènes fondamentalement nouveaux ? Tout comme la biologie, l’informatique est le théâtre de mécaniques complexes. De toutes ces mécaniques, l’IA semble apporter les possibilités les plus étonnantes, faisant fantasmer l’idée d’un “esprit” sous forme logiciel. Peut-on parler d’émergence ?
Mais d’abord, qu’est-ce que le concept de l’émergence ? On en parle en biologie, en mathématiques, en sociologie et dans bien d’autres domaines… Mais qu’en est-il par rapport à l’intelligence artificielle ? Que se passe-t-il quand on fait de l’IA d’un point de vue ontologique ?

L’émergence c’est lorsque quelque chose apparaît à partir d’un premier élément, mais que ce quelque chose est plus que la somme de l’élément initial.

Pour l’IA c’est une question qui se pose : il s’agit seulement d’électrons faisant des allers-retours sur des matériaux, pour autant on a un résultat qui peut se rapprocher de ce qu’on considère de l’intelligence.  D’un point de vue épistémologique, l’IA se compose de sciences formelles, de sciences naturelles et de sciences humaines et en matière de problèmes traités l’IA est capable de résoudre des problèmes formels comme des calculs, tout comme des problèmes informels tels que la détection d’émotions. L’intelligence artificielle va donc plus loin que les mathématiques pures, elle résout aussi des sciences qui sont moins formelles : il s’agit donc d’une discipline très transversale.

Thomas pose ainsi 3 questions autour de l’émergence :

  • L’émergence existe-t-elle réellement en IA ? Est-ce un phénomène qui à l’échelle du développement des espèces est extraordinaire ou non ?
  • Évolue-t-on vers une singularité ? Les IA auront-elles leur propre développement cognitif ?
  • L’IA fera-t-elle émerger une conscience ?

La question scientifique de l’émergence en IA consiste à se demander si l’IA ressemble aux Hommes, ou pas. 

Talk société – Donner sa langue au bot : l’écriture de la relation Homme-machine

Avec Clotilde Chevet, Enseignante-Chercheuse au CELSA, thèse en science de l’information et de la communication sur le système d’écriture de l’interaction Homme-machine.

Au sens propre, le terme “l’interaction Homme-machine” implique une action réciproque, ce qui voudrait dire qu’il s’agit d’une action de même nature, or à aucun moment il n’y aura un échange de même nature entre l’Homme et la machine.

En revanche, d’un point de vue relationnel on remarque qu’il y a des volontés de créer des attachements, de jouer la carte de l’émotion quand on échange avec ces bots.

Pour introduire son sujet, Clotilde aborde la notion de l’écriture en partant du mythe du Golem : un être inanimé qui prend vie grâce au pouvoir de l’écriture et auquel il était absolument proscrit de donner la parole – car ça aurait alors hissé la créature au même niveau que l’homme. Ce parallèle entre le Golem et l’ordinateur est présent depuis les débuts de l’informatique, de par le fait qu’on donne la parole, qu’on anime un objet grâce à l’écriture.

Il y a plusieurs choses qui se jouent et s’expriment dans l’écriture : notre rapport à nous-mêmes et la manière dont on va formuler nos propos, le rapport à l’autre ; comment on communique auprès de quelqu’un d’autre ; et le rapport au monde car l’écriture permet de décrire, de structurer et d’organiser le monde qui nous entoure.

La machine ne peut reconnaître que ce qu’elle connaît déjà. C’est pourquoi on a commencé à identifier des modèles d’interactions assez intégrés pour pouvoir les modéliser. Donc en échangeant avec une machine, on s’inscrit dans une norme déjà bien établie. On va contraindre notre expression pour l’adapter à ce qu’on sait que la machine est susceptible de comprendre, et chercher à s’exprimer d’une manière qui pourrait déjà exister. On va jouer à trouver ce à quoi la machine peut avoir réponse, en essayant de repousser les tabous dans toutes ces limites : “Tu veux coucher avec moi ?” “Quel est le sens de la vie ?”.

Les personnes en charge de faire “parler” ces bots ont pour responsabilités de trouver leur ton, voix, expression… Clotilde parle même d’un métier de donneur d’”âme” à la machine. Il s’agit en réalité de dialoguistes devant prendre en compte les chemins de conversation en arborescence et les structures fixes dans lesquelles doit entrer le dialogue.

L’objectif pour eux est d’incarner l’assistant. Avec l’utilisation du champ lexical du corps et l’usage d’une voix de synthèse genrée, ils projettent un corps qui n’existe pas. Par exemple l’assistant répond à un “bonjour” par “ravie de te voir” ou encore à un “j’ai besoin d’un calin” par “ferme les yeux, voilà je te serre très fort dans mes bras”.

Certains assistants ont été pensés sur une stratégie de développement de relation interpersonnelle avec les utilisateurs comme l’assistant de Samsung qui répond à “Qui es-tu ?” par “Je suis Galaxy, ton amie pour discuter”. Google a une approche plus servicielle, à la même question il répond “Je suis l’assistant Google” et présente ce qu’il est capable de faire et ses fonctionnalités.

Un des exemples les plus parlant de Clotilde est le suivant : quand on exprime à un assistant “Je t’aime” on réalise bien les différentes approches pour les 4 principaux assistants vocaux : allant de “C’est gentil, mais ça ne se peut pas” “J’apprécie votre intérêt pour mon intelligence, mais n’oubliez pas qu’elle est artificielle” à des formulations plutôt humaines : “Je suis si émue, je ne sais plus quoi dire” ou encore “Moi aussi je t’aime !”.

En conclusion, nous n’avons pas besoin de créer des relations avec ces assistants personnels et autres bots pour qu’ils soient fonctionnels et efficaces, nous pouvons être compris par une machine en langage naturel sans lui prêter des émotions qu’ils n’ont pas. Alors pourquoi est-ce que les entreprises ont tendance à humaniser ces bots ?

Il y a de nombreux enjeux relatifs à ces bots, comme la confiance par exemple, plus on développe une relation forte avec son assistant, plus on lui fait confiance.

En conséquence de cet anthropomorphisme des bots, on observe de plus en plus de problématiques comme l’enfermement des consommateurs, l’acceptation de la réponse unique (principe même des assistants) qui ont une seule réponse à une question dont les utilisateurs se contentent, puisqu’ils se fient à leur assistant – mais derrière l’assistant se cache une marque. Clotilde conclut sur cette citation d’Olivier Ertzscheid :

“Parce que nous parler c’est nous éviter de lire ; parce que nous éviter de lire c’est nous éviter de comparer ; parce que nous éviter de comparer c’est nous éviter de choisir ; parce que nous éviter de choisir c’est pouvoir choisir à notre place

Retrouvez-nous pour notre prochain AI&Society sur notre page Meetup.