Microsoft : L’IA doit apprendre à demander de l’aide

Vik Singh, vice-président chez Microsoft, souligne que les outils d'intelligence artificielle (IA) générative permettront aux entreprises de réaliser d'importantes économies de temps et d'argent, malgré le fait que ces applications doivent encore apprendre à reconnaître leurs propres limites.

Vik Singh, vice-président chez Microsoft, souligne que les outils d’intelligence artificielle (IA) générative permettront aux entreprises de réaliser d’importantes économies de temps et d’argent, malgré le fait que ces applications doivent encore apprendre à reconnaître leurs propres limites.

Lors d’une interview avec l’Agence France-Presse, Singh a déclaré : “Ce qui manque à ces modèles aujourd’hui, c’est leur incapacité à admettre clairement qu’ils ne sont pas certains de certaines réponses et qu’ils ont besoin d’aide.”

Depuis l’année dernière, Microsoft, Google et d’autres entreprises concurrentes ont lancé à un rythme soutenu des applications basées sur l’IA générative, telles que “ChatGPT”.

Ces outils produisent divers types de contenus à partir de simples requêtes en langage courant, donnant souvent l’impression aux utilisateurs qu’ils savent tout. Cependant, malgré ces avancées, ils tombent parfois dans le piège des “hallucinations”, c’est-à-dire l’invention de réponses.

Singh a indiqué : “Des personnes très intelligentes travaillent à résoudre ce problème (…) afin que les modèles puissent identifier les questions auxquelles ils ne connaissent pas les réponses et demander de l’aide.”

Il a ajouté que les modèles d’IA les plus modestes peuvent être tout aussi utiles. À titre d’exemple, il mentionne un assistant IA spécialisé dans le service à la clientèle. “J’ai parlé à une entreprise qui dépensait 8 dollars par demande chaque fois qu’un de ses représentants répondait.”

Même si la machine doit faire appel à une personne pour trouver une solution dans la moitié des cas, l’entreprise continue de réaliser “des économies énormes”.

Sky news

Partagez
Leave a comment

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

error: Avertissement de Copyright
Quitter la version mobile