Passer au contenu principal

Découvrez comment
Qualtrics fonctionne

Demander une démo

Qui est responsable : vous ou la machine ? Tout ce que vous devez savoir sur l’IA

14 minutes de lecture


Des start-ups aux grands groupes en passant par les supermarchés, toutes les organisations, toutes les entreprises et tous les magasins se tournent vers l’intelligence artificielle. De toute façon, ceux qui ne l’adoptent pas sont condamnés à se laisser distancer. Mais si nous sommes tous bien conscients d’avoir besoin de l’IA, une question demeure sur toutes les lèvres : comment pouvons-nous bien l’utiliser… et le faisons-nous déjà ?

Algorithmes de moteur de recherche, navigation satellite, assistance numérique à la maison… L’intelligence artificielle joue un rôle clé dans nos vies. On s’autodiagnostique une grippe estivale à l’aide d’une recherche Google, on fait une réclamation auprès d’un agent conversationnel pour un retard de livraison et on demande même à notre robot aspirateur – qu’on a non sans mal nommé – de nettoyer après nous.

Si on se posait un peu pour bien y réfléchir, il ne fait aucun doute qu’on se rendrait compte de la place que l’IA a prise dans toutes nos actions.

Pourtant, bien que l’intégration de l’IA soit largement répandue, ce sont de nouvelles avancées qui remettent au goût du jour cette éternelle question.

Pouvons-nous faire confiance aux machines ?

Nous sommes tous familiers avec des films comme Ex Machina, Blade Runner (l’original et 2049) ou Matrix, qui est sans doute le plus important de la liste, mais ce n’est que de la science-fiction, n’est-ce pas ? De la fiction.

Même si nous sommes loin des robots sentients qu’on ne peut même plus distinguer des humains, la vitesse à laquelle l’IA et son utilisation évoluent pourrait la rendre plus nuisible qu’utile si nous n’intervenons pas.

La ruée vers l’IA

Pratiquement toutes les organisations au monde pensent IA et planifient de l’adopter. En lui confiant des tâches qui demandent peu de qualifications, les équipes peuvent consacrer leur temps à produire de la valeur ajoutée ou à fournir de nouveaux ou de meilleurs services.

Mais ce n’est que le sommet de l’iceberg.

L’IA est aussi utilisé par les entreprises pharmaceutiques pour synthétiser de tout nouveaux traitements pour des maladies graves en traitant et analysant rapidement une grande quantité de données d’essai.

Elle aide également les fabricants à surveiller avec attention l’utilisation des machines sur plusieurs sites et à leur signaler quand une intervention d’entretien est nécessaire pour éviter les pannes.

Elle sert même aux détaillants pour tarifier les produits, les empaqueter et les disposer en magasin de façon optimale afin de mieux attirer l’attention des clients et d’être en phase avec ce dont ils ont le plus besoin.

Selon les statistiques de l’IDC, les dépenses concernant l’IA devraient atteindre les 154 milliards de dollars en 2023, ce qui représente une hausse de 26,9 % sur l’année 2022.

Vous avez bien lu : 154 milliards de dollars.

Mais si nous nous mettons à y trouver de l’intérêt, nous ne faisons aussi que commencer à envisager ses conséquences néfastes, tout particulièrement en raison d’une récente évolution.

Une révolution dans l’industrie

En novembre 2022, OpenAI lance un agent conversationnel qui viendra rebattre les cartes comme jamais auparavant pour l’IA — il sait prendre en compte le contexte, les nuances et même l’humour présent dans le langage humain.

ChatGPT.

Construit sur les grands modèles de langage (LLM) de base de OpenAI, tout comme ces prédécesseurs, ChatGPT a complètement redéfini les normes de l’IA en prouvant une chose : les machines sont bel et bien capables d’apprendre toutes les complexités du langage humain.

Grâce à l’utilisation de techniques d’apprentissage profond, il génère des réponses dignes de n’importe lequel d’entre nous.

À son lancement, ChatGPT est devenu extrêmement populaire (ou impopulaire) presque du jour au lendemain tandis que ses utilisateurs partageaient ses prouesses sur les réseaux sociaux. Il existait désormais un agent conversationnel capable d’écrire des histoires ou des programmes de code informatiques et même de prodiguer des conseils de voyage.

Et ce n’est pas tout, ses utilisateurs ont aussi découvert qu’il était programmé pour effectuer une variété de tâches liées au langage – traduction, résumés ou encore réponse aux questions. Ses réponses sont également disponibles en moins d’une seconde, ce qui le rend parfaitement adapté à des conversations en temps réel.

Et tout cela en paraissant… humain.

Mais pour en arriver à ce stade avec n’importe quel type d’IA, il est nécessaire de l’alimenter continuellement avec un gros volume de données. Conversations. Emails. Préférences. Messages. Toutes ces choses qui peuvent l’aider à reproduire une part d’humanité.

Malheureusement, ce genre d’approche peut soulever des interrogations dans un environnement d’entreprise : l’utilisons-nous de manière éthique ? Qu’en pensent nos employés ? Allons-nous avoir des soucis ?

Tout dépend de l’usage que vous en faites

Le principal défi que pose tout type d’IA est d’en faire un usage éthique. Nous savons tous que l’IA a besoin de grands jeux de données riches, mais de combien exactement, et avec quel genre de donnée ? Et quelles en sont les limites et où les placer ?

Pendant longtemps, le développement des IA et leur mise en application dans nos vies et nos entreprises n’ont été soumis à aucun contrôle. Après tout, qui viendrait se plaindre d’un Roomba qui s’active avec la voix ? À moins, bien sûr, qu’il ne vous écoute en permanence.

Beaucoup tirent la sonnette d’alarme quand les organisations se mettent à utiliser ses outils pour exploiter des informations personnelles et/ou privées, écouter des conversations sans permission ou encore renforcer des préjugés et perpétuer par exemple des idées racistes.

Pourquoi ? Parce que c’est à ce moment-là que « l’humanité » de l’IA – et son éthique – sont remises en cause. On commence alors à appliquer nos propres principes aux technologies que nous utilisons.

Ce qui nous amène à un fait primordial : nous sommes les responsables des conséquences qu’aura l’IA. Une machine ne peut être bonne ou mauvaise par nature, c’est le fait de la personne qui la programme. Et des informations avec lesquelles elle est alimentée.

Si les lois qui encadrent l’IA ne sont pas encore établies, celles qui concernent la protection de la vie privée et des données, la santé, la sécurité, les ressources humaines et plus encore le sont bel et bien.

Si nous ne suivons pas des directives claires au sujet des considérations éthiques dans l’usage de ces technologies, comment peut-on s’attendre à une conclusion positive ?

Un mauvais ouvrier a toujours de mauvais outils

Concernant votre entreprise, la question n’est pas d’adopter ou non l’IA, mais plutôt de comment bien l’adopter.

Nous sommes tous plus ou moins familiers avec les avantages que procure l’IA dans différents secteurs, il n’est donc pas compliqué de choisir une solution mais plutôt de savoir comment la mettre en place et l’utiliser correctement.

Par exemple, la plupart des organisations utilisent une sorte d’automatisation robotisée des processus (ou RPA, une forme d’IA) pour gérer leurs opérations, réduire les tâches administratives et libérer du temps précieux pour que leurs employés puissent effectuer des tâches plus bénéfiques. On parle ici de centres d’appels clients, de processus liés aux comptes fournisseurs, ou des envois de demandes pour remplacer une carte bancaire perdue.

Mais tout cela ne peut fonctionner qu’à condition que les processus soient bien définis, solides et logiques. Dès que vous appliquez une forme d’automatisation à un procédé qui ne fonctionne pas ou qui n’est pas adapté à une rigueur à grande échelle, des problèmes commencent à voir le jour et ils sont souvent très coûteux à réparer.

Prenons l’exemple d’une ligne de production automobile. Une usine automobile livre en temps et en heure, tous les jours sans exception, mais pour 100 pièces réalisées, 1 est défectueuse.

Cela correspond à un taux d’erreur de 1 %. Ça parait insignifiant, non ? Et si nous automatisons ce processus ? Tout à coup, l’usine est capable de produire 10 000 pièces… mais 100 sont défectueuses. Un contremaître pourrait effectuer un contrôle de qualité et retirer les pièces défectueuses du cycle de production, mais cet endroit est complètement automatisé, et cela comprend le contrôle de qualité.

De plus, l’IA chargée du contrôle de qualité n’a pas été équipée des bons paramètres pour reconnaitre les pièces défectueuses. Vous voyez comme les choses se compliquent vite ?

Faire les choses bien

L’exemple ci-dessus n’est rien de bien nouveau, mais voici quelques points à prendre en considération si vous comptez adopter des technologies IA de pointe pour votre organisation.

Comment gérer les problèmes en temps réel ?

Passer un processus à grande échelle augmente son efficacité, mais cela exacerbe aussi les problèmes, d’autant plus si vous n’avez pas amélioré votre résolution des problèmes ou votre contrôle de qualité.

Vous aurez peut être besoin d’adapter votre infrastructure pour quelle puisse supporter vos nouvelles capacités. Vous pourrez aussi être obligé de recruter de nouveaux talents et former de nouvelles équipes pour la gestion de vos programmes qui utilisent l’IA.

Quelle qu’en soit la raison, il est essentiel d’envisager toutes les possibilités en amont. C’est ainsi que vous pourrez offrir une solution à la fois éthique et ultra-performante.

Avec quel genre de donnée alimenter vos machines ?

Un point qui pose des difficultés aux organisations – d’autant plus dans notre environnement actuel où les données sont surveillées et protégées – est d’alimenter les algorithmes et les systèmes d’IA avec des données denses et qualitatives.

Comme vous le savez, l’IA n’est qu’un moyen d’atteindre un but, un outil qui aide les organisations à réaliser leurs activités habituelles (et plus encore) en moins de temps et en faisant moins d’efforts.  Mais pour obtenir des résultats optimaux, vous devez lui fournir les bons jeux de données.

Comment protéger les données de vos clients ?

À mesure qu’elle évolue, la capacité de l’intelligence artificielle à non seulement recueillir des données personnelles mais aussi à envahir notre vie privée est amplifiée. Prenez l’exemple des machines à reconnaissance faciale. Elles sont conçues pour reconnaitre automatiquement qui vous êtes sur la base de données préétablies. Elles effectuent une recherche dans une base de données d’images existantes (en fonction de quelles bases de données sont connectées au système de reconnaissance) pour savoir qui vous êtes.

Imaginez maintenant qu’une de ces bases de données fuite ou soit corrompue. Tout à coup, n’importe qui pourrait faire croire à une machine qu’il est quelqu’un ou quelque chose d’autre. Cela pourrait avoir des conséquences désastreuses.

C’est pour cela que des humains doivent impérativement être présents lors de la dernière étape de contrôle. Aucune forme d’IA ne peut fonctionner de manière éthique et efficace sans notre intervention. C’est un fait.

Il est important que vous considériez l’IA comme une valeur ajoutée. Les machines peuvent assurément automatiser des processus difficiles et répétitifs, mais quand il est question d’empathie ou de la compréhension critique de ce que veulent vos clients, vos employés ou d’autres entités, il est essentiel qu’un humain soit responsable de ces décisions.

En attendant que l’IA soit capable de faire preuve de nuance et d’émotion – en d’autres termes, d’agir comme un humain – c’est à nous, en tant que dirigeants, managers, précurseurs, clients et tout simplement en tant que personnes, de fixer les bonnes limites et de faire preuve d’empathie.

Commencez votre parcours d'expérience client avec Qualtrics dès aujourd'hui