Menu

L’IA responsable vous donnera un avantage concurrentiel

16 janvier 2022 - Technologies


Vous avez manqué une session du Future of Work Summit ? Rendez-vous sur notre bibliothèque à la demande Future of Work Summit pour diffuser.


Il ne fait aucun doute que l’IA modifie le paysage des affaires et offre des avantages concurrentiels à ceux qui l’adoptent. Il est temps, cependant, d’aller au-delà de la simple mise en œuvre de l’IA et de veiller à ce que l’IA se fasse de manière sûre et éthique. C’est ce qu’on appelle l’IA responsable et servira non seulement de protection contre les conséquences négatives, mais aussi d’avantage concurrentiel en soi.

Qu’est-ce que l’IA responsable ?

L’IA responsable est un cadre de gouvernance qui couvre les préoccupations éthiques, juridiques, de sécurité, de confidentialité et de responsabilité. Bien que la mise en œuvre d’une IA responsable varie d’une entreprise à l’autre, sa nécessité est évidente. Sans pratiques d’IA responsables en place, une entreprise est exposée à de graves risques financiers, de réputation et juridiques. Du côté positif, les pratiques responsables en matière d’IA deviennent même des conditions préalables pour soumissionner sur certains contrats, en particulier lorsque les gouvernements sont impliqués ; une stratégie bien exécutée aidera grandement à remporter ces enchères. De plus, adopter une IA responsable peut contribuer à un gain de réputation pour l’entreprise dans son ensemble.

Valeurs par conception

Une grande partie du problème de la mise en œuvre d’une IA responsable se résume à la prévoyance. Cette prévoyance est la capacité de prédire les problèmes éthiques ou juridiques qu’un système d’IA pourrait avoir au cours de son cycle de vie de développement et de déploiement. À l’heure actuelle, la plupart des considérations relatives à l’IA responsable se produisent après le développement d’un produit d’IA – un moyen très inefficace de mettre en œuvre l’IA. Si vous souhaitez protéger votre entreprise des risques financiers, juridiques et de réputation, vous devez démarrer des projets avec une IA responsable à l’esprit. Votre entreprise doit avoir des valeurs par conception, et non par ce que vous obtenez à la fin d’un projet.

Mettre en œuvre des valeurs dès la conception

L’IA responsable couvre un grand nombre de valeurs qui doivent être priorisées par la direction de l’entreprise. Bien qu’il soit important de couvrir tous les domaines dans tout plan d’IA responsable, la quantité d’efforts que votre entreprise consacre à chaque valeur dépend des dirigeants de l’entreprise. Il doit y avoir un équilibre entre la vérification de l’IA responsable et la mise en œuvre effective de l’IA. Si vous consacrez trop d’efforts à une IA responsable, votre efficacité peut en souffrir. D’un autre côté, ignorer l’IA responsable, c’est faire preuve d’insouciance avec les ressources de l’entreprise. La meilleure façon de lutter contre ce compromis est de commencer par une analyse approfondie au début du projet, et non comme un effort après coup.

La meilleure pratique consiste à établir un comité d’IA responsable pour examiner vos projets d’IA avant qu’ils ne démarrent, périodiquement pendant les projets et à la fin. Le but de ce comité est d’évaluer le projet par rapport aux valeurs responsables de l’IA et d’approuver, de désapprouver ou de désapprouver les actions visant à mettre le projet en conformité. Cela peut inclure la demande d’obtenir plus d’informations ou des choses qui doivent être fondamentalement modifiées. À l’instar d’un comité d’examen institutionnel utilisé pour surveiller l’éthique dans la recherche biomédicale, ce comité devrait comprendre à la fois des experts en IA et des membres non techniques. Les membres non techniques peuvent provenir de n’importe quel milieu et servir de vérification de la réalité des experts en IA. Les experts en IA, en revanche, peuvent mieux comprendre les difficultés et les solutions possibles, mais peuvent devenir trop habitués aux normes institutionnelles et industrielles qui peuvent ne pas être suffisamment sensibles aux préoccupations de la communauté au sens large. Ce comité doit être convoqué au début du projet, périodiquement pendant le projet et à la fin du projet pour approbation finale.

Quelles valeurs le comité IA responsable devrait-il prendre en compte ?

Les valeurs sur lesquelles se concentrer doivent être considérées par l’entreprise comme s’inscrivant dans son énoncé de mission global. Votre entreprise choisira probablement des valeurs spécifiques à mettre en avant, mais tous les principaux domaines de préoccupation doivent être couverts. Il existe de nombreux cadres que vous pouvez choisir d’utiliser pour vous inspirer, tels que Google et Facebook. Pour cet article, cependant, nous baserons la discussion sur les recommandations formulées par le groupe d’experts de haut niveau sur l’intelligence artificielle mis en place par la Commission européenne dans la liste d’évaluation pour une intelligence artificielle digne de confiance. Ces recommandations portent sur sept domaines. Nous explorerons chaque domaine et suggérerons des questions à poser concernant chaque domaine.

1. Agence humaine et supervision

Les projets d’IA doivent respecter l’agence humaine et la prise de décision. Ce principe implique la manière dont le projet d’IA influencera ou soutiendra les humains dans le processus de prise de décision. Cela implique également la façon dont les sujets de l’IA seront sensibilisés à l’IA et feront confiance à ses résultats. Certaines questions qui doivent être posées incluent:

  • Les utilisateurs sont-ils informés qu’une décision ou un résultat est le résultat d’un projet d’IA ?
  • Existe-t-il un mécanisme de détection et de réponse pour surveiller les effets négatifs du projet d’IA ?

2. Robustesse technique et sécurité

La robustesse et la sécurité techniques exigent que les projets d’IA traitent de manière préventive les préoccupations concernant les risques associés à un fonctionnement peu fiable de l’IA et minimisent leur impact. Les résultats du projet d’IA devraient inclure la capacité de l’IA à fonctionner de manière prévisible et cohérente, et devraient couvrir le besoin de l’IA d’être protégée des problèmes de cybersécurité. Certaines questions qui doivent être posées incluent:

  • Le système d’IA a-t-il été testé par des experts en cybersécurité ?
  • Existe-t-il un processus de surveillance pour mesurer et accéder aux risques associés au projet d’IA ?

3. Confidentialité et gouvernance des données

L’IA doit protéger la vie privée des individus et des groupes, tant dans ses entrées que dans ses sorties. L’algorithme ne doit pas inclure de données qui ont été recueillies d’une manière qui viole la vie privée, et il ne doit pas donner de résultats qui violent la vie privée des sujets, même lorsque de mauvais acteurs essaient de forcer de telles erreurs. Pour le faire efficacement, la gouvernance des données doit également être une préoccupation. Les questions appropriées à poser incluent :

  • Certaines des données de formation ou d’inférence utilisent-elles des données personnelles protégées ?
  • Les résultats de ce projet d’IA peuvent-ils être croisés avec des données externes d’une manière qui violerait la vie privée d’un individu ?

4. Transparence

La transparence couvre les préoccupations concernant la traçabilité des résultats individuels et l’explicabilité globale des algorithmes d’IA. La traçabilité permet à l’utilisateur de comprendre pourquoi une décision individuelle a été prise. L’explicabilité fait référence à la capacité de l’utilisateur à comprendre les bases de l’algorithme qui a été utilisé pour prendre la décision. Cela fait également référence à la capacité de l’utilisateur à comprendre quels facteurs ont été impliqués dans le processus de prise de décision pour sa prédiction spécifique. Les questions à se poser sont :

  • Surveillez-vous et enregistrez-vous la qualité des données d’entrée ?
  • Un utilisateur peut-il recevoir des commentaires sur la façon dont une certaine décision a été prise et sur ce qu’il pourrait faire pour changer cette décision ?

5. Diversité, non discrimination

Pour être considéré comme une IA responsable, le projet d’IA doit fonctionner au mieux pour tous les sous-groupes de personnes. Bien que les biais de l’IA puissent rarement être entièrement éliminés, ils peuvent être gérés efficacement. Cette atténuation peut avoir lieu pendant le processus de collecte de données – pour inclure un contexte plus diversifié de personnes dans l’ensemble de données de formation – et peut également être utilisée au moment de l’inférence pour aider à équilibrer la précision entre différents groupes de personnes. Les questions courantes incluent :

  • Avez-vous équilibré autant que possible votre ensemble de données d’entraînement pour inclure divers sous-groupes de personnes ?
  • Définissez-vous l’équité, puis évaluez-vous quantitativement les résultats ?

6. Bien-être sociétal et environnemental

Un projet d’IA doit être évalué en termes d’impact sur les sujets et les utilisateurs ainsi que sur son impact sur l’environnement. Les normes sociales telles que la prise de décision démocratique, le maintien des valeurs et la prévention de la dépendance aux projets d’IA doivent être respectées. En outre, les résultats des décisions du projet AI sur l’environnement doivent être pris en compte le cas échéant. Un facteur applicable dans presque tous les cas est une évaluation de la quantité d’énergie nécessaire pour former les modèles requis. Les questions qui peuvent être posées :

  • Avez-vous évalué l’impact du projet sur ses utilisateurs et ses sujets ainsi que sur les autres parties prenantes ?
  • Quelle quantité d’énergie est nécessaire pour entraîner le modèle et dans quelle mesure cela contribue-t-il aux émissions de carbone ?

7. Responsabilité

Une personne ou une organisation doit être responsable des actions et des décisions prises par le projet d’IA ou rencontrées au cours du développement. Il devrait y avoir un système garantissant une possibilité adéquate de réparation dans les cas où des décisions préjudiciables sont prises. Il faudrait également consacrer du temps et de l’attention à la gestion et à l’atténuation des risques. Les questions appropriées incluent :

  • Le système d’IA peut-il être audité par des tiers pour les risques ?
  • Quels sont les principaux risques associés au projet d’IA et comment peuvent-ils être atténués ?

La ligne du bas

Les sept valeurs de l’IA responsable décrites ci-dessus fournissent un point de départ pour l’initiative d’IA responsable d’une organisation. Les organisations qui choisissent de rechercher une IA responsable découvriront qu’elles ont de plus en plus accès à davantage d’opportunités, telles que la soumission de contrats gouvernementaux. Les organisations qui ne mettent pas en œuvre ces pratiques s’exposent à des risques juridiques, éthiques et de réputation.

David Ellison est Senior AI Data Scientist chez Lenovo.

VentureBeat

La mission de VentureBeat est d’être une place publique numérique permettant aux décideurs techniques d’acquérir des connaissances sur la technologie transformatrice et d’effectuer des transactions. Notre site fournit des informations essentielles sur les technologies et les stratégies de données pour vous guider dans la direction de vos organisations. Nous vous invitons à devenir membre de notre communauté, pour accéder :

  • des informations actualisées sur les sujets qui vous intéressent
  • nos newsletters
  • contenu de leader d’opinion fermé et accès à prix réduit à nos événements prisés, tels que Transformer 2021: Apprendre encore plus
  • fonctionnalités de mise en réseau, et plus encore

Devenir membre