Je vous l’accorde, discuter de politique d’utilisation de l’intelligence artificielle n’est pas aussi stimulant que de parler de projets transformateurs ou de nouvelles applications.
Cependant, il s’agit d’une étape importante avant de déployer son utilisation en entreprise.
En fait, même si vous ne planifiez pas d’utiliser l’IA à court terme, il est crucial d’avoir une politique en place pour encadrer son usage. Sans directives claires, vous pourriez être confronté à des situations complexes et risquées.
Saviez-vous que 56 % des entreprises utilisent déjà l’IA sans avoir de politique claire en place ? Une étude récente montre que ce flou peut entraîner des erreurs coûteuses et des risques juridiques majeurs – Littler, 2024
Vous n’êtes pas encore convaincus de l’utilité d’avoir une politique d’utilisation de l’IA?
Voici quelques pistes de réflexion:
- Un employé génère un rapport avec ChatGPT, et la direction l’utilise pour prendre des décisions stratégiques… avant de découvrir des erreurs majeures. Qui est responsable ?
- Un collègue utilise un avatar IA en visioconférence et vous réalisez qu’il ne participe jamais réellement aux discussions. Êtes-vous à l’aise avec cette pratique ?
- Un employé enregistre ses réunions avec une IA sans en informer les participants, y compris des clients. Cette pratique est illégale dans plusieurs juridictions. Comment gérez-vous la situation?
Ces exemples illustrent bien pourquoi il est essentiel d’avoir une politique IA claire. Mais que doit-elle contenir ?
Les 10 éléments d’une politique IA
Une politique d’IA efficace doit fournir un cadre complet pour l’utilisation responsable, éthique et stratégique de l’intelligence artificielle au sein d’une organisation.
Voici les principaux éléments que votre politique d’IA devrait inclure :
1. Objectif et portée
- Définir clairement l’objectif de la politique d’IA et l’aligner avec les objectifs de l’organisation.
- Spécifier à qui s’applique la politique (ex. : employés, sous-traitants, fournisseurs) et les types d’outils d’IA couverts.
- Prendre en compte les différents modèles de travail (télétravail, hybride, présentiel) ainsi que les impacts réglementaires locaux et internationaux. Comme nous l’avons vu dans l’exemple précédent, le travail à distance peut poser des enjeux différents.
2. Principes éthiques
- S’engager à respecter l’équité, la transparence, la responsabilité et le bien-être humain. Le requis de transparence est d’ailleurs un des premiers éléments à entrer en vigueur sous le EU AI Act.
- Inclure des lignes directrices pour éviter les préjudices, réduire les biais algorithmiques, garantir l’équité et préserver l’autonomie des utilisateurs.
- Promouvoir l’explicabilité en exigeant une documentation claire des systèmes d’IA et des processus décisionnels.
3. Protection des données et sécurité
- Établir des protocoles pour gérer les données sensibles, y compris les procédures en cas de violation. Nous collectons de plus en plus de données afin de nourrir les systèmes d’IA; il devient donc primordial d’avoir une bonne gouvernance de données en place.
- Interdire l’insertion de données clients ou de propriété intellectuelle dans les systèmes d’IA non sécurisés afin de prévenir tout usage abusif ou vol d’informations. Quelles actions prendrez-vous si un employé partage des informations confidentielles avec un LLM non sécurisé?
4. Conformité aux réglementations
- Assurer le respect des lois en vigueur, telles que le RGPD, la norme ISO 42001 ou la loi Européenne sur l’IA.
- Se tenir informé des évolutions des normes juridiques liées aux technologies d’IA.
Saviez-vous qu’il existe déjà un cas de jurisprudence dans lequel Air Canada a été responsable d’une hallucination de son robot conversationnel (chatbot)?
5. Gouvernance et responsabilité
- Définir les rôles pour la gestion des systèmes d’IA, y compris les responsabilités des développeurs, testeurs et dirigeants.
- Mettre en place des mécanismes pour surveiller la performance et assurer le respect de la politique.
6. Gestion des risques
- Identifier les risques potentiels tels que les biais, les vulnérabilités en matière de sécurité ou les conséquences involontaires.
- Élaborer des stratégies d’atténuation pour prévenir ces risques de manière proactive.
7. Lignes directrices pour une utilisation responsable
- Définir les cas d’usage acceptables pour les outils d’IA et les tâches qu’ils peuvent accomplir.
Si vous êtes une entreprise qui a bâti sa réputation sur un service à la clientèle humain, vous n’êtes peut-être pas à l’aise à ce que vos employés utilisent l’IA générative pour répondre à vos clients. Votre politique sera unique à votre organisation selon vos valeurs et votre positionnement stratégique.
- Établir des protocoles pour gérer les dysfonctionnements ou les usages inappropriés des outils.
8. Transparence et communication
- Favoriser une communication ouverte sur l’utilisation de l’IA au sein de l’organisation.
- S’assurer que les employés comprennent les outils approuvés, les usages autorisés et les attentes éthiques.
9. Surveillance continue et mises à jour
- Mettre en place un système de révision régulière de la politique pour l’adapter aux avancées technologiques et aux changements réglementaires.
- Encourager l’évaluation continue de la performance des systèmes d’IA et leur conformité éthique.
La gouvernance de l’IA est une responsabilité partagée et un travail collectif. Il faut revisiter les règles régulièrement, encourager le dialogue et accueillir les rétroactions des équipes avec ouverture. C’est un processus vivant, en constante évolution. – Karina Kesserwan, avocate et conseillère stratégique en droit de l’IA
10. Formation et sensibilisation
- Organiser des sessions de formation pour les employés sur les concepts d’IA, les implications éthiques et les bonnes pratiques d’utilisation.
- Sensibiliser les dirigeants à l’impact de l’IA sur la stratégie d’entreprise et la gouvernance.
Votre entreprise est-elle prête ?
En intégrant ces éléments dans votre politique d’IA, vous assurez une adoption responsable tout en minimisant les risques et en maximisant les avantages pour votre organisation.
Votre entreprise a-t-elle déjà une politique IA en place ?
Partagez vos réflexions en commentaire !
P.S. Un immense merci à Karina Kesserwan pour avoir généreusement partagé son expertise en droit de l’IA. Nous sommes ravis de la compter parmi notre intelligence collective.
N.B. Cet article a été pensé et rédigé par des humains, puis revu par Chat GPT pour améliorer l’expérience lecteur.
Références
A-LIGN. (n.d.). How to develop an AI policy for your company. A-LIGN. https://www.a-lign.com/articles/how-to-develop-an-ai-policy-for-your-company
Articulate. (n.d.). Why an AI policy is essential for companies. Articulate. https://www.articulate.com/blog/why-an-ai-policy-for-companies/
CBC News. (2024, février 7). Air Canada ordered to pay after chatbot gave customer inaccurate refund information. CBC. https://www.cbc.ca/news/canada/british-columbia/air-canada-chatbot-lawsuit-1.7116416
Littler. (2024). Littler AI CSuite Survey Report 2024. Littler. https://www.littler.com/publication-press/publication/littler-ai-csuite-survey-report-2024
Stanfield IT. (n.d.). AI company policy: Everything you need to know. Stanfield IT. https://www.stanfieldit.com/ai-company-policy/
The Corporate Governance Institute. (n.d.). Creating an AI policy. The Corporate Governance Institute. https://www.thecorporategovernanceinstitute.com/insights/guides/creating-an-ai-policy/