La charte informatique et ChatGPT

La charte informatique : un outil de protection de l’entreprise face aux risques de l’utilisation de ChatGPT par ses salariés

Qu’est ce que ChatGPT ?

ChatGPT est un type d’agent conversationnel (« chatbot ») utilisant l’intelligence artificielle générative, développée par OpenAI.
ChatGPT utilise des modèles de « deep learning », d’apprentissage profond, pour générer des réponses contextualisées à partir de données d’entraînement préalablement fournies.
Les utilisateurs contribuent quotidiennement à entraîner le robot par leurs demandes (« prompts ») et leurs évaluations des réponses.
L’utilisation de ChatGPT est gratuite (pour sa version de base), il suffit de créer un compte sur le site web d’OpenAI.

Que peut faire ChatGPT ?

ChatGPT peut notamment :
– générer des rapports et des articles,
– réaliser des synthèses,
– contribuer aux recrutements de candidats en analysant d’importantes quantités de données,
– élaborer des descriptions de produits,
– créer des contenus visuels,
– analyser un ensemble de données et créer de nouvelles combinaisons ou associations d’idées en R&D,
– proposer des architectures et des designs nouveaux,
– contribuer à des simulations,
– contribuer à la génération de code informatique.
Les utilisations sont multiples et peuvent s’appliquer à tous les métiers de l’entreprise.

Quels sont les risques liés à l’utilisation de ChatGPT ?

L’absence de confidentialité
Lorsque les utilisateurs interagissent avec ChatGPT, ils peuvent divulguer involontairement des informations sensibles à savoir des informations financières, commerciales, des données personnelles ou du savoir-faire de l’entreprise. Les modèles de langage peuvent capturer ces informations et les utiliser.

La divulgation d’informations inexactes
ChatGPT génère des réponses basées sur des modèles statistiques et des exemples d’entraînement. Ces réponses ne sont pas toujours fiables et les informations fournies peuvent être erronées ou incomplètes. Les salariés peuvent donc répandre à l’intérieur ou à l’extérieur de l’entreprise des informations inexactes au préjudice de l’entreprise.

Les biais cognitifs
Les réponses de l’outil conversationnel sont fondées sur des modèles d’entrainement qui eux-mêmes utilisent des données existantes. Les données utilisées à l’origine peuvent avoir été sélectionnées de façon biaisée. Les réponses ou recommandations peuvent à leur tour être biaisées et porter préjudice à l’entreprise.

La violation de droit d’auteurs
Étant observé que les modèles d’IA tels que ChatGPT apprennent à partir de grandes quantités de données, en ce compris des documents protégés par le droit d’auteur, il est possible que le contenu généré corresponde involontairement à des œuvres existantes et viole des droits d’auteurs.

Quelles dispositions prévoir dans la charte informatique concernant l’utilisation de ChatGPT ?

Des dispositions sur les droits accordés par les conditions générales d’utilisation d’Open AI.
Les salariés doivent être sensibilisés, au moyen de la charte informatique, aux droits que confèrent les conditions générales d’utilisation d’Open IA. Ces droits peuvent être différents selon que la version est gratuite ou payante.

Des dispositions en matière de confidentialité
Chaque salarié doit être sensibilisé à la confidentialité des données qu’il utilise et transmet. Il doit veiller à ne pas divulguer d’informations confidentielles à l’extérieur de l’entreprise.
Pour que ces dispositions soient efficaces, il est nécessaire que l’entreprise fasse un inventaire de son patrimoine informationnel et qualifie dans chacun de ses services le degré de sensibilité de chaque type d’information. Le salarié peut ainsi se référer à cette qualification. Des dispositions concernant le Règlement Général de Protection des Données (« RGPD »).
Chaque salarié ne doit pas transmettre de données personnelles à l’extérieur de l’entreprise en utilisant ChatGPT et doit se conformer au RGPD. La charte informatique doit prévoir des dispositions concernant le RGPD et notamment la définition de données personnelles afin que chaque salarié soit dûment informé.

Des dispositions pour une utilisation responsable
Les réponses générées par l’outil doivent être vérifiées et validées par les utilisateurs. La charte informatique doit prévoir que les informations sont contrôlées par les salariés au moyen de plusieurs sources indépendantes avant d’être communiquées à l’intérieur ou à l’extérieur de l’entreprise. Si ce contrôle ne peut être réalisé alors les salariés doivent le spécifier lorsqu’ils transmettent l’information. Une gradation dans la fiabilité des informations peut, par ailleurs, être mise en place.
Si le projet d’un ou plusieurs salariés consiste à intégrer les réponses de ChatGPT ou d’autres formes de contenu généré par le robot dans un produit ou un service commercial, ils doivent s’assurer que les droits des détenteurs potentiels de droits d’auteur sont respectés. De cette façon, ils minimisent le risque de faire face à des conséquences juridiques liées à la violation des droits d’auteur.

L’utilisation d’outils tels que ChatGPT constitue une avancée significative au bénéfice des salariés dans leur travail quotidien. Cependant, l’usage de ce type d’agent conversationnel doit être abordé avec prudence en raison des risques avérés pour la sécurité de l’information et son utilisation. En se conformant à une charte informatique, les salariés peuvent acquérir les bonnes pratiques et profiter des avantages de ces outils tout en minimisant les différents risques auxquels l’entreprise est
exposée.