Intelligence Artificielle et hallucinations : Attention aux poursuites liées aux fausses informations et à la diffamation

Contactez-moi
Ce qu'il faut retenir

Les limites, erreurs et hallucinations de l’Intelligence artificielle peuvent contribuer à la création de textes comportant des informations erronées et à la publication de déclarations diffamatoires. S’agissant d’une infraction, cela peut avoir de lourdes répercussions. Il est donc nécessaire de prendre des mesures préventives pour éviter de commettre une telle infraction et les victimes doivent agir lorsque des actes diffamatoires sont publiés.

Pour approfondir

Le fonctionnement de l’IA et ses hallucinations

L'intelligence artificielle (IA) est une technologie qui peut apprendre et prendre des décisions en imitant les processus cognitifs humains. Cependant, comme toute technologie, elle peut présenter des limites et des erreurs. Par exemple, lorsqu'elle traite de grandes quantités de données, elle peut créer des liens erronés ou des associations inappropriées. Ces erreurs sont souvent appelées "hallucinations" de l'IA.

Depuis début avril, cinq plaintes ont été déposées auprès de la CNIL contre Open AI et Chat GPT en lien avec l’utilisation des données personnelles. Ces plaintes sont fondées sur des manquements au RGPD dès lors que les informations personnelles des victimes étaient erronées. L'IA peut parfois créer des associations erronées entre des informations vraies et fausses, ce qui peut conduire à la publication de fausses informations et à la diffusion de la diffamation.

Si une erreur sur sa date de naissance est embêtante mais laisse plus à sourire qu’autre chose, les « hallucinations » de l’intelligence artificielle peuvent avoir des répercussions bien plus importantes. Il en va ainsi lorsque l’intelligence artificielle accuse une personne d’infraction voire évoque une condamnation, ce qui était le cas d’un maire australien en mars 2023 pour lequel ChatGPT indiquait qu’il avait purgé une peine de prison pour corruption alors qu’en réalité il était le lanceur d’alerte à l’origine de condamnations pour corruption.

Les hallucinations et la diffamation

La diffamation est une allégation ou une imputation d’un fait qui porte atteinte à l’honneur ou à la considération d’une personne ou d’un corps dès lors que la personne ou le corps est identifiable. Il peut s’agir d’une diffamation publique [1] ou privée [2]. La qualification de l’infraction dépend du caractère confidentiel de l’écrit et de la notion de publicité. La publicité des propos diffamatoires s’entend de la diffusion non confidentielle à un public plus large que la communauté d’intérêts [3]. L’élément moral de la diffamation consiste en la volonté du coupable de porter atteinte à l’honneur ou à la considération de la personne.

La responsabilité de la diffamation liée à l'utilisation de l'IA peut être complexe, car il peut être difficile de déterminer qui est responsable de la publication. La responsabilité peut varier selon les pays et les juridictions, mais en France, l'auteur de la publication est responsable de la diffamation s'il a intentionnellement diffamé une personne ou s'il a agi avec une négligence grave en publiant une information fausse ou inexacte qui porte atteinte à la réputation d'une personne.

Il pourrait être envisageable de poursuivre l’intelligence artificielle, notamment lorsque la publication est automatique, ou de poursuivre celui qui a reproduit le texte de l’intelligence artificielle et l’a publié auprès d’un large public.

 

Comment prévenir le risque ?

Pour prévenir les risques de diffamation liés aux hallucinations de l'IA, il est important de comprendre les limites et les erreurs potentielles de cette technologie. Les développeurs et les utilisateurs doivent donc être conscients de ces risques et doivent utiliser des outils pour vérifier et valider les informations générées par l'IA.

Il est également important de surveiller de près les publications générées par l'IA et de les éditer si nécessaire pour éviter toute information fausse ou diffamatoire. Enfin, il est conseillé de former les utilisateurs de l'IA pour qu'ils sachent reconnaître et prévenir les risques de diffamation.

Comment agir en cas de diffamation ?

Si une personne se sent diffamée par un texte créé par l'IA, elle peut porter plainte contre l'auteur de la publication. Il est important de consulter un avocat spécialisé dans le domaine de la diffamation et de l'IA pour obtenir des conseils juridiques précis.

Il est également important de recueillir des preuves, telles que des captures d'écran de la publication, voire un constat d’huissier, et des témoignages de personnes qui ont vu la publication. Il est recommandé de porter plainte dans les plus brefs délais, car les délais de prescription sont très courts. Il est préférable de faire une plainte avec constitution de partie civile pour éviter les risques liés au classement sans suite.


[1] Article 29 de la loi du 29 juillet 1881 sur la liberté de la presse

[2] Article R.621-1 du code pénal

[3] Cass, crim, 29 janvier 1998, n° 95-82.091

Les NFT au service de la lutte contre le recel et la contrefaçon

12/12/2022

Entreprises du Web 3 : 5 raisons pour intégrer la compliance et l'ESG

16/11/2022

Influenceurs : vigilance quant à la complicité et la provocation à la commission d’une infraction

28/10/2022

Le web 3 face au délit d'initié : Quelle prévention ?

28/10/2022