The importance of checking your citations – the non-case of Hennes & Mauritz AB v M & S Meat Shops Inc, 2012 TMOB 7; or am I seeing things?
À force de répéter un mensonge, les gens finiront par y croire. Deux fois au cours des quatre derniers mois, la Commission des oppositions des marques de commerce a soulevé des cas où l’agent d’un demandeur a cité des affaires qui n’existent pas dans le cadre des arguments déposés pour demander une décision interlocutoire en vertu de l’article 38(6) de la Loi sur les marques de commerce afin de rejeter la totalité ou une partie d’une déclaration d’opposition. Le responsable présumé de ces fausses citations est l’intelligence artificielle (IA) générative.
D’abord dans l’affaire Industria de Diseño Textil, S.A. c Sara Ghassai, 2024 COMC 150, et, plus récemment, dans l’affaire Monster Energy Company c Pacific Smoke International Inc., 2024 COMC 211, les parties ont cité « Hennes & Mauritz AB c. M & S Meat Shops Inc, 2012 COMC 7 » pour la même proposition « [qu’il] est bien établi qu’une déclaration d’opposition doit contenir des faits pertinents [réels] sur lesquels l’opposant se fonde et qu’il est insuffisant que l’opposant ne cite que le motif d’opposition, comme il est indiqué dans la Loi, sans faits à l’appui ».
L’affaire Hennes & Mauritz AB c. M & S Meat Shops Inc, 2012 COMC 7 n’appuie pas cette proposition. En fait, elle n’existe pas.
Dans les deux cas, le Conseil a repéré cette erreur :
Industria de Diseño Textil, S.A. c Sara Ghassai, 2024 COMC 150 – [6] Que ce soit intentionnel ou non, invoquer de fausses citations est une question grave [voir Zhang c Chen, 2024 BCSC 285]. Dans l’éventualité que les observations découlaient en entier ou en partie de l’emploi d’une certaine forme d’intelligence artificielle générative, je rappelle à la Requérante l’importance de vérifier la version définitive de la documentation créée en vue d’une instance avant de la soumettre au registraire.
--
Monster Energy Company c Pacific Smoke International Inc., 2024 COMC 211 – [16] La Requérante invoque sur une affaire faussement identifiée comme « Hennes & Mauritz AB c. M & S Meat Shops Inc, 2012 COMC 7 » à l’appui de sa position selon laquelle ce motif d’opposition n’a pas été suffisamment plaidé. Il n’existe aucune affaire de ce genre. Cette citation semble être une [traduction] « hallucination » de l’IA, comme discuté au paragraphe 5 de Diseño Textil. Je vais par conséquent ignorer cette partie de l’observation et rappeler à la Requérante que même si c’est accidentel, le fait de se fier à une fausse citation, hallucination d’IA ou autre, est une affaire sérieuse [voir Zhang c. Chen, 2024 BCSC 285].
Les outils d’IA générative ont le potentiel d’aider les avocats et les agents à rédiger des documents et à synthétiser de grandes quantités de documents. Ils pourraient bien révolutionner la profession de la même manière que l’ordinateur personnel et le traitement de texte l’ont fait dans les années 1990, mais la technologie de l’IA en est toujours à ses balbutiements. Le phénomène des « hallucinations » de l’IA – des extrants absurdes ou inexacts des outils d’IA, comme ChatGPT – est bien connu. Une dépendance excessive (et une dépendance aveugle) aux extrants générés par l’IA comporte des risques importants. Depuis la sortie publique des outils de grands modèles de langue il y a deux ans, les tribunaux ont de plus en plus observé des citations hallucinées dans les mémoires juridiques et d’autres observations présentées aux tribunaux. Sans aucun doute, à un moment donné (si ce n’est pas déjà le cas), une citation « hallucinée » ne sera pas repérée et se retrouvera dans la jurisprudence.
Les avocats et les agents doivent être conscients de ces écueils possibles, ainsi que de leurs obligations professionnelles, éthiques et pratiques lorsqu’ils utilisent l’IA pour les aider à réaliser une tâche.
Par exemple, les règles de déontologie professionnelle des barreaux du Canada et le Code de déontologie du Collège des agents de brevets et des agents de marques de commerce (CABAMC) imposent des obligations éthiques professionnelles globales d’agir avec intégrité et compétence.
Les barreaux ont également publié des avis de pratique et des ressources qui traitent précisément de l’utilisation de l’IA générative dans la pratique. Par exemple, l’avis de pratique du Barreau de l’Ontario intitulé « IA générative : vos obligations professionnelles » soulèvent l’intégration de l’IA générative dans la pratique comme ayant une incidence sur de nombreuses obligations déontologiques, notamment l’obligation de compétence, d’honnêteté et de franchise, de supervision et de délégation, et de ne pas induire le tribunal en erreur. L’avis comprend le « conseil pratique » suivant : « Validez rigoureusement tout contenu généré par des systèmes d’IA avant de le présenter au tribunal pour vous assurer que les preuves, les cas ou les plaidoiries générés par IA sont exacts et fiables ». Le document du Barreau de la Colombie-Britannique intitulé « Practice Resource: Guidance on Professional Responsibility and Generative AI » rappelle également aux praticiens la responsabilité de « [Traduction] passer attentivement en revue le contenu et de s’assurer de son exactitude ».
En décembre 2023, la Cour fédérale du Canada a publié un avis à la communauté juridique sur « L’utilisation de l’intelligence artificielle dans les instances judiciaires ». Il exige, entre autres choses, que tout document rédigé à des fins de litige et présenté devant le tribunal par une partie ou un intervenant, ou au nom de ces derniers, et contenant du contenu créé ou généré par l’IA, doit inclure une déclaration indiquant que « [l]'intelligence artificielle (IA) a été utilisée pour générer au moins une partie du contenu de ce document ». D’autres tribunaux provinciaux et territoriaux ont publié leurs propres directives pratiques sur l’utilisation de l’IA.
Le CABAMC n’a toujours pas émis de directive précise ou d’avis de pratique sur l’utilisation de l’IA par les agents. Toutefois, tout comme les règles des barreaux, le Code de déontologie du CABAMC impose aux agents des obligations générales qui exigeraient une utilisation responsable de l’IA générative. Par exemple, la Règle 1(3) exige que l’agent « assume l’entière responsabilité professionnelle de tous les services d’agent qu’il fournit et assure, en tout temps, la surveillance directe du personnel et des assistants, notamment les agents en formation, les étudiants, les greffiers et les assistants juridiques, à qui certaines tâches ou fonctions précises peuvent être déléguées ».
En bref, que les arguments à présenter au Conseil ou aux tribunaux soient rédigés par un humain ou l’IA, vérifiez toujours les citations. Assurez-vous qu’elles existent. Confirmez qu’elles appuient réellement la proposition affirmée. La crédibilité professionnelle individuelle et la crédibilité de la profession peuvent en dépendre.
De plus, ne citez pas Hennes & Mauritz AB c. M & S Meat Shops Inc, 2012 COMC 7. Ce n’est pas une affaire réelle.