:
Je déclare maintenant la séance ouverte.
Bonjour à toutes et à tous. Soyez les bienvenus à la 99e réunion du Comité permanent de l'industrie et de la technologie de la Chambre des communes.
J'apprécie la bonne entente et j'espère qu'elle va durer tout le long de la réunion.
Conformément à l'ordre de renvoi du lundi 24 avril 2023, le Comité reprend aujourd'hui l'étude du projet de loi C‑27, Loi édictant la Loi sur la protection de la vie privée des consommateurs, la Loi sur le Tribunal de la protection des renseignements personnels et des données et la Loi sur l'intelligence artificielle et les données et apportant des modifications corrélatives et connexes à d'autres lois.
J'aimerais souhaiter la bienvenue à nos témoins.
[Traduction]
Nous recevons aujourd'hui en personne M. Barry Sookman, avocat-conseil principal chez McCarthy Tétrault. Nous accueillons en ligne Elizabeth Denham, directrice de la stratégie auprès du Fonds d'action et d'éducation juridique pour les femmes. Nous recevons Kristen Thomasen, professeure adjointe à la Peter A. Allard School of Law, Université de la Colombie‑Britannique, qui se joint également à nous par vidéoconférence.
Je remercie tous nos témoins. Ils auront chacun cinq minutes.
Avant de commencer, je vois que M. Perkins invoque le Règlement.
Monsieur Perkins, allez‑y.
:
Merci beaucoup de me fournir l'occasion de comparaître devant vous.
Je suis avocat-conseil principal pour McCarthy Tétrault, et ma pratique est axée sur la technologie, la propriété intellectuelle et la protection des renseignements personnels. Je suis l'auteur de plusieurs livres dans le domaine, y compris d'un traité en huit volumes sur le droit de l'informatique de l'Internet et du commerce électronique. Je comparais ici à titre personnel.
Même si mes remarques porteront sur la LIAD, j'ai présenté à la greffière des publications relatives à la Loi sur la protection de la vie privée des consommateurs et à la LIAD, qui contiennent des améliorations indispensables. Vous pouvez constater que mon mémoire est volumineux.
Mes commentaires porteront principalement sur la LIAD, comme je l'ai mentionné. Selon moi, la LIAD comporte des lacunes fondamentales.
Toute loi qui vise à réglementer une technologie de transformation émergente comme l'intelligence artificielle devrait respecter certains critères de base. Elle devrait protéger le public contre les risques et les dommages importants et promouvoir l'innovation plutôt que l'entraver. Elle doit aussi être intelligible, c'est‑à‑dire que les députés et le public doivent être en mesure de savoir ce qui est réglementé et comment la loi s'appliquera. Elle doit respecter la souveraineté parlementaire et la division constitutionnelle des pouvoirs et employer un cadre réglementaire efficace et responsable. Soit la LIAD est un échec, soit ses conséquences sont inconnues à tous égards.
La LIAD ne prévoit aucune définition d'un « système à incidence élevée », et malgré la lettre du qui a été fournie, elle ne contient aucun critère ni principe directeur concernant la façon dont les systèmes d'intelligence artificielle seront réglementés. Nous ne savons pas contre quoi le public sera protégé, comment la réglementation agira sur l'innovation ni quelles seront les sanctions administratives pécuniaires prévues. Nous savons que les amendes pour avoir enfreint les règlements peuvent atteindre jusqu'à 10 millions de dollars ou 3 % des revenus bruts, mais nous n'avons aucune idée de ce que seront les règlements à l'origine des amendes colossales contre les petites et grandes entreprises qui exercent des activités au pays.
Bref, aucun des principaux critères permettant d'évaluer la LIAD ne sont connus. Sous sa forme actuelle, la LIAD est inintelligible.
La LIAD constitue, à mon avis, un affront à la souveraineté parlementaire. Elle établit un dangereux précédent. Quelle sera la prochaine étape? La réglementation par décret de l'informatique quantique, des chaînes de blocs, de la crise climatique ou d'autres menaces? Nous n'en avons aucune idée.
La LIAD fait également appel à un cadre réglementaire centralisé qui laisse toute la réglementation à Innovation, Sciences et Développement économique Canada. Cela s'écarte de l'approche sensée, décentralisée, en étoile et favorable à l'innovation, adoptée jusqu'à présent au Royaume‑Uni et aux États‑Unis, qui s'appuie sur les agences existantes et leur expertise et évite le chevauchement des réglementations. Cette approche reconnaît que les systèmes d'intelligence artificielle de tous types envahiront tous les aspects de la société et qu'une autorité de réglementation unique n'est pas en mesure, à elle seule, de les réglementer. Ce qu'il faut plutôt, c'est un cadre réglementaire pour un organisme centralisé qui fixe des normes et des politiques, coordonne la réglementation au Canada et à l'étranger et dispose de mécanismes pour combler les lacunes, le cas échéant.
La LIAD ouvre également la voie à une bureaucratie démesurée et n'ayant pas de comptes à rendre au sein d'ISDE. ISDE élaborera et appliquera les règlements, qui seront administrés et appliqués par le commissaire à l'intelligence artificielle et aux données, lequel n'est pas responsable devant le Parlement comme l'est le commissaire à la protection de la vie privée. De plus, le commissaire n'est assujetti à aucune surveillance judiciaire expresse, même s'il a le pouvoir de fermer des entreprises et d'imposer des amendes importantes.
Enfin, l'un des principaux problèmes avec la LIAD, c'est que son manque d'intelligibilité et ses principes directeurs font qu'il est impossible d'évaluer son incidence sur l'innovation. Nous devons reconnaître que le Canada est un pays intermédiaire. Il est risqué pour le Canada de se présenter devant ses principaux partenaires commerciaux avec une loi qui ne pourrait pas être interopérable avec celles de ses partenaires et qui pourrait, par inadvertance et inutilement, créer des obstacles au commerce. Nos entrepreneurs en intelligence artificielle dépendent fortement de leur capacité d'accéder à des modèles d'intelligence artificielle comme ChatGPT aux États‑Unis et à les exploiter. Nous ne devons pas prendre le risque de créer des obstacles qui entravent l'adoption ou la réalisation du potentiel maximal de l'intelligence artificielle ou sa croissance continue et celle de l'écosystème et des emplois bien rémunérés qu'elle créera.
L'intelligence artificielle continuera d'être aussi transformatrice et importante que la machine à vapeur, l'électricité et la micropuce l'ont été dans les générations précédentes. Les organisations canadiennes de tous les secteurs ont besoin d'un accès ouvert aux systèmes d'intelligence artificielle pour soutenir l'adoption et l'innovation et être concurrentielles sur les marchés mondiaux. Si nous ne faisons pas bien les choses, il pourrait y avoir d'importantes conséquences néfastes à long terme pour notre pays.
Pour revenir à mon premier point, rien dans la LIAD ne nous offre l'assurance que ces risques seront évités. Bien que ma déclaration liminaire, monsieur le président, porte sur la LIAD, j'ai également des préoccupations au sujet de la LPVPC. Je serais heureux de répondre à toutes vos questions concernant la LIAD ou la LPVPC.
Merci encore une fois de m'avoir fourni l'occasion de comparaître.
Bonjour, monsieur le président.
Bonjour, mesdames et messieurs et madame la greffière.
Je vous remercie de m'avoir invitée à comparaître devant vous aujourd'hui. J'espère que mes commentaires seront utiles au travail important du Comité.
Je m'appuie sur des dizaines d'années d'expérience en tant que professionnelle de la protection de la vie privée et sur mes 15 années d'expérience au sein d'un organisme de réglementation du droit à l'information dans quatre administrations. Mon travail continu se déroule vraiment sur la scène internationale, mais il s'appuie sur une connaissance de longue date de nos propres lois fédérales et provinciales sur la protection des renseignements personnels.
Lorsque je suis devenue commissaire à l'information du Royaume‑Uni en 2016, ce rôle m'a vraiment permis de faire partie du conseil de surveillance de l'Union européenne, l'UE, qui a géré la mise en œuvre du Règlement général sur la protection des données. Cela m'a amenée à collaborer directement avec tous les États membres de l'Union européenne, et cette expérience a grandement élargi ma vision de la protection des données et des renseignements personnels, qui a d'abord été cultivée à l'échelon fédéral au Canada, en Alberta et en Colombie‑Britannique.
Pendant les cinq années où j'ai agi en tant que commissaire à l'information du Royaume‑Uni, j'ai également été pendant trois ans présidente de l'Assemblée mondiale pour la protection de la vie privée. Ce poste m'a permis d'élargir une fois de plus mes horizons et d'approfondir ma connaissance d'autres lois et d'autres cultures, notamment celles des pays du Sud, du Moyen‑Orient et de l'Asie-Pacifique. Aujourd'hui encore, mon travail s'étend sur plusieurs continents.
Les préoccupations pressantes sont essentiellement les mêmes, à savoir la protection des renseignements personnels, la sécurité des enfants et la réglementation visant l'intelligence artificielle.
En examinant d'abord la LPVPC dans une perspective mondiale, je constate qu'il manque un élément important et que le libellé de la loi doit, à mon avis, être modifié de manière à ce qu'il déclare explicitement que la protection des renseignements personnels est un droit fondamental pour les Canadiens. L'absence de cette mention nous place vraiment à la traîne des pays qui sont à l'avant-garde en matière de protection des renseignements personnels et des données.
L'ensemble de mesures législatives contribue dans une certaine mesure à établir les attentes en matière de gouvernance de l'intelligence artificielle, mais il manque des mesures de protection précises et fort nécessaires pour les enfants et les jeunes. Dans une étude que j'ai menée dans le cadre de mon travail au sein d'un cabinet de droit international, Baker McKenzie, qui a sondé 1 000 personnes influentes en matière de politiques dans cinq administrations, nous avons constaté que tous les répondants au sondage s'entendaient sur un point unique: l'Internet n'a pas été créé et n'a pas été conçu en fonction des enfants.
Tous ces influenceurs en matière de politiques étaient d'avis que nous devons faire mieux pour protéger les enfants et les jeunes en ligne. Le Canada est signataire de la Convention des Nations unies relative aux droits de l'enfant, et je pense qu'il doit à nos jeunes d'inscrire dans la loi le droit d'apprendre et de jouer, d'explorer, de développer leur capacité d'action et d'être protégés contre les dangers en ligne.
Au Royaume‑Uni, j'ai supervisé la création d'un code de conception adapté à l'âge des enfants, qui est un code légal applicable, et la conception de ce code a influencé les lois, les orientations et les codes dans le monde entier. Je serais ravie de répondre à d'autres questions à ce sujet.
De plus, je pense que l'assemblée législative devrait aller plus loin afin de doter le commissaire à la protection de la vie privée de pouvoirs d'application robustes. J'ai exporté ma carrière du Canada au Royaume‑Uni surtout parce que je voulais acquérir une expérience pratique dans l'administration de lois dotées de pouvoirs réels et de sanctions concrètes.
En Grande‑Bretagne, les atteintes à la vie privée sont traitées comme de véritables préjudices depuis l'entrée en vigueur du RGPD. Le commissaire à l'information du Royaume‑Uni s'est vu conférer le pouvoir d'imposer des amendes, mais d'autres pouvoirs d'application de la loi étaient tout aussi puissants, notamment des ordres d'arrêt de traitement, des ordres de destruction de données, des pouvoirs rationalisés de perquisition et de saisie, des pouvoirs de vérification obligatoires et ainsi de suite.
Ces pouvoirs d'application de la loi ont été imposés par une loi exhaustive qui couvre tous les types d'organisation, pas seulement les services numériques, mais toutes les entreprises, qu'il s'agisse d'un organisme de bienfaisance ou d'un parti politique. En comparaison avec le RGPD, le projet de loi n'a pas une vaste portée. Il ne couvre pas les organismes de bienfaisance, qui n'hésitent pas à utiliser abusivement des données à caractère personnel au nom de leur noble cause. Le projet de loi ne couvre pas non plus les partis politiques. Il exclut les données et les campagnes fondées sur les données de la surveillance réglementaire.
En tant que commissaire à la protection de la vie privée à l'échelon fédéral et provincial au Canada, j'ai rencontré des personnalités influentes dans mon domaine. Je pense à Jennifer Stoddart, l'ancienne commissaire fédérale à la protection de la vie privée, et à David Flaherty, l'ancien commissaire à l'information et à la protection de la vie privée de la Colombie‑Britannique. Leurs noms rappellent une époque où les organismes de réglementation canadiens et le droit canadien étaient profondément respectés à l'échelle internationale, lorsque nos lois et nos règlements servaient vraiment pour le monde de pont entre les États‑Unis et l'Europe. Même si les commissaires qui ont suivi, Daniel Therrien et Philippe Dufresne, ont continué d'apporter leur contribution à l'échelle internationale, les lois canadiennes ont pris du retard par rapport à celles d'autres pays.
Je pense que nous pouvons regagner du terrain en revenant aux valeurs canadiennes fondamentales, en nous rappelant que nos lois ont jadis ouvert la voie à l'établissement de la reddition de comptes comme pierre angulaire de la loi. L'obligation de rendre des comptes signifie que les entreprises assument leurs responsabilités et sont prêtes à démontrer que les risques qu'elles créent pour les autres sont atténués. Cela fait de plus en plus partie des lois réformées dans le monde entier, y compris la réglementation de l'intelligence artificielle. La version actuelle de la LPVPC ne prévoit pas d'obligation de rendre des comptes exécutoire. Elle ne prévoit pas non plus d'évaluation obligatoire des facteurs relatifs à la vie privée. Cela nous place de manière alarmante à la traîne des pays pairs en ce qui a trait à la gouvernance des technologies émergentes comme l'intelligence artificielle et l'informatique quantique.
Enfin, le projet de loi crée un tribunal qui examinerait les recommandations du commissaire à la protection de la vie privée, comme le montant d'une sanction administrative, et insère une nouvelle couche administrative entre le commissaire et les tribunaux. Il limite l'indépendance et les pouvoirs de rendre des ordonnances du commissaire. De nombreux témoins se sont exprimés contre cette évolution, mais un arrangement semblable fonctionne au Royaume‑Uni.
Les entreprises peuvent interjeter appel des décisions des commissaires, des avis d'évaluation et des sanctions devant ce qu'on appelle le tribunal de première instance. Ce tribunal n'est pas là pour souligner les devoirs du commissaire ou tenir de nouvelles audiences. À mon avis, si le Parlement décide de créer un tribunal, celui‑ci doit être structuré de façon appropriée, selon la norme de contrôle, avec indépendance et neutralité politique.
En tant que témoin qui se présente à vous aujourd'hui, j'ai une bonne idée de ce que le Canada peut apprendre des autres pays et de ce que nous pouvons apporter au monde. Aujourd'hui, le Canada doit en faire davantage pour protéger les données de ses citoyens. Le projet de loi nous amène peut-être au présent, mais il me semble inadéquat pour limiter ou contrôler les technologies émergentes ou nous assurer que celles‑ci sont responsables.
Je vous remercie d'avoir écouté mon point de vue cet après-midi. Je suis impatiente de répondre à vos questions.
J'ai effectué des recherches et écrit des articles portant sur le droit, le droit en matière de protection de la vie privée et la réglementation visant les technologies automatisées pendant plus d'une dizaine d'années, en me concentrant tout particulièrement sur les droits et l'égalité réelle, y compris de récentes publications sur la sécurité dans la gouvernance de l'intelligence artificielle et de la robotique au Canada, et j'ai travaillé avec le B.C. Law Institute dans le cadre de son projet de responsabilité civile et d'intelligence artificielle.
Je suis ici aujourd'hui pour représenter le Fonds d'action et d'éducation juridique pour les femmes. Le FAEJ est un organisme de bienfaisance national à but non lucratif qui vise à s'assurer que la loi garantit l'égalité réelle pour toutes les femmes, les filles et les personnes trans et non binaires. Je suis membre d'un comité consultatif sur la violence facilitée par la technologie du FAEJ et je parlerai des mémoires écrits du FAEJ que j'ai corédigés avec l'avocate-conseil principale Rosel Kim. Notre mémoire et mes commentaires d'aujourd'hui porteront sur la loi proposée sur l'intelligence artificielle et les données.
Vous l'avez déjà entendu dire, mais si nous voulons réglementer l'intelligence artificielle au Canada, nous devons bien faire les choses. Le FAEJ approuve les mémoires précédents qui mettent l'accent sur le fait que la loi sur l'intelligence artificielle doit se voir accorder l'attention spéciale qu'elle mérite et ne devrait pas être adoptée à la hâte dans le cadre de la réforme de la protection des renseignements personnels. Dans la mesure où le Comité peut le faire, nous demandons instamment que la LIAD soit séparée du projet de loi et fasse l'objet d'un réexamen complet. Nous demandons également que toute nouvelle loi soit fondée sur les droits de la personne et qu'elle soit axée sur l'égalité réelle.
Si l'on choisit d'adopter la loi sur l'intelligence artificielle et les données, il faudra y apporter des amendements. Nous avons examiné le projet de loi avec une conscience aiguë du fait que de nombreux préjudices découlant de l'introduction de l'intelligence artificielle dans les contextes sociaux sont subis de manière inéquitable par des personnes déjà marginalisées au sein de la société, notamment en raison de leur genre, de leur race et de leur classe sociale. Si la loi ne tient pas compte de la répartition inéquitable des préjudices et des bénéfices de l'intelligence artificielle, alors, malgré sa neutralité écrite, elle offrira une protection inéquitable. Le document d'accompagnement de la LIAD donne à penser que les rédacteurs en sont conscients.
Dans notre mémoire écrit, nous avons formulé cinq recommandations, accompagnées d'amendements textuels, afin que la loi reconnaisse mieux au moins certaines des inégalités qui seront exacerbées par l'utilisation croissante de l'intelligence artificielle.
La loi est structurée de manière à encourager la détermination et l'atténuation des préjudices prévisibles. Elle n'a pas besoin d'être parfaite, et, en fait, il est possible qu'elle soit limitée par la mesure dans laquelle les préjudices ne sont pas considérés comme étant prévisibles pour les concepteurs et les exploitants des systèmes d'intelligence artificielle.
Dans ce même ordre d'idées, et de toute urgence, on doit élargir les définitions de « résultat biaisé » et de « préjudice » afin d'englober de nombreux autres moyens dont les systèmes d'intelligence artificielle peuvent nuire aux gens, par exemple, au moyen de discrimination indirecte liée aux motifs protégés et de préjudices subis par le groupe ou la collectivité.
Comme nous le soulignons dans notre mémoire, l'introduction d'un système d'intelligence artificielle peut être la source de préjudices et de préjugés discriminatoires de manière complexe et à multiples facettes. Prenez l'exemple que nous citons des travailleurs de la santé de première ligne dans une clinique pour troubles d'alimentation qui avaient voté pour se syndiquer et ont ensuite été remplacés par un système d'agents conversationnels produits par l'intelligence artificielle. Du point de vue de l'équité, nous pouvons voir comment cela causerait non seulement un préjudice économique personnel à ceux qui ont perdu leur emploi, mais aussi un préjudice collectif aux travailleurs et à d'autres personnes qui envisagent un recours collectif.
En outre, le système menaçait de causer un préjudice aux clients en quête de soins, qui devaient accéder à d'importants services médicaux au moyen d'un système d'intelligence artificielle impersonnel et mal équipé. Lorsque nous examinons l'équité, nous devrions mettre l'accent non seulement sur la position vulnérable des travailleurs de la santé et des patients, mais aussi sur les dimensions sexospécifiques, racisées et de classe du travail de première ligne et de l'expérience avec les troubles de l'alimentation. Sous sa forme actuelle, la loi ne semble pas susciter une compréhension complète ni atténuer les différents préjudices complexes en cause ici.
Qui plus est, comme vous l'avez déjà entendu dire, le concept clé de ce projet de loi, « système à incidence élevée », n'est pas défini. La création d'un seul seuil pour l'application de la loi et son établissement à un niveau élevé mine toute souplesse réglementaire qui pourrait être visée par cette disposition. À ce stade‑ci de la rédaction, en l'absence d'une refonte de la loi, nous recommandons de supprimer ce concept de seuil et de permettre aux réglementations d'évoluer de diverses manières pour s'appliquer à différents systèmes.
Enfin, un des principaux défis associés à une approche d'atténuation des risques, comme celle représentée dans le projet de loi, c'est que bon nombre des préjudices associés à l'intelligence artificielle qui se sont déjà concrétisés étaient imprévisibles pour les concepteurs et les exploitants du système, y compris la décision initiale de créer un outil donné. Pour cette raison, notre mémoire recommande également une exigence concernant des vérifications en matière de protection de la vie privée et d'équité qui soient transparentes pour le public et attirent l'attention des personnes responsables sur des mesures de prévention et d'atténuation aussi larges que possible.
Enfin, j'insisterais sur le fait que les préoccupations au sujet des ressources nécessaires pour atténuer les préjudices ne devraient pas dissuader le Comité de s'assurer que la loi permettra d'atténuer le plus possible de préjudices et d'actes discriminatoires. Nous ne devrions pas chercher à élargir une industrie de l'intelligence artificielle qui cause des préjudices inéquitables. Parmi de nombreuses autres raisons, nous avons besoin d'une approche fondée sur les droits de la personne pour réglementer l'intelligence artificielle afin d'avoir une chance d'avoir une industrie florissante dans notre pays.
Les industries souffriront également si les travailleurs des petites entreprises ne sont pas protégés contre les préjudices et la discrimination causés par l'intelligence artificielle.
La résistance du public à une nouvelle technologie repose souvent sur une compréhension du fait que seule une petite élite en profitera, alors que beaucoup y perdront au change. Dans la mesure du possible, le projet de loi devrait tenter d'atténuer cette inégalité.
Je vous remercie de votre temps et je suis impatiente de répondre à vos questions et de participer à la conversation.
:
Merci de cette question de suivi.
J'ai examiné les amendements proposés par le , qui montrent clairement que les objectifs conjoints de la loi sont la protection des droits fondamentaux à la protection de la vie privée et les intérêts légitimes des entreprises. Je pense que c'est une bonne façon de le faire. Il faut comprendre que tout droit fondamental, y compris les droits fondamentaux prévus dans la Charte, sont soumis aux critères établis dans l'arrêt Oakes, qui est un exercice d'équilibre. Dans la disposition sur les objectifs, il est clair que nous devons équilibrer ce droit fondamental et l'intérêt des entreprises. Cela donne aux tribunaux les outils appropriés pour régler le problème.
J'attire également votre attention sur le fait que l'article des « fins acceptables » est un article de dérogation. S'il y a quelque chose qu'une organisation fait qui, franchement, est inapproprié, cela l'emporte sur tout le reste. Si l'on combine les objectifs de la loi et les « fins acceptables », le public est protégé de manière adéquate.
Je ne vais pas parler du fait que, de plus, le commissaire à la protection de la vie privée possède d'énormes pouvoirs discrétionnaires quant à la façon de l'appliquer, avec des droits d'interjeter appel très limités. Si le commissaire à la protection de la vie privée pense qu'il a été porté atteinte à un droit fondamental, et qu'il s'agit d'une fin inacceptable, il dispose de tous les pouvoirs nécessaires pour effectuer le calibrage nécessaire en vue de protéger le public.
:
Merci beaucoup de la question. J'ai des préoccupations concernant l'intérêt légitime également.
Quant à la question de savoir s'il est plus faible ou plus fort que le RGPD, il est passablement plus faible que le RGPD dans son libellé. Le RGPD, tout comme la proposition de la LPVPC, a un équilibre... Il n'y a aucune carte échappatoire. Il doit y avoir un équilibre, et l'utilisation doit être appropriée, elle ne peut pas affecter négativement les personnes.
Toutefois, contrairement au RGPD, les dispositions ne s'appliquent pas aux divulgations, ce qui est très important. Par exemple, les moteurs de recherche ou les entreprises d'IA vont soit ne pas être en mesure d'exercer leurs activités dans ce pays, sans un amendement, ou ils vont le faire et ne seront pas soumis à la loi. Cet article doit être corrigé.
L'autre chose, c'est qu'il y a des critères supplémentaires, qui ne figurent pas dans le RGPD, concernant le fait qu'une personne raisonnable doit s'attendre à ce que de telles activités soient recensées. Cela est lié à une vieille technologie — une technologie connue — plutôt qu'une approche ne tenant aucun compte de la technologie utilisée. Nous voulons quelque chose qui fonctionnera à l'avenir, et ce libellé ne fonctionne pas.
Selon moi, le problème est en fait l'inverse de ce que vous avez demandé. Nous devons corriger le projet de loi pour qu'il fonctionne adéquatement, mais protège toujours le public.
:
Comme je l'ai dit, au Royaume‑Uni il y a un système de tribunaux et des tribunaux administratifs qui sont utilisés dans de nombreux domaines du droit. Au Royaume‑Uni, lorsqu'il est question de liberté d'information, de protection des données, de cybersécurité et de marketing électronique — c'est‑à‑dire tous les domaines dont est responsable le commissaire — les décisions du commissaire d'imposer des amendes et des sanctions font l'objet d'un examen par le tribunal de première instance. Ensuite, l'affaire peut vraiment aller en appel au tribunal de deuxième instance, et ensuite aller devant la Cour.
Cela ressemble à un processus qui pourrait être très long. Toutefois, je pense qu'avec le temps les tribunaux sont devenus des tribunaux d'experts, alors vous ne prenez pas un domaine stratégique très spécialisé comme la protection des données pour le soumettre à un tribunal général chargé d'examiner les questions en litige.
À mon avis, il y a des avantages et des inconvénients. Bien sûr, le gouvernement souhaite s'assurer qu'il y a de l'équité administrative et un système d'appel, car autrement trop de pouvoirs sont concentrés au sein d'un organisme gouvernemental.
Vous pouvez comprendre pourquoi il devrait y avoir des appels, mais à mon avis, si nous avons un tribunal, alors la norme d'examen doit être celle de la décision raisonnable, comme c'est le cas en Colombie‑Britannique. De plus, les membres du tribunal doivent être indépendants et nommés de cette manière. Enfin, je crois qu'il est très important que les tribunaux ne mènent pas une enquête à partir de rien parce que je crois que cela mine l'expertise du commissaire.
S'il n'y a aucun tribunal, alors je suis d'accord avec la recommandation du commissaire à la protection de la vie privée: un appel doit être directement soumis à la Cour d'appel fédérale plutôt que de commencer au tribunal et ensuite être déféré à la Cour fédérale.
:
La structure de l'arbitrage des affaires, où elles commencent et comment elles font l'objet d'un appel est une question très importante. Nous devons reconnaître que, avec l'importance de la protection de la vie privée et le montant en jeu pour le public et les organisations, il est très important de bien faire les choses.
Les pouvoirs du commissaire à la protection de la vie privée sont très vastes. Il n'y a vraiment qu'une protection anorexique sur le plan procédural, mais c'est le commissaire à la protection de la vie privée qui décide s'il y a eu violation et qui peut faire une recommandation concernant l'imposition de sanctions.
L'appel va devant le tribunal, mais le tribunal a seulement le pouvoir d'ordonner une annulation s'il y a une erreur de droit. Il n'a aucun pouvoir de faire quoi que ce soit s'il s'agit d'une question mixte de droit ou de fait ou d'une question de fait. Quand vous regardez la manière dont fonctionne la LPVPC, il y aura des chiffres énormes, et presque invariablement un énorme nombre de questions de fait et de droit en litige. Ce qui veut dire que, dans les faits, il n'y a presque aucune protection procédurale devant le commissaire à la protection de la vie privée, et pratiquement aucune décision ne peut faire l'objet d'un appel. Aussi, la composition d'un tribunal ne requiert pas la présence d'un juge, ce qui est requis dans d'autres contextes. Je crois effectivement qu'il doit y avoir une protection procédurale devant le commissaire à la protection de la vie privée.
Quant à l'appel, vous avez entendu Mme Denham parler au moins de la norme de la décision raisonnable. Elle n'existe tout simplement pas devant le tribunal; elle s'applique seulement lors d'un contrôle judiciaire, ce qui est presque impossible à obtenir ici.
Je crois effectivement que la structure doit être changée pour offrir au moins un minimum de protection procédurale.
:
Merci, monsieur le président.
Monsieur Sookman, vous avez exprimé votre point de vue dans un article sur l'intelligence artificielle publié il y a trois jours, si je ne me trompe pas, où vous faites l'analyse de l'AI Regulation Bill, de la Chambre des lords du Royaume‑Uni.
Dans cette analyse, vous soulignez la pertinence du projet de loi britannique comme possible feuille de route pour améliorer la Loi sur l’intelligence artificielle et les données.
Vous faites valoir des aspects tels que la souveraineté parlementaire, la création d'une autorité consacrée à l'intelligence artificielle et d'autres principes réglementaires.
En tant que législateurs, quelles leçons pouvons-nous tirer du projet de loi britannique, et quels éléments précis recommanderiez-vous d'incorporer au cadre de la Loi sur l’intelligence artificielle et les données pour renforcer la réglementation sur l'intelligence artificielle au Canada?
:
Je vous remercie de votre question.
[Traduction]
Je crois qu'il s'agit d'une question fantastique.
Le projet de loi d'initiative parlementaire que vous avez mentionné vise également à mettre en place un mécanisme souple de réglementation de l'IA. Il y a deux choses dans ce projet de loi qui me semblent fondamentalement importantes. Si le Comité doit recommander des améliorations, deux choses peuvent être tirées de ce projet de loi, ce que je recommande fortement.
Premièrement, le secrétaire avait le pouvoir d'adopter des règlements dans la première instance. Les règlements entrent seulement en vigueur lorsqu'ils sont adoptés au moyen d'une résolution des deux Chambres du Parlement. Les règlements qui ne sont pas assortis d'une procédure peuvent être annulés par l'une des Chambres du Parlement.
Selon moi, il s'agit d'une manière de mettre en œuvre le principe important de la souveraineté parlementaire. De cette manière, le gouvernement peut aller de l'avant avec son analyse réglementaire, mais au bout du compte, elle est toujours réglementée par un mécanisme du Parlement. Je pense qu'il s'agit d'une approche brillante pour régler le problème de la souveraineté parlementaire.
La deuxième chose concernant l'ébauche du projet de loi sur l'IA, c'est que selon moi il est très important qu'elle contienne les principes qui vont servir à guider la loi. Si vous regardez la LIAD, elle ne définit pas « incidence élevée » et elle ne vous dit rien quant à savoir quels seraient les principes qui devraient guider la réglementation. Ce que fournit ce projet de loi, c'est un bon premier aperçu de ce qui pourrait être une approche.
Il commence par dire que les principes devraient être des principes éthiques fondamentaux sous-tendant une IA responsable. Les principes devraient garantir la sûreté, la sécurité, la solidité et ce genre de choses. Ensuite, toute entreprise qui va s'engager dans l'IA — dans ce cas, je dirais un système à incidence élevée — doit le tester de manière approfondie et être transparente concernant ses tests. Troisièmement, elle doit se conformer aux lois en matière d'égalité, c'est‑à‑dire de discrimination, ce qui est extrêmement important.
Enfin — et cela est complètement absent du projet de loi — il faut s'assurer que les avantages de la réglementation soient plus importants que le fardeau et que le fardeau découlant de la restriction ne porte pas préjudice à la compétition internationale du Royaume‑Uni et l'améliore.
Je crois que le fait d'avoir des principes définis de ce genre pour guider le cadre réglementaire serait très utile. Quand j'ai vu ce projet de loi, j'ai pensé « c'est génial ». Il s'agit d'un projet de loi d'initiative parlementaire.
:
Merci, monsieur le président.
Je commencerai par M. Sookman, qui est présent sur place, puis je passerai à nos deux témoins présents virtuellement.
En ce qui concerne le processus, l'une des difficultés réside dans le fait que nous ne disposons toujours pas de certains amendements. Cette question a été soulevée au début de la réunion.
Monsieur Sookman, je suis un peu curieux. Lorsque vous vous prépariez à venir ici aujourd'hui, dans quelle mesure pouviez-vous vous préparer à témoigner sur l'ensemble du projet de loi et à dire si oui ou non vous êtes d'avis que...? Soumettrez-vous d'autres documents ou information plus tard, ou le Comité devra‑t‑il revenir à nos témoins initiaux? Nous avons essayé de segmenter ces choses du mieux que nous pouvions. En fait, nous avons divisé le projet de loi en deux sections pour les besoins du vote, mais il s'agit toujours d'un seul et même projet de loi.
Je suis simplement curieux de savoir ce qu'il en est de la comparution d'un témoin et de la procédure que nous avons amorcée. Dites-nous ce que vous en pensez.
Ensuite, que devrons-nous faire une fois que nous aurons reçu l'autre partie du projet de loi?
:
Monsieur Masse, je n'envie pas la situation difficile dans laquelle vous vous trouvez. En fait, la situation difficile dans laquelle vous vous trouvez est un microcosme de celle que vit l'ensemble du public qui s'intéresse à la réglementation de l'intelligence artificielle.
La déclaration du indiquait très clairement qu'il y avait des amendements. Nous n'avons pas vu les amendements sur la LIAD. Tout ce que nous avons pour l'instant, c'est la lettre du ministre , qui décrit de manière très amorphe et ouverte le premier objectif du gouvernement, mais il est très clair qu'il n'y a pas de définition des facteurs permettant de déterminer ce que sera une incidence élevée, et qu'il n'y a pas de critère pour les futurs systèmes.
En réalité, nous n'en avons toujours aucune idée. Ce qui nous préoccupe vraiment, c'est qu'à la dernière minute — même si c'est la semaine prochaine —, nous allons recevoir des projets d'amendement, et ceux‑ci ne représenteront probablement que la moitié des amendements, parce qu'ils ne concerneront que les éléments qui figuraient dans la lettre du . Je pense que tout le reste sera gardé pour l'examen article par article.
Il a fallu des années de travaux menés dans le monde entier pour tenter de mettre en place le cadre réglementaire approprié. Les Britanniques ont vraiment étudié la question et, comme l'a dit Mme Denham, ils ont estimé qu'il faut un cadre réglementaire décentralisé en étoile.
Le Comité peut présenter des amendements, et vous n'aurez que quelques semaines pour examiner quelque chose qui aurait dû prendre un an ou des années pour être évalué. De plus, nous sommes encore en train de découvrir ce que font les Européens et ce que le Congrès américain va faire en détail. Je pense que nous commettons une grave erreur en pensant que nous pouvons recevoir des amendements au pied levé, les analyser en profondeur et élaborer une politique pour le pays qui aura des répercussions sur l'emploi, la protection du public et l'innovation pendant des dizaines d'années.
À mon avis, quel que soit le résultat, le Comité n'aura pas assez de temps pour l'étudier, et je recommande vivement de prendre du recul. Le gouvernement a déjà dit qu'il faudrait deux ans pour élaborer les règlements. Il ne peut pas aller de l'avant avec cette partie. Il faut effectuer l'étude et présenter un projet de loi approprié. Nous ne perdrons pas de temps, mais nous obtiendrons quelque chose qui aura été réfléchi et débattu par le public et le Parlement.
:
Oui, Jennifer Stoddart est une de mes héroïnes. J'ai travaillé en étroite collaboration avec elle à Ottawa en tant que commissaire adjointe.
L'un des avantages du Canada est qu'il est un membre actif de l'OCDE. Jennifer Stoddart a ainsi présidé le comité de la vie privée et de la sécurité de l'OCDE pendant de nombreuses années. Je pense qu'elle a été très influente dans ce rôle en rassemblant divers membres de l'OCDE et d'autres pays.
En tant que Canadienne travaillant au Royaume-Uni, j'ai pu présider l'Assemblée mondiale pour la protection de la vie privée, qui réunit 135 autorités responsables de la protection de la vie privée dans le monde entier. Encore une fois, ce poste a été très important, car il m'a permis de participer aux réunions du G7 et de rencontrer les ministres de l'Industrie, de la Technologie et du Commerce. Les commissaires à la protection de la vie privée peuvent jouer un rôle diplomatique très important et créer des liens dans le monde entier.
Nous en avons un excellent exemple avec notre commissaire à la protection de la vie privée actuel. Il est déjà très respecté dans les cercles internationaux, mais je pense qu'il faut investir pour influencer d'autres endroits et d'autres pays dans le monde. Étant donné que nous faisons tous affaire avec les mêmes grandes entreprises, une collaboration et une coopération s'imposent.
Je pense que le Canada peut continuer à jouer ce rôle, mais pas si nos lois datent du XXe siècle. Une mise à jour des lois est très importante, car, dans le cas du commissaire à la protection de la vie privée au Canada, avoir uniquement des pouvoirs d'ombudsman et des pouvoirs de recommandation n'est pas viable lorsque les données sont le plus grand actif du XXIe siècle.
:
Merci, monsieur le président.
Je remercie les témoins. Je vais poser mes questions en rafale, et ils pourront y répondre par la suite.
Monsieur Sookman, les commentaires que vous avez faits depuis le début me portent à croire que nous travaillons à reculons. Nous avons entendu cela à de multiples reprises depuis le début de notre étude. Selon vous, y a-t-il des éléments positifs ou intéressants qui devraient être conservés? Y en a-t-il pour lesquels nous devrions aller plus loin?
Tantôt, vous avez parlé du tribunal. Parmi les diverses opinions que nous avons reçues jusqu'à maintenant, certaines personnes considèrent que le tribunal devrait exister, alors que d'autres disent que, au contraire, on devrait tout de suite aller en cour d'appel. J'aimerais connaître votre opinion à cet égard.
Madame Denham, lors de la conférence qui a eu lieu au Royaume‑Uni, il y a quelques semaines, on est arrivé à un certain consensus, à savoir qu'il devrait y avoir un code volontaire. En fait, je pense qu'on a déjà signé l'entente au sujet d'un tel code.
Ce code volontaire remplacera-t-il certains projets de loi, dans certains pays? Certains pays vont-ils reculer sur certains éléments qu'ils ont déjà mis en place, afin de faire place au code volontaire?
Monsieur Sookman, je vous laisse commencer.
:
Merci beaucoup de ces questions.
Lorsque j'ai examiné la lettre du , qui présente des orientations, j'ai été très heureux de voir les nouveaux domaines qu'il est proposé de réglementer. Nous ne savons pas comment ils le seront, mais il a été proposé d'ajouter le traitement de la discrimination dans les cours et les tribunaux administratifs, et je pense que c'est très important.
Il a également été question d'introduire des mesures de sécurité dans les enquêtes criminelles. Cela peut aider les policiers à mener les enquêtes qui pourraient être discriminatoires. Ce genre de mesures publiques est très important.
Il a également été question de la réglementation des services. Là encore, nous ne savons pas s'il s'agit de services publics ou privés, mais l'Union européenne a proposé de garantir la non-discrimination, par exemple, dans les services d'urgence, ce qui est très important.
Cependant, ce que nous n'avons pas vu... et c'est un problème. Tous les pouvoirs sont conférés au . Lorsque vous regardez ce qui est proposé dans la lettre, vous voyez les différents domaines qui doivent être réglementés. Il y a les tribunaux, les agents de la paix, les droits de la personne et la modération du contenu, qui devraient relever du ministre de la Justice. Les questions relatives à l'emploi devraient relever du ministre de l'Emploi. Les questions liées à la réglementation de la santé devraient relever du ministère de la Santé.
Je pourrais continuer longtemps, mais je pense qu'une chose qui pourrait être faite serait de donner à de nombreux ministres le pouvoir d'établir des règlements dans leur domaine. Cela contribuerait à la décentralisation.
Je sais que je n'ai plus de temps, je n'aborderai donc pas la question du tribunal.
Vous avez demandé quels étaient les aspects positifs du projet de loi, et nous avons souligné, dans notre mémoire, certains aspects du projet de loi que nous estimons très louables. Il est important de s'attaquer aux préjugés discriminatoires. La reconnaissance du préjudice psychologique comme une dimension du préjudice est importante et admirable. L'adoption d'une approche réglementaire vise à clarifier la manière dont les systèmes d'intelligence artificielle peuvent être exploités et les obligations ainsi que les exigences de transparence auxquelles sont soumises les entreprises qui utilisent l'IA est, je pense, très importante.
Le document complémentaire qui accompagne le projet de loi contient également de nombreux points capitaux et des perspectives que nous ne voyons pas reflétés dans le projet de législation lui-même, ce qui, comme nous l'avons noté dans notre mémoire, est une occasion manquée. Le document complémentaire analyse les droits collectifs, facteur qui est crucial lorsque nous parlons de systèmes d'intelligence artificielle en raison de la façon dont ces systèmes travaillent sur de grandes quantités de données, en tirant des conclusions fondées sur l'évaluation d'un grand groupe de personnes. L'idée que le préjudice puisse se matérialiser au niveau collectif, plutôt qu'au niveau personnel, est une chose que la loi doit reconnaître. Ce serait relativement nouveau pour nos lois. Ce ne serait pas tout à fait nouveau parce qu'il existe des domaines du droit qui reconnaissent les droits collectifs, bien sûr. Cependant, c'est quelque chose que nous allons devoir reconnaître de plus en plus, et je pense que cela existe dans le document complémentaire. Cela devrait être intégré dans ce projet de loi s'il doit aller de l'avant.
Je dirais simplement, de manière très générale, qu'une grande partie de ce dont nous parlons montre que nous devons prendre du recul lorsque nous réfléchissons à la réglementation de l'IA au Canada. Il n'y a pas eu de consultation avant la rédaction de la LIAD. Je pense que cela aurait été utile. Le projet de loi pourrait adopter une approche beaucoup plus holistique. M. Sookman en a souligné certains aspects. Mme Denham l'a également mis en lumière. Il y a de nombreuses considérations dont il faut tenir compte pour établir un cadre de réglementation de l'IA au Canada que nous ne voyons pas ici et qui, je pense, seront difficiles à intégrer — uniquement à l'aide d'amendements textuels — à ce que nous avons sous les yeux.
:
La loi de l'Union européenne sur l'IA a une portée exhaustive. C'est une loi globale, elle s'applique donc au secteur public, au tiers secteur et au secteur privé. Il s'agit d'une loi sur la sécurité des produits; elle ne confère donc aucun droit aux particuliers. Elle exige que les entreprises classent le système d'IA qu'elles achètent ou développent. Il faut l'inscrire dans l'un des risques. Il existe une IA interdite, une IA à haut risque et une IA à faible risque, et c'est à l'entreprise de déterminer le risque qu'elle crée pour les autres. Ensuite, selon ce risque... la diligence raisonnable, la responsabilisation, la transparence et la surveillance sont liées au niveau de risque.
Pour vous donner un exemple, il existe un groupe d'utilisations interdites de l'IA. L'une d'elles est la technologie de reconnaissance faciale en direct utilisée par la police dans les espaces publics. L'Union européenne a déjà décidé que c'était interdit. Il en existe de nombreuses utilisations à faible risque... les robots conversationnels, par exemple, peuvent être considérés comme présentant un faible risque en matière d'IA ou d'algorithme.
Ce que les entreprises et les gouvernements doivent faire, c'est prouver qu'ils disposent d'un programme complet de gouvernance des données sur l'IA et d'un inventaire de tous les systèmes d'IA utilisés, puis être prêts à le démontrer aux organismes de réglementation de l'IA dans toute l'Union européenne.
L'Union européenne possède l'avantage du premier arrivé quant à l'adoption d'une loi globale sur l'IA. C'est ce qu'elle a. Cela ne signifie pas que le reste du monde va copier et coller son approche. Cela dit, toute entreprise en dehors de l'Union européenne qui propose des services aux citoyens et aux organisations de l'Union européenne sera soumise au droit de l'Union européenne. Cela signifie que le monde est attentif à ce que fait l'Union européenne, de la même manière qu'il l'a été avec le RGPD. Il y a là un avantage du premier arrivé.
Je pense que ce que font les États-Unis est extrêmement intéressant. Il est difficile de faire passer quoi que ce soit au Congrès ces jours‑ci. Nous le savons. Au lieu de cela, il existe un décret sur l'IA, qui oblige toutes les agences gouvernementales — les chaînes d'approvisionnement et les achats de chaque agence, qu'il s'agisse de la santé et des services sociaux ou du département de la Défense — à se conformer aux principes de l'IA. Ils doivent également être prêts à démontrer qu'ils sont responsables. Je pense que ces mesures auront une énorme influence, mais qu'elles seront très différentes de l'approche adoptée par l'Union européenne.
:
Je ne me souviens pas pour le moment si la LPVPC confère au commissaire le pouvoir d'ordonner la suppression de données qui pourraient avoir été recueillies illégalement ou sans le consentement approprié.
Je ne me souviens pas si le commissaire a ce pouvoir, mais c'est certainement quelque chose de nécessaire dans le monde moderne. Cela pourrait être beaucoup plus efficace pour changer les pratiques commerciales, plutôt que d'infliger une amende de centaines de millions de dollars à une grande plateforme de données, une plateforme de médias sociaux. Si les données sont recueillies illégalement et que leur utilisation constitue une infraction à la loi, le fait d'exiger d'une entreprise qu'elle supprime ces données a un effet énorme.
Je pense à un cas que j'ai eu lorsque j'étais commissaire au Royaume-Uni. Un ministère avait recueilli illégalement les données biométriques de demandeurs. Ils devaient fournir des empreintes vocales, qui sont des données biométriques et qui constituent des données sensibles au sens du RGPD. Selon l'ordonnance, le ministère devait supprimer toutes ces données et recommencer. C'était beaucoup plus significatif. Parmi les ministères homologues au sein du gouvernement, cette leçon a été apprise très rapidement. Plutôt qu'une amende soit imposée au ministère pour avoir recueilli illégalement des données, celles‑ci ont dû être détruites.
Vous verrez que la Federal Trade Commission des États-Unis est intervenue dans plusieurs cas concernant la suppression et la restitution de données. Au bout du compte, les entreprises veulent des pratiques commerciales durables. Elles veulent avoir l'assurance qu'elles font ce qu'il faut. C'est dans cette optique que nous devrions examiner, au Canada, les pouvoirs du commissaire à la protection de la vie privée, par exemple.
:
Merci, monsieur le président.
Monsieur Sookman, lors du Sommet ALL IN sur l'intelligence artificielle, vous avez animé un panel intitulé « Créer demain aujourd'hui : L'IA, le droit d'auteur et la sagesse de l'expérience ». Je serais vraiment curieux de vous entendre en parler.
Quelles sont les préoccupations liées à la protection du droit d'auteur, particulièrement dans le volet culturel, mais aussi dans un contexte de recherche?
Quelles sont les failles du projet de loi pour protéger l'intelligence artificielle?
On sait que la Loi sur le droit d'auteur du Canada n'est vraiment plus moderne, et que celui-ci a généralement de la difficulté à protéger le droit d'auteur.
Le projet de loi va-t-il nous enfoncer encore plus creux?
:
Monsieur Lemire, merci beaucoup de cette question très importante.
Le projet de loi qui est devant vous ne traite pas du tout des droits de propriété intellectuelle, contrairement à la législation européenne, qui contient au moins une disposition exigeant la transparence des données divulguées. Il diffère également du projet de loi britannique qui exige le respect des lois sur le droit d'auteur, et il n'est pas non plus cohérent avec le projet de loi français, qui exigerait également le respect des lois sur le droit d'auteur pour les modèles d'entraînement ou de formation.
Comme vous le savez, une consultation qui est en cours avec ISDE et le ministère du Patrimoine canadien suscite un certain nombre de questions, notamment si la loi doit être modifiée et, surtout, s'il devrait y avoir une nouvelle exemption pour l'exploration de textes et de données. Il s'agit d'une consultation très importante qui soulève la question de l'équilibre entre la capacité de créateurs, dont de nombreux créateurs québécois, de pouvoir contrôler les utilisations de l'œuvre et d'obtenir une compensation pour les utilisations de l'œuvre lorsque leurs modèles sont entraînés, et quel pourrait être l'intérêt pour les entrepreneurs en IA et les grandes entreprises d'utiliser des œuvres pour entraîner les modèles. C'est une question qui comporte des considérations politiques.
À mon avis, la loi actuelle établit adéquatement la norme, car, même si les modèles d'entraînement supposent le droit de reproduction, ce qui constituerait à première vue une violation, ils sont toujours soumis à une exception d'utilisation équitable, et l'utilisation équitable est la meilleure façon de mesurer, au moyen de la loi et des principes en vigueur, l'utilisation des œuvres sans consentement.
:
Merci. C'est une excellente question.
De prime abord, je dirais que cela nous ramène à la nécessité importante que ce projet de loi puisse réellement permettre l'adoption de règlements qui porteront sur des biais algorithmiques discriminatoires provenant du système d'IA. Si le projet de loi est structuré de manière à ce que l'obligation soit claire et reflète réellement l'éventail de façons dont les biais algorithmiques peuvent survenir, les entreprises seront alors incitées à embaucher des équipes mieux en mesure d'anticiper et d'atténuer certains de ces préjudices.
Dans mon introduction j'ai inclus un commentaire selon lequel l'un des problèmes, et ce que je considère comme l'une des limites du projet de loi tel qu'il est structuré actuellement, tient au fait que de nombreuses occasions de biais discriminatoires ont été reconnues après coup, en général dans le cadre de reportages d'enquête, généralement réalisés par des experts ou des personnes qui subissent elles-mêmes ces préjudices et qui comprennent donc le type de préjudice qui pourrait survenir. Ensuite, lorsque cela devient public et qu'il y a une réaction publique, on explique alors que c'était imprévisible au moment où le système était en train d'être développé ou que l'idée initiale a été élaborée pour automatiser un processus de prise de décisions qui était auparavant entrepris par des personnes, par exemple.
Le projet de loi, dans sa structure actuelle, doit pouvoir englober non seulement la discrimination fondée sur des motifs reconnus, mais également la discrimination indirecte pour un motif reconnu. Là où un code postal pourrait intervenir ou lorsque le statut d'emploi ou l'expérience antérieure d'emprisonnement ou les réseaux sociaux pourraient influer sur la prise de décisions algorithmique et refléter un motif de discrimination interdit, le projet de loi doit vraiment saisir toute la complexité de la façon dont ces préjudices peuvent survenir afin que les entreprises soient alors motivées à veiller, du mieux qu'elles peuvent, à ce que ce type de discrimination ne se produise pas.
C'est également la raison pour laquelle nous avons recommandé un audit des enjeux liés à l'équité, qui nécessiterait évidemment plus de structure sans doute dans la réglementation pour vraiment signaler et promouvoir l'importance de l'équité et de la lutte contre la discrimination dans la mise au point de ces systèmes.
C'est un point d'une importance cruciale. Honnêtement, je pense que les documents d'accompagnement reflètent l'importance de cet élément, mais nous ne le voyons pas encore étoffé dans le projet de loi.
:
Cela découle directement du récent rapport de la vérificatrice générale, qui souligne essentiellement que le gouvernement laisse tomber les Canadiens en ce qui concerne la gestion des données qu'il recueille en notre nom à tous.
Madame Denham, merci également de votre témoignage. J'ai été très intéressé par certains des travaux que vous avez effectués au Royaume-Uni et je crois vraiment que votre témoignage apporte beaucoup de poids quant aux modifications que nous devons apporter en ce qui concerne les enfants.
Avant cette réunion, j'ai examiné le document intitulé « Conception adaptée à l'âge: un code de pratique pour les services en ligne » qui provenait du bureau du commissaire à l'information du Royaume-Uni. Dans le document, il est souligné qu'il existe 15 normes liées à la protection des données des enfants: intérêt supérieur de l'enfant, évaluations d'impact sur la protection des données, application adaptée à l'âge, transparence — c'est‑à‑dire la façon dont les entreprises utilisent les données, je suppose —, utilisation préjudiciable de données, politiques et normes communautaires, paramètres par défaut, données minimales, partage des données, géolocalisation, contrôles parentaux, profilage, techniques d'encouragement, jouets et dispositifs connectés et outils en ligne.
Compte tenu de votre expertise, je présume que vous connaissez quelque peu le code de pratique décrit au Royaume-Uni qui fait également partie de la loi sur la protection des données de 2018 et de l'article 123 de la loi britannique.
Selon votre expertise, recommanderiez-vous que le Comité adopte un code de pratique similaire pour garantir que les enfants partout au Canada ne soient pas victimes de préjudices en ligne?
:
Absolument. Merci de la question. Je suis heureuse de vous expliquer cela.
Bien entendu, nous laisserons aux législateurs experts et à votre estimé comité, qui travaille sur les amendements proposés, le soin de discuter du libellé exact. La raison pour laquelle nous avons incorporé ce libellé dans l'article 5 proposé était de répondre aux façons dont les préjudices peuvent être subis au niveau collectif et pas uniquement au niveau individuel.
La loi reconnaît traditionnellement les préjudices individuels. Si je suis blessée physiquement ou psychologiquement ou si je perds de l'argent, cela relève de l'objectif traditionnel de la loi. Comme je l'ai mentionné dans une réponse précédente, la loi devra commencer à reconnaître les façons dont le groupe peut subir un préjudice et le fait que ce préjudice nous touche également en tant que personnes. Notre libellé vise à fournir une suggestion quant à la façon possible d'incorporer cette notion ici.
La raison pour laquelle nous intégrons ces précisions — comme vous le voyez dans une partie de l'analyse qui suit la suggestion —, c'est que les systèmes d'IA entraînés sur de grands volumes de données sont utilisés pour détecter des tendances et tirer des inférences qui peuvent avoir une incidence sur les gens en fonction des groupes auxquels ils appartiennent, même si cela ne les touche pas directement en tant que personne. Il importe de reconnaître cela comme un préjudice. Ainsi, la loi peut tenir compte de certaines façons dont les préjudices et les pertes inéquitables résultant de la croissance et de l'essor de cette industrie au Canada seront répartis au sein de la société.
S'il reste du temps, je serai heureuse de donner un exemple. Nous avons également quelques exemples de préjudices collectifs dans notre mémoire, si cela est plus simple.
:
Merci beaucoup, monsieur Perkins.
Je pense que l'une des véritables lacunes de la LIAD est l'absence de principes directeurs. C'est important d'avoir des principes directeurs, parce qu'ils influencent la réglementation et les principes qui devraient être suivis, dans le cas de l'application de la loi.
J'ai répondu à une question précédente que certains des principes directeurs qui pourraient constituer un bon point de départ se trouvent dans le projet de loi d'initiative parlementaire du Royaume-Uni. Le député en question avait très bien réfléchi aux divers facteurs, dont les facteurs relatifs à l'utilisation responsable de l'IA, les exigences en matière de transparence et d'atténuation des risques et, sous l'angle de l'économie, le besoin de veiller à ce que la réglementation établisse un équilibre proportionnel entre les avantages et les fardeaux et, aussi, la prise en compte de la concurrence internationale.
Ce n'est peut-être pas absolument tout, mais la loi devrait... Si nous pouvons la récupérer d'une façon ou d'une autre, il y a des choses que l'on pourrait faire, par exemple ajouter des principes directeurs. Je dirais que ce projet de loi mérite un examen.
:
Merci beaucoup de la question.
Mme Denham a parlé de l'approche européenne et de l'Europe en tant que première arrivée, mais à dire vrai, même si l'Europe est la première arrivée, on commence à penser que son approche n'est plus la bonne. On craint beaucoup, non seulement que la structure ne soit pas adéquate, mais aussi qu'elle nuise à l'innovation. Le Royaume-Uni s'intéresse de près à la question. Le décret exécutif sur l'intelligence artificielle des États-Unis s'y intéresse de près. La réalité, c'est que les Canadiens ont besoin d'avoir accès à ces outils. S'il y a des obstacles, nous risquons de prendre beaucoup de retard.
Vous devez aussi reconnaître que, s'il y a au Canada une réglementation compliquée qui n'existe pas dans les autres pays, les entreprises canadiennes devront faire des investissements qui ne sont pas nécessaires afin de pouvoir compétitionner sur les marchés étrangers. Il s'agit très souvent de petites entreprises. Elles n'ont pas les ressources nécessaires pour consulter des avocats pour savoir comment elles sont censées respecter quelque chose d'aussi complexe. Nous devons leur donner des moyens, et nous devons nous assurer qu'elles sont responsables, par rapport à des codes volontaires, et qu'elles agissent avec sagesse lorsque les risques sont très élevés.
Cependant, nous ne devons pas commettre l'erreur de mettre des bâtons dans les roues des entrepreneurs, parce qu'ils vont s'en aller — comme cela est arrivé dans d'autres domaines — aux États-Unis pour démarrer leurs entreprises. Nous perdrions des revenus et des gens.
:
Merci, monsieur le président.
Si je voulais intervenir, c'est parce que, selon ce que j'avais compris, la motion initiale que nous avions adoptée — je ne veux pas la lire au Comité, je suis certain que vous en avez tous une copie — indique précisément que le Comité allait repiquer le témoignage de témoins qui avaient comparu ou témoigné devant d'autres comités. Durant notre discussion, il a explicitement été dit qu'Annette Verschuren, l'ancienne présidente du conseil d'administration de Technologies du développement durable Canada — TDDC —, avait déjà témoigné devant le comité de l'éthique. Je ne comprends vraiment pas pourquoi, d'ailleurs Mme Verschuren a été invitée à témoigner devant notre comité, puisque nous avions dit que nous allions repiquer son témoignage, pour éviter que notre comité travaille en double.
J'aimerais aussi attirer votre attention sur le fait qu'il est indiqué dans la motion que « le Comité se réserve le droit de réinviter au besoin lesdits témoins ». Cependant, je crois que personne n'a expliqué à notre comité pourquoi cela serait nécessaire.
J'ai ici le témoignage de Mme Verschuren devant le comité de l'éthique. Je l'ai examiné, et il m'apparaît très détaillé. J'agis conformément à la discussion et à notre entente lorsque nous avons adopté la motion au départ. Je ne comprends pas pourquoi nous devrions assigner un témoin à comparaître — personne n'a justifié le besoin de la réinviter devant notre comité —, alors que nous avons tous convenu de repiquer son témoignage dans le cadre de l'étude de notre comité.
Voilà ce que je pense. Je ne suis pas en faveur d'une assignation à comparaître, présentement.
Mes excuses à nos témoins, mais nous devons régler quelques questions importantes, ici.
J'ai assisté à l'une des réunions du comité de l'éthique, et les choses ont beaucoup changé depuis. Ce qui me préoccupe, c'est que, si cette personne quitte le pays... J'ai à nouveau communiqué avec un informateur, depuis, et beaucoup de choses ont évolué. Je pense qu'un processus a aussi été mis en place pour les travailleurs, mais il semble que cela a causé certains problèmes.
Pour toutes ces raisons, je vais soutenir la motion, si nécessaire. Personne n'aime faire cela, mais, s'il y a un témoin qui va quitter le pays, je ne sais pas ce que nous pourrions faire d'autre.
:
Le Comité n'a pas débattu de cette question, alors je ne comprends pas pourquoi on envisage une assignation à comparaître, étant donné qu'il était trop tôt pour inviter qui que ce soit, puisque le Comité n'en avait pas du tout débattu. Je ne sais pas pourquoi on a invité Mme Verschuren, mais c'est pour l'instant une question de pure forme, car, comme elle est disponible et a répondu au Comité pour dire que le 12 décembre lui convenait, le Comité pourrait tout simplement accepter sa proposition, au lieu de l'assigner à comparaître, ce qui serait complètement inutile, au point où nous en sommes.
Je vois deux bons arguments, ici, en ce qui concerne... Quel est l'argument des membres qui croient que Mme Verschuren doit témoigner devant notre comité, même si elle a déjà témoigné devant un autre? Je n'ai toujours pas entendu une bonne justification à ce sujet, de mon point de vue, mais j'inviterais les autres membres à m'en donner une.
D'après ce que je sais, Mme Verschuren a démissionné du conseil d'administration, et le a accepté sa démission. Si sa démission entre en vigueur le 1er décembre, quel est l'intérêt?
Quoi qu'il en soit, pour ce qui est du calendrier, je pense avoir présenté deux arguments montrant que le Comité devrait justifier ses raisons d'inviter Mme Verschuren ici pour qu'elle témoigne, surtout compte tenu de la première motion que nous avons déjà tous adoptée.
Je ne fais que me conformer à ce dont le Comité a convenu, et nous n'avons pas débattu de la raison pour laquelle nous devrions inviter Mme Verschuren. Je crois certainement qu'il serait inutile de l'assigner à comparaître, peu importe le point de vue que j'adopte.
:
Merci, monsieur Lemire.
Nous avons déjà invité la témoin. Nous l'avons invitée à venir jeudi, puisqu'elle est disponible jeudi. Elle est toujours au Canada. Elle part vendredi. Nous l'avions déjà invitée, et elle avait refusé de venir.
Elle est disponible, mais elle n'a pas dit si elle allait venir le 12. Honnêtement, au point où nous en sommes, puisque nous n'avons pas de réponse et qu'elle n'a même pas accusé réception de l'invitation du Comité jusqu'à la motion que j'ai proposée vendredi dans le but de la convoquer... Effectivement, ce que j'ai proposé a eu tout un effet. Tout à coup, elle s'est souvenue qu'elle devait rappeler, ou demander à son adjoint de rappeler, et elle a dit: « Oh, je devrais peut-être me présenter, si vous comptez maintenant employer votre pouvoir de convoquer un témoin. »
Au point où nous en sommes, je ne suis pas convaincu que la témoin dont il est question va coopérer, à moins d'être convoquée.
:
Avec respect, je ne pense pas qu'on puisse assimiler une absence de réponse à un refus de témoigner devant le Comité. Je veux réitérer ce que j'ai dit plus tôt. Ce sont deux choses très différentes: un courriel peut se perdre dans la boîte de réception, une personne peut ne pas être disponible. Seulement, il peut y avoir une explication très raisonnable, une autre explication que ce que M. Perkins suppose, qui est l'interprétation la plus négative qui soit.
Voyons les choses avec un peu plus de clémence; elle a maintenant répondu et dit être disponible le 12, alors il n'est peut-être pas nécessaire d'utiliser le mot « convoquer ».
Monsieur le président, j'aimerais revenir sur ce que j'ai dit plus tôt, soit que Mme Verschuren n'aurait même pas dû être invitée en premier lieu, du moins pas avant que notre comité ait décidé s'il fallait l'inviter. Comment se fait‑il qu'elle a été invitée deux fois, alors que, selon la motion elle-même, la lettre de motion et l'entente, le Comité ne devait pas inviter des témoins, mais examiner leurs témoignages et décider ensuite s'il fallait les réinviter à comparaître devant notre comité?
M. Rick Perkins: [Inaudible]
M. Ryan Turnbull: C'est bien ce que dit la motion, monsieur Perkins, alors ne me dites pas le contraire. Je l'ai sous les yeux, et je peux vous la lire, aux fins du compte rendu. Je sais que c'est inutile — vous êtes assez intelligent pour cela —, mais le fait est qu'elle n'aurait pas dû être invitée avant que le Comité n'en ait discuté.
Ensuite, on laisse entendre qu'elle refuserait de témoigner alors que ce n'est pas le cas. Ce n'est tout simplement pas vrai.
:
Si je puis intervenir, une partie du blâme me revient.
La motion n'était pas très claire en ce qui concerne la liste des témoins qui y était intégrée. C'est moi qui ai demandé à la greffière d'inviter la témoin, alors j'en prends le blâme. Vous avez tout à fait raison de dire que le libellé de la motion n'indiquait pas nécessairement que le Comité allait inviter cette témoin‑là. Le Comité aurait dû en discuter.
J'imagine que ce serait difficile d'en discuter maintenant, puisque nous sommes saisis d'une motion sur laquelle nous devons voter. Mais c'est également, dans une certaine mesure, l'occasion d'en discuter pour décider si c'est nécessaire.
Certains députés sont venus me voir pour me dire que, selon eux, nous devions inviter cette témoin, et c'est pour cette raison que j'ai donné à la greffière l'instruction de l'inviter. Cependant, je n'en avais pas reçu l'instruction du Comité. Je vous le concède, monsieur Turnbull. Vous avez raison.
Nous sommes toujours saisis de la motion de « convocation » que M. Perkins a proposée.
Allez‑y, monsieur Turnbull.
:
Très brièvement, c'est peut-être la meilleure façon de procéder. Toutefois, quelque chose me préoccupe: nous ne voulons pas vraiment avoir à convoquer qui que ce soit, si cela n'est pas nécessaire, mais, dans le cas où une personne va quitter le pays et ne peut être présente, nous risquons que tout nous échappe.
J'étais présent, au départ, quand le ministre était... Je suis toujours convaincu que la procédure n'a pas été la plus équitable possible pour les travailleurs. Par conséquent, si je devais voter sur cet amendement, je voterais contre, parce que je vais me rabattre sur la convocation. Je ne veux pas vraiment convoquer qui que ce soit ici, mais en même temps, si je pense aux travailleurs et au fait que leur sort est toujours en jeu, ici, je ne peux pas accepter que leur cause ne soit pas entendue.
Je ne sais pas s'il y a d'autres façons de procéder. Si nous décidons de faire les choses ainsi et que rien ne se passe, je vais le regretter, même si je ne veux vraiment pas convoquer qui que ce soit non plus. C'est une décision difficile, et je pense que nous prenons tout cela au sérieux.
S'il y a une façon de concilier les deux, je pourrais l'accepter, mais je n'ai pas de solution présentement. J'essaie de réfléchir à une façon de formuler les choses.
:
Chers collègues, nous allons reprendre la séance. Il s'est écoulé un peu plus de cinq minutes.
[Français]
Conformément à la motion adoptée le 7 novembre 2023, le Comité entame aujourd'hui l'examen de l'étude sur les enquêtes et rapports récents sur Technologies du développement durable Canada.
J'aimerais souhaiter la bienvenue aux deux témoins: M. Geoffrey Cape, chef de la direction de R‑Hauz, qui participe à la réunion par vidéoconférence, et Mme Andrée‑Lise Méthot, fondatrice et associée directrice chez Cycle Capital, qui participe à la réunion en personne.
Monsieur Cape et madame Méthot, je vous remercie d'avoir accepté de vous joindre à nous et je vous présente mes excuses pour le petit retard.
Sans plus tarder, je cède la parole à M. Cape, qui dispose de cinq minutes pour faire son allocution d'ouverture.
:
Merci beaucoup, monsieur le président.
Chers membres du Comité, je vous remercie de m'avoir invitée et de m'accueillir aujourd'hui.
Pour commencer, voici quelques mots sur moi. J'ai grandi à Baie‑Comeau, dans la belle région de la Côte‑Nord, au Québec. Du plus loin que je me souvienne, mon quotidien a toujours été bercé par le fleuve Saint‑Laurent et les questions environnementales.
Au cours de ma carrière, j'ai travaillé pour le gouvernement du Parti québécois de Lucien Bouchard, dans un cabinet politique. Par la suite, j'ai consacré ma vie au développement des nouvelles technologies et à la lutte contre les changements climatiques. En tant qu'ingénieure géologue, cela fait plus de 25 ans que j'y travaille à pied d'œuvre. J'ai consacré toute ma carrière à bâtir une entreprise qui allie écologie et capital de risque. C'était un mariage très étonnant, il y a 20 ans.
Le but de ma contribution à Technologies du développement durable Canada, ou TDDC, était de m'impliquer dans l'écosystème canadien pour bâtir l'économie mondiale de demain. Commençons par mon implication au sein du conseil d'administration, où j'ai été nommée en juin 2016. À la suite de ma nomination par les membres du conseil, j'y ai siégé jusqu'en 2021.
Dans le cadre de mon engagement à la TDDC, j'ai toujours agi avec une transparence totale, en déclarant tous les conflits d'intérêts et toutes les situations réelles, apparentes et potentielles. C'était le cas pour les entreprises en portefeuille de Cycle Capital dans lesquelles nous détenons généralement une participation s'élevant en moyenne entre 4 et 30 %. Ce l'était aussi pour les entreprises susceptibles de susciter un intérêt futur pour Cycle Capital, parce que, dans mon domaine, on voit venir les projets longtemps à l'avance. De plus, les situations pouvant être perçues comme des conflits d'intérêts ont toutes été déclarées.
Même en cas de doute, bien que la gouvernance de la TDDC n'ait pas toujours considéré une situation comme un conflit d'intérêts, j'ai toujours choisi de me retirer. Je suis convaincue que mes actions témoignent du sérieux avec lequel j'aborde cette démarche dans toutes les situations.
Quant à l'aide d'urgence universelle et équitable octroyée pendant la pandémie à toutes les entreprises du portefeuille de l'organisme qui respectaient les conditions déjà préétablies par la TDDC, permettez-moi de remonter le fil du temps. À cette date, les écoles étaient fermées. Le Québec se préparait au couvre-feu. Les chaînes d'approvisionnement étaient brisées. Nos entrepreneurs étaient extrêmement préoccupés et se demandaient s'ils allaient faire faillite ou s'ils devaient licencier leurs employés.
Il est important de souligner que plusieurs programmes gouvernementaux, tant au niveau provincial qu'au niveau fédéral, ont été essentiels pour maintenir nos entreprises à flot durant cette période difficile, et ce, dans tous les secteurs d'activité, allant d'Imperial Oil au restaurant du coin.
Quant à ce que nous avons mis en place lorsque j'étais à la TDDC, ce sont des mesures visant à protéger les entreprises canadiennes qui détiennent une propriété intellectuelle en technologie propre du Canada et une expertise humaine, soit des cerveaux. Le but était d'éviter de fragiliser ces entreprises et de les préserver d'acquisitions étrangères à bas prix par des pays comme la Chine.
En effet, les études démontrent qu'au Canada, les entreprises en technologie verte sont sous-financées, jusqu'à deux fois moins que leurs concurrentes américaines.
Chaque fois que nous fragilisons nos entreprises en refusant de les soutenir en période de crise, par exemple, nous ne construisons pas le Canada de demain. Nous les exposons plutôt à l'appétit d'intérêts étrangers, notamment celui des Chinois.
J'aimerais également souligner qu'au cours de nos conversations au conseil d'administration de la TDDC, nous avons obtenu un avis légal émanant d'un avocat associé chez Osler. Cet avis juridique affirmait qu'aucun conflit d'intérêts n'existait étant donné que la mesure en question était universelle, équitable et exceptionnelle, et qu'elle s'appliquait de manière équitable à toutes les entreprises ayant bénéficié de la TDDC par le passé.
En conclusion, devant cette situation inédite, il était devenu impératif de protéger nos entreprises technologiques, de conserver le savoir-faire canadien et de garantir la pérennité de notre industrie dans les technologies vertes en vue de l'avenir.
Investir dans nos entreprises canadiennes en technologie verte va bien plus loin qu'une simple considération économique. C'est un engagement envers notre nation, envers l'environnement et envers tous nos enfants.
En soutenant ces entreprises, nous préservons notre souveraineté technologique, créons des emplois durables et contribuons à bâtir un avenir plus vert et plus prospère pour tous. Je crois personnellement à cette transition juste.
Chez Cycle Capital, par exemple, nous avons déployé plus de 200 millions de dollars d'investissement au Canada. Aussi, nous avons amené avec nous, à titre de chef de file, 2 milliards de dollars en équité dans les compagnies canadiennes.
Aujourd'hui, notre portefeuille vaut plus de 3,9 milliards de dollars.
Nous avons aussi participé à la création directe de 1 300 emplois qualifiés en très haute technologie: des ingénieurs, des personnes ayant un doctorat et des grands spécialistes de ces questions.
Mesdames et messieurs, je suis maintenant prête à répondre à toutes vos questions et à collaborer à cette discussion.
:
Tout à fait, mais laissez-moi clarifier quelque chose. Je vais vous présenter les faits tels qu'ils sont.
Depuis mon arrivée au conseil d'administration de Technologies du développement durable Canada, en 2016, parmi les entreprises du portefeuille de Cycle Capital, quatre ont reçu du soutien de TDDC. Il s'agit de MineSense, qui a reçu 4 millions de dollars et dont Cycle Capital détient 9,6 % des parts; GreenMantra, qui a reçu 2 millions de dollars et dont Cycle Capital détient 19,5 % des parts; Inocucor, qui a reçu 1,2 million de dollars et dont Cycle Capital détient 28 % des parts; et Polystyvert, qui a reçu 3,5 millions de dollars et dont Cycle Capital détient 8,5 % des parts.
En ce qui concerne l'exemple que vous avez cité, soit l'entreprise SPARK Microsystems, cette entreprise a reçu de l'argent de TDDC en 2016. Cependant, chez Cycle Capital, nous avons investi dans SPARK Microsystems à la fin de l'année 2020. Donc, l'investissement de TDDC a été fait bien avant notre investissement. C'était presque trois ans avant.
:
Merci aux témoins de s'être joints à nous aujourd'hui. Je sais qu'il s'agit d'un sujet chaud pour notre comité et pour d'autres aussi. J'ai hâte d'entendre vos témoignages.
Je sais que TDDC a vu le jour il y a environ 22 ans, si je ne m'abuse. Je sais que, en fait, vers 2013, l'entreprise a reçu une somme supplémentaire de 325 millions de dollars, ce qui prouve, selon moi, que plusieurs gouvernements ont reconnu qu'elle faisait un excellent travail.
Cela ne règle pas le problème qui nous occupe et qui concerne le conseil de gouvernance et la nécessité de nous assurer, nous, les députés et le grand public, que les fonds que l'organisation a gérés et distribués l'ont été d'une façon qui, espérons‑le, a permis de surmonter les défis et que l'organisation se conformait aux plus hautes normes de gouvernance qui soient.
Évidemment, je pense que c'est une question d'équilibre. C'est important pour nous, en tant que députés, et pour notre comité, en particulier, qui doit demander des comptes au gouvernement sur tout ce qui touche l'industrie et son grand portefeuille. Comme TDDC fait partie de ce portefeuille, je pense qu'il est important que nous ayons ces débats et ces discussions.
Je sais que nous avons appris des choses grâce aux enquêtes demandées par le et aux témoignages que nous avons entendus au sujet des politiques sur les conflits d'intérêts de TDDC par le passé. Franchement, cela laisse beaucoup à désirer. Les membres du conseil ne se récusaient pas nécessairement des décisions lorsqu'il y avait des conflits d'intérêts réels ou perçus. À tout le moins, c'est ce que nous avons entendu. S'ils se récusaient, cela n'était pas nécessairement consigné quelque part. Des décisions ont été prises à l'unanimité sans qu'aucune dissidence n'ait été notée. Des membres du conseil, y compris la présidente, ont, dans certains cas, donné de l'argent à leurs propres entreprises.
Je vais commencer par vous, madame Méthot. Pouvez-vous nous parler de certains de ces enjeux et de votre expérience au conseil?
:
Je vous remercie beaucoup de votre question.
Pour ma part, j'ai toujours dénoncé les conflits d'intérêts. J'ai même ici une lettre qui confirme que j'ai suivi toutes les règles. C'était aussi très bien observé par un représentant du ministère. Je ne connais pas très bien les titres, mais je crois que c'était un sous-ministre adjoint. Il était présent lors de toutes nos délibérations. De plus, lorsque j'étais là, la pratique courante était de déclarer nos conflits d'intérêts à l'avance, qu'ils soient réels, potentiels ou apparents, et de se récuser. Ici, j'ai une lettre qui confirme que je me suis récusée et que j'ai suivi toutes les règles. Elle est disponible, si vous la voulez.
Cela dit, le commentaire sur les procès-verbaux est juste. S'il y a une chose que toutes les organisations et tous les conseils d'administration dont j'ai fait partie ont en commun, c'est qu'ils ne sont pas parfaits et qu'ils s'améliorent. Dans ce cas-ci, il reste du progrès à faire. Vous comprendrez qu'ayant quitté le conseil d'administration il y a plus de deux ans, je ne peux pas juger la situation actuelle. Je peux seulement parler de la période où j'y étais.
Je vais vous donner un exemple très concret. J'ai pris la peine de relire les procès-verbaux, la fin de semaine dernière. On indique qu'on est investisseur dans SPARK Microsystems, alors que, dans la déclaration d'intérêt, c'est écrit que SPARK Microsystems pourrait être un investissement, mais n'en est pas un. Cela a été mal inscrit au procès-verbal.
Sur ce point, monsieur le député, vous avez parfaitement raison. J'abonde dans votre sens.
:
Merci, monsieur le président.
Tout d'abord, je dois souligner que vous avez tous deux un CV assez impressionnant. Vous êtes des pionniers en ce qui a trait à l'investissement, au développement durable et à l'émergence d'une nouvelle technologie, qui va peut-être sauver la planète. Souhaitons-le. Il reste que ce qui nous intéresse présentement est préoccupant.
Je tiens à mentionner, madame Méthot, que vous avez un ton très posé, ce que je trouve assez rassurant, dans les circonstances. Je me permets de revenir sur le contexte entourant la pandémie de la COVID‑19, parce que vous en avez fait mention.
Je me souviens des travaux auxquels s'attelait le Comité à ce moment-là. Nous étudiions un projet de loi modifiant la Loi sur Investissement Canada, et il y avait cet esprit qui consistait à sauver nos entreprises de la dévaluation. Vous avez laissé entendre, dans vos remarques préliminaires, que cet esprit de sauvetage des entreprises teintait vos travaux.
Que se serait-il produit si le conseil d'administration n'avait pas pris la décision d'adopter un plan de secours pour les entreprises en technologies propres pendant la pandémie?
:
En fait, nous étions extrêmement impressionnés de recevoir des appels d'entrepreneurs, ne serait-ce que dans notre portefeuille chez Cycle Capital.
Il y avait un vent de panique parmi eux. Souvent, leurs entreprises ne font pas de profits et c'est d'ailleurs pour cela qu'elles ne répondaient pas aux critères des autres programmes disponibles. Ces compagnies développent des technologies et investissent dans la technologie, mais elles ne font pas de profits. Les entrepreneurs, en panique, se demandaient donc s'ils devaient faire faillite ou mettre à pied leurs employés. Or, perdre les ressources humaines, c'est perdre l'intelligence. Il y a bien la propriété intellectuelle, mais sans les ingénieurs, sans les gens spécialisés, c'est extrêmement difficile de la matérialiser et de monter une vraie entreprise commerciale viable à l'échelle mondiale.
Plusieurs scénarios étaient possibles, selon les phases de la COVID‑19, évidemment. Si l’on regarde dans le rétroviseur, on constate qu'on aurait fragilisé beaucoup de ces entreprises. Des études très sérieuses nous démontrent que, dans le secteur de l'eau, par exemple, la propriété intellectuelle sur les nouvelles technologies est déjà détenue à plus de 85 ou 90 % par des intérêts chinois. En plus de la perdre des cerveaux, cette propriété intellectuelle aurait pu être une cible.
Admettons qu'on arrête tout cela, qu'on mette cela sur pause pendant deux ans, puis qu'on recommence, il va falloir trouver les employés, les gens qui comprennent et qui sont capables de faire ce qu'on appelle « la mise à l'échelle », le vrai déploiement commercial, et ce, sans perdre la connaissance.
J'aurais été plus gênée devant vous si vous m'aviez demandé pourquoi nous n'avons rien fait. Je suis très contente que nous ayons fait quelque chose et que ce comité se penche sur cette question.
:
Merci, monsieur le président.
Je souhaite la bienvenue aux témoins, qui participent en personne ou virtuellement.
De toute évidence, un certain nombre de questions ont été posées aujourd'hui.
[Français]
Madame Méthot, je vous souhaite la bienvenue au Comité.
[Traduction]
J'ai jeté un coup d'œil à Cycle Capital, l'entreprise dont vous êtes partie intégrante; si je peux utiliser le mot intégrante. Il est évident que votre entreprise existe depuis un certain temps. Vous avez sans doute fait bon nombre d'investissements dans plusieurs entreprises et, en ce qui concerne ces investissements, vous avez évidemment vérifié la structure de la gouvernance des entreprises dans lesquelles vous avez investi.
On dirait bien que vous siégez à plusieurs conseils. Vous avez siégé au conseil de TDDC et, si je comprends bien, vous siégez au conseil de la Banque de l'infrastructure, qui reconnaît bien entendu votre expérience, et ainsi de suite, dans le secteur des investissements.
Comment évaluez-vous la structure de gouvernance de TDDC qui était en place durant votre mandat?
:
Merci, monsieur le président.
Il importe de noter, en ce qui concerne la caisse noire d'un milliard de dollars des libéraux, que le vérificateur général lui a remis un bulletin de santé positif jusqu'en 2017. Même si je m'intéresse aux documents produits à partir de 2015, je crois que le vérificateur général avait déjà été tiré ses conclusions sur une partie de ceux‑ci. Il importe peu de savoir qui a nommé qui aux autres postes du Bureau du commissaire à l'information et au conseil, oui qui vous a nommés, vous: lorsqu'on enfreint les règles, on doit en être tenu responsable.
Mme Verschuren a en effet été nommée à la présidence de la caisse noire écolo d'un milliard de dollars de TDDC par le gouvernement libéral actuel, et elle a démissionné dans la honte; donc, selon l'examen commandé par le gouvernement, les politiques sur les conflits d'intérêts n'ont pas été respectées. Je crois qu'il est essentiel que, durant la période qui a fait l'objet de l'examen — pour répondre à l'argument de M. Lemire —, que des récusations soient notées. L'avocat à l'interne, celui qui les a conseillés sur les conflits d'intérêts, a aussi dit aux membres du conseil d'antidater leurs documents relatifs aux conflits d'intérêts. Les documents qu'ils ont sont pour le moins très suspects.
Bien entendu, j'appuie sans réserve la proposition concernant 2015.