Passer au contenu
Début du contenu

INDU Réunion de comité

Les Avis de convocation contiennent des renseignements sur le sujet, la date, l’heure et l’endroit de la réunion, ainsi qu’une liste des témoins qui doivent comparaître devant le comité. Les Témoignages sont le compte rendu transcrit, révisé et corrigé de tout ce qui a été dit pendant la séance. Les Procès-verbaux sont le compte rendu officiel des séances.

Pour faire une recherche avancée, utilisez l’outil Rechercher dans les publications.

Si vous avez des questions ou commentaires concernant l'accessibilité à cette publication, veuillez communiquer avec nous à accessible@parl.gc.ca.

Publication du jour précédent Publication du jour prochain
Passer à la navigation dans le document Passer au contenu du document






Emblème de la Chambre des communes

Comité permanent de l'industrie et de la technologie


NUMÉRO 108 
l
1re SESSION 
l
44e LÉGISLATURE 

TÉMOIGNAGES

Le lundi 5 février 2024

[Enregistrement électronique]

  (1105)  

[Français]

     Je déclare la séance ouverte.
    Bonjour à toutes et à tous. Je vous souhaite la bienvenue à la 108e réunion du Comité permanent de l'industrie et de la technologie de la Chambre des communes. La réunion d'aujourd'hui se déroule sous forme hybride, conformément au Règlement.
    Nos témoins d'aujourd'hui se joignent tous à nous par vidéoconférence. Nous accueillons M. Ignacio Cofone, titulaire de la Chaire de recherche du Canada sur le droit de l'intelligence artificielle et la gouvernance des données à l'Université McGill. Nous recevons aussi Mme Catherine Régis, professeure titulaire à l'Université de Montréal. De l'Institut canadien de recherches avancées, nous avons Mme Elissa Strome, directrice générale, Stratégie pancanadienne en matière d'intelligence artificielle. Enfin, de Mila, institut québécois d'intelligence artificielle, nous accueillons M. Yoshua Bengio, directeur scientifique.
     Je vous remercie tous et toutes de votre présence et vous souhaite la bienvenue.
    Monsieur Cofone, puisque nous avons déjà un peu de retard, je vous donne sans plus tarder la parole pour cinq minutes.

[Traduction]

    Bonjour tout le monde. Je vous remercie de m'avoir invité à faire part au Comité de mes réflexions sur le projet de loi C‑27.
    Je comparais aujourd'hui à titre personnel. Comme le président m'a déjà présenté, je vais sauter cette partie et dire d'emblée qu'il est essentiel que le Canada se dote d'un cadre juridique qui favorise les énormes avantages de l'intelligence artificielle et des données tout en évitant que sa population en subisse les dommages collatéraux.
    Je suis heureux de vous parler de mes idées générales sur le projet de loi, mais aujourd'hui, j'aimerais me concentrer sur trois améliorations importantes qu'il est possible de lui apporter tout en conservant les caractéristiques générales et l'approche qui lui sont propres. Je formulerai donc une recommandation pour la Loi sur l’intelligence artificielle et les données, ou la LIAD, une recommandation pour la Loi sur la protection de la vie privée des consommateurs, ou la LPVPC, et une recommandation qui s'applique aux deux lois.
    La première recommandation concerne la nécessité d'améliorer la définition du mot « préjudice » dans le cadre de la LIAD. En effet, la LIAD est un cadre de responsabilisation, et l'efficacité de tout cadre de responsabilisation dépend de ce dont nous tenons les entités responsables. La LIAD reconnaît actuellement les préjudices matériels, économiques, physiques et psychologiques, mais pour que cette définition soit utile et complète, il faut lui ajouter un autre élément.
    En effet, on n'a qu'à penser aux préjudices causés à la démocratie lors du scandale de Cambridge Analytica et les préjudices importants, mais diffus et invisibles, qui sont infligés chaque jour par les informations trompeuses propagées de manière intentionnelle pour polariser les électeurs. Il faut également penser à la représentation erronée des minorités, ce qui mine leurs capacités. Ces préjudices ne sont pas reconnus par la définition actuelle de « préjudice ».
    Il est donc nécessaire d'apporter deux modifications à la LIAD pour reconnaître les préjudices intangibles au‑delà des préjudices psychologiques individuels. Tout d'abord, il faut reconnaître les préjudices causés aux groupes, par exemple les préjudices causés à la démocratie, car les préjudices causés par l'intelligence artificielle touchent souvent des communautés plutôt que des individus distincts. Il faut également reconnaître les préjudices causés à la dignité, comme ceux qui découlent de la représentation erronée et de l'accroissement des inégalités systémiques par des moyens automatisés.
    J'encourage donc vivement le Comité à modifier le paragraphe 5(1) de la LIAD, afin d'y intégrer les préjudices intangibles subis par les individus et les communautés. Je serais également heureux de proposer une formulation pour ces changements.
    La prise en compte plus complète des préjudices permettra au Canada de se conformer aux normes internationales, comme la loi sur l'intelligence artificielle de l'Union européenne, qui prend en compte les préjudices causés à l'intérêt public, aux droits protégés par les lois de l'Union européenne, à une pluralité de personnes et aux personnes en situation de vulnérabilité. Cette démarche est plus conforme aux cadres d'éthique en matière d'intelligence artificielle, par exemple la Déclaration de Montréal pour un développement responsable de l'intelligence artificielle, la Déclaration de Toronto et les principes en matière d'intelligence artificielle de la conférence d'Asilomar. Cela favoriserait également une plus grande cohérence au sein du droit canadien, car la directive sur la prise de décision automatisée fait référence à plusieurs reprises à des individus ou à des communautés.
    Ma deuxième recommandation consiste à faire en sorte que la LPVPC reconnaisse les inférences comme étant des renseignements personnels. Nous vivons dans un monde où des choses de nature aussi délicate et dangereuse que notre orientation sexuelle, notre appartenance ethnique et notre affiliation politique peuvent être inférées de choses aussi inoffensives que ce que nous écoutons sur Spotify, ce que nous commandons dans un café ou les messages textes que nous envoyons, et ce ne sont là que quelques-unes des inférences que nous connaissons.
    Les inférences peuvent être préjudiciables même lorsqu'elles sont incorrectes. Par exemple, TransUnion, une agence de notation de crédit, a été poursuivie en justice aux États-Unis il y a quelques années pour avoir inféré à tort que des centaines de personnes étaient des terroristes. En renforçant les inférences à outrance, l'intelligence artificielle a transformé l'environnement de la protection de la vie privée.
    Nous ne pouvons pas nous permettre d'avoir une loi sur la protection de la vie privée qui se concentre sur les renseignements divulgués et qui crée une porte dérobée qui prive cette loi de son pouvoir de créer une protection efficace dans l'économie « inférentielle » d'aujourd'hui. La LPVPC n'exclut pas que les inférences soient des renseignements personnels, mais elle ne les intègre pas explicitement. Cela devrait pourtant être le cas. Je conseille donc vivement au Comité de modifier la définition des renseignements personnels dans l'une de ces lois pour qu'elle précise que les « renseignements personnels » s'entendent des renseignements divulgués ou inférés au sujet d'une personne ou d'un groupe identifiable.
    Cette modification renforcerait également la cohérence au sein du droit canadien, puisque le Commissariat à la protection de la vie privée du Canada a déclaré à plusieurs reprises que les inférences devraient être considérées comme étant des renseignements personnels, ainsi qu'au sein des normes internationales, puisque les autorités étrangères responsables de la protection des données insistent sur l'importance de la question des inférences dans le cadre des lois relatives à la protection de la vie privée. Le procureur général de la Californie a également déclaré que les inférences devraient être considérées comme des renseignements personnels dans le cadre des lois sur la protection de la vie privée.
    Ma troisième recommandation, qui sera brève, est une conséquence du projet de loi, car il s'agit de procéder à une réforme de l'application de la loi. Étant donné que l'intelligence artificielle et les données continuent de s'infiltrer dans un nombre toujours croissant d'aspects de notre vie sociale et économique, un organisme de réglementation doté de ressources et d'effectifs limités ne pourra pas tout surveiller. Il devra établir des priorités. Si nous voulons éviter que tous les autres préjudices passent à travers les mains du filet, il faut doter les deux parties de la loi d'un système d'application de la loi, à la fois public et privé, qui s'inspire du Règlement général sur la protection des données, ou RGPD, afin de permettre l'existence d'un organisme qui impose des amendes sans empêcher le système judiciaire d'accorder des indemnités pour les préjudices tangibles et intangibles causés aux individus et aux groupes.
    Nous avons également un mémoire dans lequel ces recommandations sont décrites en détail.

  (1110)  

     Je serai heureux de répondre à vos questions ou de fournir toute précision nécessaire.
    Je vous remercie beaucoup pour le temps que vous m'avez accordé.
    Je vous remercie beaucoup.

[Français]

    Madame Régis, vous avez maintenant la parole pour cinq minutes.
    Monsieur le président et chers membres du Comité, bonjour. Je vous remercie de m'offrir l'occasion de présenter mes commentaires sur la section du projet de loi C‑27 portant sur l'intelligence artificielle.
    Je suis professeure titulaire à la Faculté de droit de l'Université de Montréal. Je suis aussi titulaire de la Chaire de recherche du Canada sur la culture collaborative en droit et en politique de la santé, ainsi que de la Chaire en IA Canada-CIFAR affiliée à l'Institut Mila. Du 2 janvier 2022 à décembre 2023, j'ai été coprésidente du groupe de travail sur l'intelligence artificielle responsable du Partenariat mondial sur l'intelligence artificielle.
    Comme premier commentaire, j'aimerais réaffirmer non seulement l'importance, mais aussi l'urgence de mieux encadrer juridiquement l'intelligence artificielle, comme le projet de loi C‑27 propose de le faire. Je maintiens cette position depuis cinq ans, et j'en suis encore plus convaincue aujourd'hui au vu des développements récents et fulgurants de l'intelligence artificielle, que vous connaissez tous.
    Nous avons besoin d'outils juridiques contraignants, qui définissent clairement nos attentes, nos valeurs et nos exigences en matière d'intelligence artificielle à l'échelle du pays. Je souligne d'ailleurs que, lors des consultations citoyennes qui ont mené à l'élaboration de la Déclaration de Montréal pour un développement responsable de l'intelligence artificielle, le premier besoin exprimé a été celui de se doter de cadres législatifs appropriés pour créer une intelligence artificielle digne de confiance.
    Comme vous le savez probablement, il s'agit d'une tendance qui s'est élargie à l'échelle mondiale, dont le cas le plus patent est certainement celui de l'Union européenne. Cette dernière vient de franchir une nouvelle étape importante la semaine passée en vue de l'adoption de sa réglementation sur l'intelligence artificielle.
    Outre ces besoins nationaux, les discussions qui auront lieu à l'échelle mondiale en matière d'intelligence artificielle et les décisions afférentes qui se prendront auront des répercussions dans tous les pays. On parle d'ailleurs de la création d'une instance spécifique à l'intelligence artificielle.
    Le Canada doit pouvoir influer sur ces discussions et ces décisions s'il veut assurer la prise en compte des valeurs et des intérêts canadiens dans l'espace international. Or, l'établissement d'une vision et de normes claires et solides à l'échelle canadienne est une des conditions essentielles pour pouvoir jouer un rôle crédible, structurant et d'influence dans cet espace de gouvernance mondiale.
    Cela dit, je pense que diverses améliorations pourraient encore être apportées au projet de loi C‑27. J'en ciblerais deux pour aujourd'hui.
    La première amélioration consisterait à assurer une plus grande indépendance au commissaire à l'intelligence artificielle et aux données. En effet, même si les récents amendements ont donné lieu à des améliorations, le commissaire reste étroitement lié à Innovation, Sciences et Développement économique Canada. Pour éviter toute apparence de conflit d'intérêts ou tout conflit d'intérêts réel, il faut scinder davantage les deux entités pour éviter de créer des tensions entre le rôle de bailleur de fonds, d'une part, et de contrôleur de l'industrie, d'autre part.
    Parmi les mesures pouvant être envisagées, il serait possible de créer un commissariat à l'intelligence artificielle complètement indépendant du ministère, de donner au commissaire le pouvoir d'imposer des sanctions administratives pécuniaires ou d'imposer des mesures correctives au cadre de responsabilisation, et de demander au commissaire de faire des recommandations quant aux règlements à adopter ou à modifier sur la base de son expérience de contrôleur, notamment par le truchement de son rapport annuel public.
    D'autres mesures sont possibles. Il serait par exemple possible, une fois la loi adoptée, de donner au commissaire les moyens financiers et institutionnels de même que le personnel qualifié nécessaires pour mener à bien ses fonctions. Il faut vraiment lui donner les moyens d'atteindre ses objectifs. Une autre possibilité serait de trouver des façons qui permettraient aux citoyens d'accéder directement au commissaire pour qu'ils puissent lui faire certains signalements. Cela créerait un lien entre eux.
    La deuxième grande amélioration possible consisterait, je pense, à affirmer davantage le rôle prépondérant que peuvent jouer les droits de la personne dans l'analyse des risques et des incidences de l'intelligence artificielle. Alors que la prise en compte de ces droits est spécifiquement mentionnée comme étant importante pour définir les classes d'intelligence artificielle à incidence élevée, la nécessité d'intégrer ensuite ces derniers dans les évaluations d'entreprise pouvant inclure des analyses de risque de préjudice ou d'effets néfastes se fait nettement plus timide.
    Je recommanderais aussi l'ajout de mentions particulières concernant la nécessité d'effectuer des analyses d'impact sur les droits des personnes ou des groupes de personnes susceptibles d'être touchées par les systèmes d'intelligence artificielle à incidence élevée. Par ailleurs, une partie de ces évaluations pourrait être rendue publique. C'est ce qu'on appelle parfois des études d'impact sur les droits de la personne.
    Le Conseil de l'Europe, l'Union européenne avec sa loi sur l'intelligence artificielle, et même l'Organisation des Nations unies pour l'éducation, la science et la culture, ou UNESCO, travaillent d'ailleurs sur des outils similaires. Il serait donc intéressant d'envisager un partage éventuel d'expertise entre tous les acteurs.
    Cette deuxième recommandation est fondamentale parce que, si la course au développement de l'intelligence artificielle est bien réelle, personne ne gagnera la course de la violation des droits de la personne. Ce message doit être clair dans la loi.
    Je vous remercie.

  (1115)  

     Merci beaucoup.
    Madame Strome, vous avez la parole.

[Traduction]

    Bonjour. Je m'appelle Elissa Strome et je suis directrice de la Stratégie pancanadienne en matière d'intelligence artificielle à l'Institut canadien de recherches avancées, ou l'ICRA.

[Français]

    Je vous remercie de m'avoir donné l'occasion de rencontrer le Comité aujourd'hui.

[Traduction]

    L'ICRA est un organisme de recherche mondial établi au Canada qui rassemble des personnes brillantes, au‑delà des disciplines et des frontières, pour s'attaquer à certains des problèmes les plus urgents auxquels font face le milieu scientifique et l'humanité. Nos programmes de recherche couvrent tous les domaines de la découverte humaine.
     Grâce à sa volonté de repousser les limites scientifiques, l'ICRA a su reconnaître la promesse d'une idée que lui a présentée M. Geoffrey Hinton en 2004, soit de créer, à l'ICRA, un nouveau programme de recherche qui ferait progresser la notion des réseaux de neurones artificiels. À l'époque, cette notion était impopulaire et il était donc difficile de trouver le financement nécessaire pour la mettre en œuvre.
    Vingt ans plus tard, ce programme de l'ICRA permet toujours au Canada de se démarquer sur la scène mondiale de la recherche de pointe en intelligence artificielle et compte parmi ses membres M. Hinton, M. Yoshua Bengio — qui est avec nous aujourd'hui —, M. Richard Sutton, de l'Université de l'Alberta, ainsi que de nombreux autres éminents chercheurs.
    Grâce à cette vision précoce et aux liens durables que nous avons établis, l'ICRA a été invité, en 2017, à diriger la Stratégie pancanadienne en matière d'intelligence artificielle. Nous continuons à travailler avec de nombreux partenaires d'un bout à l'autre du pays et de tous les secteurs en vue de bâtir un écosystème d'intelligence artificielle robuste et interconnecté autour des carrefours centraux que sont nos trois instituts nationaux d'intelligence artificielle, soit Amii, à Edmonton, Mila, à Montréal et l'Institut Vecteur, à Toronto. Plus de 140 000 personnes travaillent aujourd'hui dans le domaine hautement spécialisé de l'intelligence artificielle à l'échelle du pays.
    Cependant, si la Stratégie pancanadienne en matière d'intelligence artificielle a rempli sa promesse initiale de créer un vaste réservoir de talents et un écosystème solide dans le domaine de l'intelligence artificielle, le Canada n'a pas suivi en se dotant des approches appropriées en matière de réglementation et d'infrastructure. J'aimerais donc souligner trois priorités sur lesquelles devraient se concentrer les travaux du Comité et les efforts en cours.
    La première est la rapidité. Nous ne pouvons pas retarder davantage les travaux liés à la réglementation en matière d'intelligence artificielle. Le Canada doit agir rapidement pour faire avancer ses organismes et ses processus de réglementation et pour travailler en collaboration, à l'échelle internationale, afin de s'assurer que le cadre canadien de l'intelligence artificielle responsable est établi en coordination avec ceux de nos partenaires. Nous devons également comprendre que la réglementation ne freinera pas l'innovation, mais qu'elle la renforcera, car elle favorisera une plus grande stabilité et garantira l'interopérabilité et la compétitivité des produits et des services d'intelligence artificielle dirigés par des Canadiens sur la scène mondiale.
    Deuxièmement, il faut faire preuve de souplesse. L'approche choisie doit pouvoir être adaptée à une technologie et à un contexte mondial qui évoluent constamment. Les enjeux sont considérables, car l'intelligence artificielle peut être intégrée dans pratiquement tous les types d'entreprises et de services. Ces effets peuvent avoir une incidence importante, comme le reflète la Loi sur l’intelligence artificielle et les données. Cela signifie que nous devons adopter une approche inclusive pour ces travaux dans tous les secteurs tout en nous assurant de mobiliser les citoyens pour garantir leur soutien, et ce, tout au long de l'élaboration et du perfectionnement de ces règlements.
    Nous devons également comprendre que l'intelligence artificielle n'est pas limitée aux frontières. C'est la raison pour laquelle nous devons disposer de systèmes qui nous permettent de suivre le contexte mondial et de nous y adapter. Nous devons également nous adapter aux progrès et aux utilisations et capacités potentiellement non prévues de cette technologie. C'est dans ce domaine que la collaboration avec nos partenaires mondiaux continuera d'être essentielle et qu'elle fera appel aux forces de la communauté scientifique canadienne, non seulement en ce qui concerne l'évolution de la sécurité en matière d'intelligence artificielle, mais aussi les cadres éthiques et juridiques qui doivent orienter les activités dans ce domaine.
    Troisièmement, le Canada doit faire des investissements importants dans l'infrastructure, les systèmes et le personnel qualifié pour réglementer efficacement l'intelligence artificielle lorsqu'elle est utilisée dans des systèmes à incidence élevée. Nous sommes heureux de constater que cette notion a été définie dans les amendements apportés au projet de loi.
    Tout comme ceux des États-Unis et du Royaume-Uni, nos gouvernements doivent se doter de l'expertise nécessaire pour comprendre cette technologie et son incidence.
    Pour que le Canada demeure un chef de file dans la promotion de l'intelligence artificielle responsable, les entreprises et les institutions du secteur public du Canada doivent également avoir accès au financement et la puissance informatique dont elles ont besoin pour demeurer à la fine pointe de la technologie de l'intelligence artificielle. Là encore, les États-Unis, le Royaume-Uni et d'autres pays du G7 ont une longueur d'avance sur nous, car ils se sont déjà engagés à investir massivement dans l'infrastructure informatique pour soutenir leurs écosystèmes d'intelligence artificielle. Le Canada doit maintenant leur emboîter le pas.
    Je ne prétendrai pas que ce travail ne nécessitera pas d'énormes ressources, car ce sera le cas. Cependant, nous nous trouvons à un tournant de l'évolution de l'intelligence artificielle, et si nous parvenons à prendre des règlements adéquats, le Canada et le monde entier pourront profiter de son immense potentiel.
    En conclusion, le Canada dispose d'atouts considérables grâce à l'excellence de sa recherche, à son bassin de talents considérable et à son écosystème riche et interconnecté. Nous devons toutefois agir dès maintenant et agir de manière intelligente et résolue. La mise en œuvre d'un cadre de réglementation, d'une infrastructure et de systèmes adéquats sera essentielle pour permettre au Canada de continuer à s'imposer comme un chef de file mondial en matière d'intelligence artificielle.
    J'ai hâte de répondre aux questions du Comité et d'entendre les commentaires des autres témoins.
    Je vous remercie.

  (1120)  

[Français]

    Merci beaucoup.
    Monsieur Bengio, vous avez maintenant la parole.
    Bonjour à tous.
     D'abord, merci de m'avoir invité à rencontrer les membres du Comité aujourd'hui.
    Mon nom est Yoshua Bengio et je suis professeur titulaire à l'Université de Montréal, ainsi que le fondateur et le directeur scientifique de Mila, institut québécois d'intelligence artificielle. De plus, je suis récemment devenu l'informaticien le plus cité au monde, un fait intéressant.

[Traduction]

    Au cours de la dernière année, j'ai eu le privilège de partager mon point de vue sur l'intelligence artificielle dans un certain nombre de forums internationaux importants, notamment le Sénat américain, le premier sommet mondial sur la sécurité en matière d'intelligence artificielle, un conseil consultatif du secrétaire général des Nations unies, et le Frontier AI Taskforce du Royaume-Uni — un groupe de travail sur l'intelligence artificielle —, en plus du travail que j'accomplis ici, au Canada, à titre de coprésident du comité consultatif sur l'intelligence artificielle pour le gouvernement.
    Ces dernières années, le rythme des progrès en matière d'intelligence artificielle s'est accéléré de telle sorte que de nombreux chefs de file dans le domaine de l'intelligence artificielle et moi-même avons revu à la baisse nos estimations au sujet du moment où les niveaux humains de compétence cognitive générale, également connue sous le nom d'intelligence artificielle générale, ou IAG, seront atteints. Autrement dit, il s'agit du moment où nous aurons des machines aussi intelligentes que les humains sur le plan cognitif.
    Auparavant, on pensait que cela n'arriverait que dans plusieurs décennies, voire plusieurs siècles. Comme un grand nombre de mes collègues, notamment Geoff Hinton, j'estime aujourd'hui qu'une intelligence artificielle surhumaine pourrait être mise au point au cours des deux prochaines décennies, voire au cours des prochaines années.
    Il faut cependant admettre que les fondements ne sont pas encore prêts, et que cette perspective est extrêmement inquiétante.

[Français]

    Cette perspective d'une arrivée hâtive d'une intelligence artificielle de niveau humain m'inquiète beaucoup.

[Traduction]

    Comme il a été souligné dans le cadre des forums internationaux que j'ai mentionnés plus tôt, en l'absence de mesures de protection adéquates, la trajectoire actuelle de l'intelligence artificielle présente de sérieux risques de préjudices considérables pour la société, et ce, avant même que l'intelligence artificielle générale ne soit atteinte.
    Il est à noter que les progrès réalisés dans le domaine de l'intelligence artificielle ont créé des possibilités passionnantes pour de nombreuses applications avantageuses qui me motivent depuis de nombreuses années, mais il est urgent d'établir les mesures de protection nécessaires pour encourager l'innovation tout en atténuant les risques et les préjudices.
    Dans cette optique, il faut de toute urgence adopter des lois en matière d'intelligence artificielle qui ont une grande capacité d'adaptation. Je pense que le projet de loi va dans ce sens et qu'il va dans la bonne direction, mais des exigences initiales doivent être mises en place avant même que les consultations ne soient terminées pour élaborer un cadre réglementaire plus complet. Dans le cadre de l'approche actuelle, il faudrait environ deux ans avant que la loi puisse être appliquée.

[Français]

    Je soutiens donc largement le projet de loi et je formule des recommandations à ce comité sur les moyens de renforcer sa capacité à protéger les Canadiens. Elles sont présentées en détail dans le document que j'ai envoyé, mais j'aimerais souligner trois éléments.
    Le premier élément est l'urgence d'agir.

[Traduction]

    Les progrès à venir risquent de provoquer de nombreuses perturbations et on ne peut pas prévoir quand cela se produira. Dans ces circonstances, une loi imparfaite dont la réglementation pourrait être adoptée ultérieurement vaut mieux que l'absence de loi ou le report prolongé de l'adoption d'une loi. Il est préférable d'aller de l'avant avec le cadre de la LIAD et de s'appuyer sur des systèmes de réglementation souples qui peuvent être adaptés au fil de l'évolution de ces technologies.
    De plus, en raison de l'urgence de la situation, la loi devrait prévoir des dispositions initiales qui s'appliqueront dès son adoption, afin d'assurer la protection du public pendant l'élaboration d'un cadre de réglementation.
    Quelle devrait être la première étape? La création d'un registre.
    Les systèmes qui dépassent un certain niveau de capacité devraient être signalés au gouvernement et on devrait fournir des renseignements sur leurs mesures de sécurité et de sûreté, ainsi que des évaluations de la sécurité. Un organisme de réglementation sera ensuite en mesure d'utiliser ces renseignements pour formuler les meilleures exigences applicables aux futurs permis pour poursuivre la mise au point et le déploiement de ces systèmes avancés. Ainsi, ce seront les exploitants qui disposent des milliards de dollars nécessaires la construction de ces systèmes avancés, et non les contribuables, qui devront démontrer la sécurité de ces systèmes.
    Deuxièmement, le projet de loi devrait également placer les risques pour la sécurité nationale et les menaces à la société dans les catégories à incidence élevée. Parmi les exemples de capacités susceptibles de causer des préjudices, citons le fait d'être facilement transformable pour aider des acteurs malveillants à concevoir des cyberattaques et des armes dangereuses, à tromper et à manipuler aussi efficacement ou mieux que les humains et à trouver des moyens de se reproduire en dépit des instructions de programmation contraires.
    Mon dernier point concerne la nécessité d'établir des exigences préalables au déploiement. Les développeurs devraient être tenus d'enregistrer leur système et de démontrer qu'il est sécuritaire avant même que le système ne soit entièrement formé et mis au point, et avant son déploiement. Nous devons traiter et cibler les risques qui ont émergé plus tôt dans le cycle de vie de l'intelligence artificielle, mais le projet de loi actuel ne semble pas faire cela.

  (1125)  

[Français]

     Pour conclure, j'accueillerai avec intérêt les questions du Comité, ainsi que les commentaires de mes collègues témoins. D'ailleurs, je suis intéressé par tout ce qui a été dit jusqu'à présent par ces derniers.
    Je veux d'ores et déjà vous remercier de la tenue de cette importante discussion.

[Traduction]

    Je vous remercie beaucoup.
    Nous allons maintenant lancer la discussion. Je cède donc la parole à M. Perkins. Il a six minutes.
    Je vous remercie, monsieur le président.
    Je remercie les témoins de leur participation à ce projet de loi très important et de leurs déclarations préliminaires très intéressantes.
    À l'origine, le projet de loi proposait d'adopter des lois et des règlements visant uniquement ce qu'on appelait les systèmes à incidence élevée, une notion qui ne serait pas définie dans la loi, mais qui le serait dans un règlement à une date ultérieure.
     Préférez-vous qu'on vous appelle M. Bengio ou professeur Bengio?
    Les deux me conviennent.
    Monsieur Bengio, nous avons maintenant deux définitions supplémentaires dans les amendements proposés que le ministre, M. Champagne, a apportés au projet de loi. Ces amendements ajoutent, dans une annexe, une définition pour la notion d'incidence élevée. Ils ajoutent également une nouvelle catégorie, plus précisément celle de l'apprentissage automatique, et une troisième catégorie, celle de l'usage général. La notion d'usage général confère‑t‑elle une portée trop élargie à ce pouvoir?
    Il me semble que de nombreux éléments de l'intelligence artificielle qui seront mis à profit dans les entreprises seront des processus opérationnels qui ne seront pas liés à des individus, à Internet ou à ce genre de choses. Par exemple, une entreprise de ma circonscription tente d'apprendre à l'intelligence artificielle à faire la distinction entre un pétoncle et une mactre de l’Atlantique, ce qui, selon moi, n'a pas une incidence élevée. C'est peut-être important pour cette entreprise, mais au bout du compte, il s'agit simplement d'une question d'efficacité opérationnelle. Si j'ai bien compris, il s'agit et il s'agira d'un usage général.
    Le projet de loi va‑t‑il trop loin avec la disposition relative à l'usage général?
    Non. Je pense qu'il est très important que le projet de loi couvre les systèmes d'IA à usage général parce que ce sont eux qui pourraient être les plus dangereux s'ils étaient utilisés à mauvais escient. C'est là qu'il y a le plus d'incertitudes également quant aux préjudices que ces systèmes pourraient causer.
     De plus, à mon avis, le fait de disposer d'une loi qui stipule qu'une surveillance accrue des systèmes à usage général est nécessaire incitera les concepteurs à créer des systèmes spécialisés. En fait, pour la plupart des applications qui sont utilisées dans le domaine des affaires ou dans les milieux scientifique ou médical, nous voulons un système très spécialisé sur un type particulier de question qui nous importe. Jusqu'à tout récemment, il s'agissait des seuls types de systèmes d'IA que nous savions élaborer. Les systèmes à usage général, comme les grands modèles de langage, peuvent être spécialisés et transformés en des systèmes qui ne contiennent pas toute l'information sur le monde et qui se limitent à des connaissances sur certaines questions en particulier, ce qui les rend beaucoup plus inoffensifs.
    Merci.
    Monsieur Cofone, j'ai une question qui porte sur ce que vous avez dit au sujet des groupes et des préjudices.
     Au tout début de l'étude du projet de loi, certains témoins, dont Jim Balsillie, ont parlé du fait que le projet de loi ne traite pas des préjudices causés à des groupes et des risques d'atteinte à la vie privée pour des groupes en ce qui a trait à l'intelligence artificielle. Pourriez-vous en dire plus sur ce point? Que devrait‑on ajouter selon vous?
    Vous avez parlé du paragraphe 5(1) de la Loi sur l'intelligence artificielle et les données. Pouvez-vous nous en dire un peu plus sur ce que vous aviez en tête?
    Bien sûr. La directive sur la prise de décision automatisée reconnaît de manière explicite que des préjudices peuvent être causés à des individus ou à des collectivités. Or, dans la définition du terme « préjudice » qui figure au paragraphe 5(1) proposé, il est question à plusieurs reprises d'individus, soit de dommages à des biens et de préjudices économiques, physiques et psychologiques subis par un individu.
     Le fait est que dans le contexte de la Loi sur l'intelligence artificielle et les données, souvent, les préjudices subis sont, de par leur nature, diffus. Souvent, on parle de préjudices causés à des groupes et non à des individus. Pour en avoir un bon exemple, il suffit de penser à la partialité de l'IA, qui est couverte par le paragraphe 5(2) proposé, et non par le paragraphe 5(1). Si l'on se sert d'un système automatisé pour embaucher du personnel, par exemple, et qu'il donne des résultats biaisés, il est très difficile de savoir si une personne a obtenu ou non l'emploi en raison de la partialité du système. Il est plus facile de voir que le système a un parti pris pour un groupe particulier.
     Il en va de même pour les questions de représentation dans l'IA. Il serait difficile pour un individu de prouver qu'il a subi un préjudice en vertu de la loi, mais le préjudice est bien réel pour un groupe particulier. C'est la même chose pour la mésinformation. C'est la même chose pour certains types de discrimination systémique qui ne sont peut-être pas pris en compte dans la définition actuelle de la partialité dans la loi.
     Ce qui me préoccupe, c'est qu'en réglementant une technologie qui est plus susceptible de toucher des groupes que des individus avec une définition de « préjudice » qui cible les individus, nous risquons d'exclure l'essentiel de ce que nous voulons couvrir.

  (1130)  

     J'ai bien hâte de recevoir votre proposition d'amendement à ce sujet et d'y jeter un coup d'œil. Merci.
    Merci.
    Ma question s'adresse à tous les témoins. Peut-être que Mme Strome pourrait y répondre en premier.
    Nous avons beaucoup parlé de ce qu'a affirmé M. Bengio, soit qu'il vaut mieux adopter un projet de loi imparfait que de ne pas adopter de projet de loi. À cet égard, deux problèmes se posent pour les parlementaires.
     Premièrement, je n'aime jamais adopter un projet de loi imparfait, surtout s'il est aussi important que celui‑ci. Je ne pense pas qu'il soit utile de dire en quelque sorte que nous sommes les meilleurs parce que nous avons adopté notre premier projet de loi. Le Parlement fonctionne de telle sorte que nous devons attendre 5 à 10 ans avant d'être à nouveau saisis d'un projet de loi.
    Je n'aime pas non plus que l'on donne un chèque en blanc au ministère et qu'il n'ait essentiellement pas à revenir devant le Parlement au sujet d'un cadre général de politique publique quant à la manière d'encadrer le tout. Le projet de loi en est dépourvu. Il n'y est question que des détails sur les systèmes d'apprentissage automatique et à usage général à incidence élevée. On n'y traite pas de l'ensemble, comme le fait la Loi canadienne sur la santé en désignant cinq principes.
     Quels sont les cinq principes de l'IA, comme la transparence et ce genre de choses? Le projet de loi n'en fait pas mention et il régit l'IA dans son ensemble. Je pense que ce sera un problème pour la suite des choses. Je vois également un problème à donner à la bureaucratie, tout en maintenant une certaine latitude, le plein contrôle de la suite des choses sans qu'il soit nécessaire de demander l'approbation du Parlement.
     J'aimerais que tous les témoins nous disent quels sont les cinq, quatre ou trois éléments qui constituent des principes importants concernant la façon dont nous devrions gérer l'IA au Canada, que ce projet de loi ne semble pas définir.
    Je pose la question à Mme Strome, puis nous poursuivrons.
    Je veux m'assurer que j'ai bien compris. Est‑ce que vous nous demandez de parler plus précisément d'aspects au sujet desquels le projet de loi ne prévoit rien?
    Non. Il s'agit en quelque sorte de l'idée selon laquelle l'IA, quelle qu'elle soit, doit être transparente dans toute interaction avec un utilisateur.
    Quels sont les types de principes similaires, au‑delà de la question de savoir s'il s'agit de systèmes à usage général ou d'apprentissage automatique à incidence élevée, qui devraient régir tout cela dans la loi et que le projet de loi n'établit pas?
    Absolument.
     Il existe un vaste consensus à l'échelle internationale sur ce qui constitue une IA sûre et fiable. Qu'il s'agisse des principes de l'OCDE ou de la Déclaration de Montréal, de nombreuses organisations s'entendent sur ce qu'est l'IA responsable.
     Parmi ces principes, l'équité est une préoccupation majeure. Elle permet de s'assurer que l'IA fournit des recommandations en traitant les gens de manière juste et équitable, sans discrimination ni parti pris.
    Un autre principe est la responsabilité. Il s'agit de s'assurer que les systèmes d'IA et les concepteurs de systèmes d'IA sont responsables quant aux répercussions des technologies qu'ils développent.
     La transparence est l'un des principes et vous l'avez mentionné. Elle garantit que nous avons la possibilité de sonder les systèmes et les modèles d'IA et de mieux comprendre comment ils parviennent aux décisions et aux recommandations qu'ils élaborent.
     La protection de la vie privée est un principe indissociable du projet de loi dont vous êtes saisis aujourd'hui. Ce sont des questions qui sont aussi étroitement liées à l'IA pour garantir que les principes et les droits fondamentaux relatifs à la vie privée sont également protégés.

  (1135)  

    Merci beaucoup, madame Strome.
    Monsieur Perkins, j'espère qu'un autre député continuera sur votre lancée. Nous avons largement dépassé le temps imparti.
    Monsieur Turnbull, vous avez la parole.
    Merci, monsieur le président.
     Je remercie tous les témoins de leur présence aujourd'hui. Il semble que les témoignages que nous recevons sont très importants. Je vous remercie donc de prendre le temps de participer à la réunion. Merci de nous faire profiter de votre expertise dans le cadre de nos discussions importantes.
    Je pense que nous avons tous entendu l'expression selon laquelle la perfection peut être l'ennemi du bien. Je me demande si c'est le cas ici.
    Le domaine de l'intelligence artificielle évolue très rapidement et nous disposons d'une grande expertise ici, au Canada, mais les opinions des uns et des autres divergent. Certains disent que nous devrions scinder le projet de loi et refaire la partie qui porte sur la Loi sur l'intelligence artificielle et les données. D'autres disent qu'il faut aller de l'avant. Dans bon nombre des déclarations préliminaires que j'ai entendues aujourd'hui, on a indiqué qu'il y avait urgence d'agir.
     Monsieur Bengio, vous pourriez peut-être nous dire si, à votre avis, nous devrions reprendre du début le processus lié à la Loi sur l'intelligence artificielle et les données et peut-être nous parler de l'importance d'agir rapidement.
     Oui, dans mon court exposé, j'ai parlé d'urgence à plusieurs reprises parce qu'il faut voir l'intelligence artificielle non pas comme une chose statique, actuelle, mais comme la trajectoire qui est suivie en recherche et développement, principalement dans les grandes entreprises, mais aussi dans le monde universitaire. À mesure que les systèmes deviennent plus intelligents et plus puissants, on parle de capacités à double usage, ce qui signifie qu'il peut y avoir plus de bienfaits et plus de préjudices. C'est contre les préjudices que les gouvernements doivent nous protéger.
    Notamment, pour revenir à la question de M. Perkins, nous devons nous assurer que l'un des principes, c'est que les produits qui sont considérés comme étant légaux et qui sont conformes à la loi n'entraînent pas facilement des préjudices importants, comme une menace à la sécurité nationale. C'est pourquoi la catégorie à incidence élevée et peut-être les différentes façons dont cela pourrait être défini sont si importantes.
    Merci.
    Je vais continuer avec vous pour l'instant, monsieur Bengio. J'aimerais vous demander également quels sont les risques auxquels les Canadiens sont exposés si l'on ne réglemente pas l'IA le plus tôt possible. Vous avez mentionné qu'il peut y avoir plus de bienfaits et de préjudices, mais en l'absence d'un règlement et d'une loi, quels sont les préjudices possibles à votre avis?
    Peut-être que le problème à court terme qui constituait une priorité, par exemple, pour les spécialistes qui ont été consultés par le Forum économique mondial il y a quelques semaines, c'est la désinformation. Par exemple, on a recours actuellement à l'hypertrucage pour reproduire des images de personnes en imitant leurs voix et en simulant leurs mouvements dans une vidéo et en interagissant avec des gens au moyen de messages textes et de dialogues d'une manière qui peut tromper un utilisateur de médias sociaux et le faire changer d'avis sur des questions politiques.
     L'utilisation de l'intelligence artificielle à des fins politiques allant à l'encontre des principes de notre démocratie suscite de réelles inquiétudes. C'est une préoccupation à court terme.
    Je dirais que le problème qui vient ensuite, et on parle peut-être d'un an ou de deux ans plus tard, est la menace que pose l'utilisation des systèmes d'IA avancés pour mener des cyberattaques. Sur le plan de la programmation, beaucoup de progrès ont été réalisés ces dernières années dans ces systèmes et on s'attend à ce que cela se poursuive à un rythme même plus rapide que pour toute autre capacité, parce que nous pouvons générer une quantité infinie de données, tout comme dans le jeu Go. Lorsque ces systèmes deviendront suffisamment puissants pour vaincre nos cyberdéfenses actuelles et notre infrastructure numérique industrielle, nous aurons des problèmes, en particulier si ces systèmes se retrouvent entre de mauvaises mains. Nous devons sécuriser ces systèmes. Dans le décret de Biden, on insistait notamment sur l'idée que l'on doit sécuriser ces grands systèmes afin d'atténuer les risques.
     D'autres risques ont également été évoqués, comme le fait d'aider de mauvais acteurs à développer de nouvelles armes ou à disposer d'une expertise qu'ils n'auraient pas autrement. Tous ces éléments doivent faire l'objet d'une loi le plus rapidement possible afin de nous assurer que nous réduisons les risques au minimum.

  (1140)  

    Je vous remercie.
    Je voulais seulement mentionner quelque chose également. Vous n'êtes pas sans savoir que notre gouvernement a élaboré un code de conduite volontaire concernant les systèmes d'intelligence artificielle génératifs avancés. De quelle façon la Loi sur l'intelligence artificielle et les données s'appuie‑t‑elle sur le code volontaire? Considérez-vous que les deux mesures sont complémentaires, l'élaboration du code volontaire ayant précédé le dépôt du projet de loi, et le projet de loi contribuant à la mission de garantir que nous disposons d'un cadre réglementaire qui offre un certain degré de certitude?
    Pouvez-vous en parler, monsieur Bengio?
    Absolument. Vous avez parfaitement raison.
     Les codes volontaires sont utiles pour démarrer rapidement, mais rien ne garantit que les entreprises respecteront le code. De plus, le code volontaire est très vague. Les critères qui définissent ce qui est acceptable et ce qui ne l'est pas doivent être plus précis. Je pense que c'est nécessaire pour les entreprises.
     Nous avons vu qu'aux États-Unis, certaines entreprises ont même déclaré publiquement qu'elles ne respecteraient pas le code volontaire de Biden. Nous n'avons donc pas le choix, à mon avis. Nous devons veiller à ce qu'il y ait des règles du jeu équitables. Sinon, nous donnons un avantage aux entreprises qui ne respectent pas le code volontaire. Pour elles, cela signifie moins de dépenses [difficultés techniques]. Il faut vraiment qu'il y ait des règlements en place et [difficultés techniques].
    Merci. Je pense que j'ai compris la dernière partie. Il y a eu une interruption.
    Mon temps est‑il écoulé, monsieur le président?
    Le président: Oui.
    M. Ryan Turnbull: Merci beaucoup.
    Merci, monsieur Turnbull.

[Français]

     Monsieur Garon, la parole est à vous.
    Merci, monsieur le président.
    Je remercie les témoins de leur présence.
    Professeur Bengio, vous avez parlé des risques imminents que la désinformation entraîne sur le plan de la démocratie. Aujourd'hui, les hypertrucages circulent de plus en plus, et vous comparaissez par vidéoconférence. Selon le cadre réglementaire actuel, qu'est-ce qui me garantit que c'est bien vous qui participez à notre réunion?
    C'est une bonne question.
    C'est justement pour éviter ce genre de choses qu'il faut des règles. Par exemple, il faut que les systèmes informatiques, comme Zoom et les plateformes de médias sociaux, indiquent clairement si du contenu vidéo, audio ou texte est généré par ordinateur, donc probablement par intelligence artificielle, ou si cela provient réellement d'un être humain. C'est le genre de choses pour lesquelles on a besoin d'une loi pour protéger le public.
    Il faut aussi donner des incitatifs aux compagnies, afin qu'elles développent la technologie et qu'on en arrive à mieux faire la distinction entre ce qui est faux et ce qui est vrai.
    Récemment, il y a eu des cas de fraude. En effet, grand-papa ou grand-maman, par exemple, s'est fait arnaquer par une voix qui était imitée par un système d'intelligence artificielle. Je vous demande de m'excuser, car je ne connais pas le vocabulaire exact. Ce que vous dites, c'est que, selon le cadre réglementaire actuel, les compagnies n'ont ni l'obligation ni l'incitatif — puisqu'un coût est lié à cela — de déterminer ce qui est faux.
    L'actuel projet de loi C‑27 permet-il de corriger cela? Contient-il tout ce qu'il faut ou devra-t-il être bonifié?
    Je pense que certains éléments du projet de loi peuvent être bonifiés, mais ma collègue Mme Régis peut sans doute répondre à la question mieux que moi.
    Si j'ai bien compris, dans les modifications récemment proposées par le ministre, il y a un souci de déterminer au bénéfice du public quelle information a été produite par l'intelligence artificielle. Je pense qu'il s'agit justement d'un élément important pour éviter la confusion et un grand climat de méfiance dans la société. Il faut assurément suivre cette piste législative.
    Merci, madame Régis.
     Professeur Bengio, dans votre allocution d'ouverture, vous avez parlé de dispositions qui pourraient être appliquées immédiatement, vu l'urgence de la situation. Vous avez parlé de quelque chose qui ressemblerait à un registre des grands modèles génératifs, qui serait déposé au gouvernement et qui comprendrait une analyse de sécurité.
    Ce que vous dites, essentiellement, c'est qu'on devrait procéder de la même façon que pour les médicaments: avant de mettre un produit sur le marché, on doit démontrer que celui-ci est sécuritaire et que les avantages sont plus importants que les inconvénients.
    Êtes-vous en train de dire que les modèles d'intelligence artificielle soulèvent un problème comparable à un défi de santé publique et que cela justifie le dépôt de preuves substantielles auprès d'une agence gouvernementale?

  (1145)  

    C'est le cas, oui. En fait, on fait déjà cela dans plusieurs secteurs de notre société, pas seulement dans le cas des médicaments. En effet, lorsqu'on construit un pont, qu'on assemble un train ou qu'on développe une nouvelle manière de traiter la viande, il faut protéger le public pour éviter ce genre de dérapage: les compagnies doivent montrer patte blanche et doivent prouver que leurs produits ne vont pas créer de nuisance.
    Or, jusqu'à présent, l'informatique a échappé à tout cela parce qu'on pensait qu'elle n'aurait pas de grands effets sur la société. Aujourd'hui, cependant, on arrive au point où l'informatique, particulièrement l'intelligence artificielle, va complètement transformer la société. Puisque transformer des choses peut être bon ou mauvais, on a besoin d'un encadrement.
    Professeur Bengio, ma prochaine question s'adresse à vous, mais aussi à la professeure Régis.
    On nous a parfois dit que l'industrie serait capable de se réglementer. On nous a aussi dit que l'approche volontaire pourrait fonctionner. Personnellement, j'ai peu tendance à avoir confiance en ce type d'approche. Que pensez-vous de la capacité d'une industrie à se réglementer?
     Je vais vous suggérer un début de réponse. L'autoréglementation n'est-elle pas un incitatif à voir ce que j'appellerais un passager clandestin profiter du fait que les autres pratiquent l'autoréglementation pour tirer bénéfice du fait de ne pas le faire?
    Que pensez-vous de cette approche volontaire?
     Comme j'en ai parlé tantôt en réponse à d'autres questions, je pense que l'autoréglementation peut être une bonne étape intermédiaire, parce qu'elle peut être mise en place rapidement, et que les compagnies peuvent se concerter pour essayer d'établir certaines normes. Ce sont donc les côtés positifs de l'autoréglementation.
    Par contre, il va y avoir de mauvais joueurs, et aussi un certain incitatif à couper les coins ronds, si nous n'avons pas de règles obligatoires et qui sont les mêmes pour tout le monde.
    Professeure Régis, est-ce que le Canada est un assez gros joueur pour correctement réglementer? Les Canadiens ont tendance à penser que le Canada est un important pays du G7, mais, en réalité, son économie est relativement petite. Sommes-nous assez puissants pour avoir de l'influence?
    Il y a la question de l'influence, mais permettez-moi de revenir brièvement sur la question de l'autoréglementation, que je trouve importante. Je vous dirais que l'autoréglementation n'est manifestement pas suffisante. De plus, je pense qu'il y a un consensus assez fort à l'échelle internationale sur le fait qu'il n'est pas suffisant de permettre uniquement l'autoréglementation. Par conséquent, les cadres législatifs ont un rôle à jouer: ils imposent des obligations et demandent aux entreprises de formellement rendre des comptes.
    Cela dit, il faut savoir que le projet de loi C‑27, dont nous parlons aujourd'hui, fait partie d'un ensemble d'outils importants développés pour s'assurer d'une intelligence artificielle responsable. Il n'est donc pas la seule solution. Le droit est important, mais il va aussi y avoir des normes éthiques, qui sont très agiles. Il va aussi y avoir l'intelligence artificielle technique défensive, qui opposera l'intelligence artificielle à l'intelligence artificielle. Des normes internationales et des normes d'entreprise seront établies. C'est vraiment une stratégie complète qu'il faut concevoir. Nous ne réglerons pas tout avec ce projet de loi, mais il est essentiel. Voilà donc la réponse à votre première question.
    Veuillez me rappeler votre deuxième question, je suis désolée.
    Est-ce que le Canada peut avoir un pouvoir d'influence important, étant donné la taille de son économie et l'espace qu'il occupe dans le monde de l'intelligence artificielle?
    Le Canada n'a évidemment pas la même influence que la Chine ou les États‑Unis dans le développement de l'intelligence artificielle, mais il demeure quand même un acteur important pour plusieurs raisons. Premièrement, il dispose d'une capacité de recherche qui est réellement reconnue. Le Canada a participé à différentes initiatives, dont la création du Partenariat mondial sur l'intelligence artificielle. Tout cela en fait un acteur qui veut se positionner, et qui a une voix encore importante à faire entendre dans ce secteur.
    En revanche, s'il ne veut pas perdre du terrain, il faut qu'il soit cohérent avec sa vision et ses valeurs, et qu'il adopte des mesures très claires à l'échelle canadienne, pour être un acteur vraiment crédible à cette échelle.
    Merci beaucoup, madame Régis.
    Monsieur Masse, la parole est à vous.

[Traduction]

    Merci, monsieur le président.
    Je remercie les témoins.
     Il y a deux ou trois choses qui, dans le passé, au sein de ce comité, ont été instructives par rapport à la situation dans laquelle nous sommes actuellement et au code volontaire. Tout d'abord, il était autrefois légal pour les entreprises au Canada de déduire des amendes et des pénalités relatives à la protection de l'environnement ou du consommateur qui leur étaient imposées. Elles bénéficiaient d'une déduction fiscale pouvant représenter jusqu'à 50 % des amendes et des pénalités. Des entreprises pharmaceutiques se sont vu imposer des amendes pour avoir trompé les gens et des entreprises environnementales se sont vu imposer des amendes pour avoir fait ce qu'il ne fallait pas faire — en fait, il ne s'agissait pas d'entreprises environnementales, mais de cas où des dommages avaient été causés à l'environnement.
    On s'est retrouvé avec cette distorsion, cette situation qui incitait les entreprises à adopter des pratiques qui nuisent aux personnes et à l'environnement parce que c'était payant pour elles. Cette situation a créé un déséquilibre au chapitre de l'innovation, entre autres choses.
    L'autre chose concerne le travail que j'ai fait au sujet de la question du droit de réparer, qui a été étudiée par ce comité et par le Sénat. Puis, nous avons fini par aboutir à un accord volontaire dans le secteur automobile. En gros, nous avons dit que nous avions réussi un placement plutôt qu'un touché. Cette question est à nouveau d'actualité, car certains acteurs de l'industrie se conformeront à l'accord volontaire et d'autres ne le feront pas. Certains ne voulaient même pas adhérer à l'accord volontaire, y compris Tesla, jusqu'à récemment. Il y a encore des problèmes majeurs et ils sont de retour sur la Colline pour faire du lobbying. Nous savions ce qu'il en était quant à la vulnérabilité il y a 10 ans, lorsque nous avons commencé le processus; nous savions qu'avec l'électronique et le partage d'informations et de données, les choses changeaient à nouveau, et il n'y avait rien.
    Ma question s'adresse à Mme Strome, à Mme Régis et à M. Bengio.
     Avec cet accord volontaire, avons-nous peut-être créé un système dans lequel les bons acteurs viendront à la table et se conformeront à un accord volontaire alors que les mauvais acteurs pourraient, en fait, s'en servir comme une occasion de développer leurs plans d'affaires et d'éliminer la concurrence? J'ai vu une telle chose se produire dans les deux exemples que j'ai donnés.
     J'aimerais que vous commenciez, madame Strome, car je ne vous ai pas encore entendue. Par la suite, Mme Régis et M. Bengio pourraient répondre, dans cet ordre si possible, s'il vous plaît.

  (1150)  

    Je pense en fait que le code volontaire a été une première étape importante et cruciale vers la réglementation du secteur. C'était une façon d'avancer, et c'était aussi une façon de lancer la conversation et la communication sur la nécessité d'adopter des pratiques, des méthodologies et des approches responsables en matière d'IA à mesure que nous innovons dans ce secteur. C'était une première étape très importante, mais elle ne peut pas être la dernière.
    Comme vous l'avez dit et comme d'autres l'ont reconnu, le respect des codes de conduite et de la réglementation volontaires est effectivement facultatif. Nous avons besoin de règles, de réglementation et de lignes directrices beaucoup plus contraignantes et claires sur les attentes pour ce qui est de la mise au point, du déploiement et de la surveillance de la technologie, ainsi que de l'évaluation des éventuelles conséquences, afin que nous puissions les comprendre.
    Merci.
    Allez‑y, madame Régis.
    Je pense que cela revient à mon point précédent. Mme Strome a été formelle: ce n'est manifestement pas suffisant, et je suis d'accord. Il existe des façons de se soustraire aux normes volontaires. Je suis professeure de droit, alors pour moi, il est logique d'avoir une réglementation contraignante dans ce domaine, d'autant plus qu'il y a beaucoup d'enjeux liés aux rapports de force et aux intérêts économiques.
    Ce qui me plaît dans le projet de loi proposé, c'est l'accent mis sur des mesures ex ante. C'est très important. Nous avons parlé des conséquences pour les Canadiens si un incident se produisait. N'attendons pas une accumulation de conséquences et assurons-nous d'obliger les acteurs à prendre des mesures ex ante, afin qu'ils fassent preuve de diligence raisonnable avant de lancer quoi que ce soit d'important sur le marché. Nous veillerons à la transparence et à la mise en place de mécanismes de reddition de comptes pour éviter ces conséquences. Le cadre sera obligatoire.
    Merci.
    Allez‑y, monsieur Bengio.
    Je suis tout à fait d'accord avec tout ce que mes collègues ont dit. J'ajouterai simplement la nécessité de règles du jeu équitables.
    Si vous avez des sociétés qui veulent bien agir et qu'il n'y a pas de réglementation contraignante, elles sont alors obligées de s'abaisser au niveau du moins performant. Or, ce que nous voulons, c'est le contraire: nous voulons que les sociétés se surpassent. Sans réglementation, on se retrouve dans une course vers le fond, c'est‑à‑dire les organisations les moins responsables finissent par gagner.
    Merci.
    Avant de passer à M. Cofone, j'aimerais faire un constat: le problème, c'est que nous avons déjà ce code volontaire. Il y a les actions et les délibérations des sociétés qui prennent des décisions actuellement, certaines dans un sens et d'autres dans un autre, et elles continueront jusqu'à ce qu'elles soient assujetties à des pouvoirs de réglementation. Je pense qu'il est trop tard, dans une certaine mesure, pour savoir où cela peut nous mener. Nous nous retrouvons avec ce projet de loi et toutes les lacunes qu'il comporte sur de nombreuses questions différentes.
    J'ai rencontré l'ACTRA, la guilde des acteurs. Bon nombre des doléances des acteurs relativement à l'IA doivent être réglées au moyen de la Loi sur le droit d'auteur, et c'est un défi. M. Cofone pourra peut-être en parler un peu en raison de son expérience en matière de gouvernance. Cependant, si nous n'en tenons pas compte dans ce projet de loi, nous laissons en fait un vide béant ouvrant la voie à non seulement l'exploitation des acteurs — y compris des enfants — et à l'atteinte de leur bien-être, mais aussi à la manipulation du public sous tous ses aspects, de la société de consommation à la politique.
    Que devons-nous faire? Avez-vous des suggestions? Comment pouvons-nous combler les lacunes que nous ne sommes même pas...? C'est une loi à part entière.

  (1155)  

    Oui. Je pourrais peut-être ajouter rapidement quelque chose à votre question, mis à part le fait que je suis d'accord avec les trois réponses précédentes.
    Un environnement comme celui que vous avez mentionné en est un excellent exemple. Dans le passé, nous, les juristes spécialisés en droit de l'environnement, étions d'avis qu'il était difficile de réglementer, parce que nous pensions à tort que les coûts étaient locaux, alors que les préjudices étaient mondiaux. Nous pensions que le fait de ne pas réglementer permettait de développer l'industrie tout en évitant d'imposer des préjudices mondiaux.
    C'est la même chose avec l'intelligence artificielle. Nous pensons parfois que les préjudices sont mondiaux et que les coûts de la réglementation sont locaux, mais ce n'est pas le cas. Bon nombre des préjudices causés par l'intelligence artificielle se font ressentir à l'échelle locale. Il est donc urgent que le Canada adopte un règlement comme celui‑ci, qui protège ses citoyens tout en soutenant l'industrie.
    En ce qui concerne la Loi sur le droit d'auteur, c'est une question difficile. Comme M. Bengio l'a souligné un peu plus tôt, l'intelligence artificielle ne se résume pas à une technologie. Les technologies permettent de faire des choses — pensons aux voitures autonomes et aux caméras —, mais l'intelligence artificielle est une famille de méthodes qui permet de tout faire. La réglementation de l'intelligence artificielle ne consiste pas à changer une variable ou une autre; l'intelligence artificielle aura une incidence sur toute la législation. Il faudra procéder à une refonte en profondeur des lois.
    Ce dont il est question aujourd'hui, c'est un cadre de responsabilisation et une loi sur la protection des renseignements personnels, qui reflètent l'aspect le plus envahissant de l'intelligence artificielle. Je ne pense pas que nous devrions nourrir l'illusion que le projet de loi tiendra compte de tous les aspects de l'intelligence artificielle et de tous ses effets ni que nous devrions renoncer au projet de loi parce qu'il contient des lacunes. Ce n'est pas possible. Nous devrions envisager un cadre de responsabilisation pour tenir compte des préjudices et des préjugés, ainsi que des modifications relatives à la protection de la vie privée pour tenir compte de l'intelligence artificielle. Il serait éventuellement justifié de modifier la Loi sur le droit d'auteur pour tenir compte de l'intelligence artificielle génératrice et des nouveaux défis qu'elle pose en matière de droit d'auteur.
    Me reste‑t‑il du temps, monsieur le président?
    Allez‑y, monsieur Masse.
    D'accord.
    Je vous prie de me répondre succinctement, par un oui ou un non. Pensez-vous que ce serait une bonne ou une mauvaise idée s'il y avait un jour un comité mixte de la Chambre et du Sénat qui surveillerait régulièrement l'intelligence artificielle, comme c'est le cas pour la défense? Serait‑ce utile ou non? Si les deux chambres se réunissaient et surveillaient l'intelligence artificielle à l'avenir, leur travail engloberait les domaines des autres comités, plutôt que seulement le nôtre.
    Je sais qu'il est difficile de répondre par un oui ou un non, mais je n'ai pas beaucoup de temps.
    Pourrions-nous procéder dans l'ordre inverse? Merci.
    Oui.
    Oui.
    Je ne peux pas répondre. Je n'ai pas assez de connaissances juridiques.
    C'est bien votre droit. Ce n'est qu'une idée.
    Et vous, madame Strome?
    Je pense que ce serait utile.
    D'accord. Merci.
    Merci, monsieur le président.

[Français]

     Merci beaucoup.
    Monsieur Généreux, vous avez maintenant la parole.
    Je remercie tous les témoins. Les discussions d'aujourd'hui sont très intéressantes.
    Je ne m'adresse pas nécessairement à quelqu'un en particulier, mais plutôt à tous les témoins.
    Des individus mal intentionnés, qu'ils soient des terroristes, des arnaqueurs ou des voleurs, pourraient utiliser l'intelligence artificielle à mauvais escient. Je pense que c'est d'ailleurs l'une des préoccupations de M. Bengio. Si nous adoptions le projet de loi C‑27 demain matin, cela empêcherait-il de tels individus de le faire?
    Pour faire suite à la question de mon collègue du Bloc québécois tantôt, il me semble évident que, même dans le cas d'un message enregistré en vue d'arnaquer quelqu'un, l'arnaqueur ne précisera pas que son message a été conçu à l'aide de l'intelligence artificielle.
    Croyez-vous véritablement que le projet de loi C‑27 changera des choses ou sécurisera véritablement la population québécoise et canadienne quant à l'intelligence artificielle?

  (1200)  

    Je le crois, en effet. Ce qu'il va permettre, par exemple, c'est que la loi va obliger les compagnies canadiennes légitimes à protéger les systèmes d'intelligence artificielle qu'elles auront développés pour éviter qu'ils se tombent entre les mains de criminels. Cela n'empêchera évidemment pas ces criminels d'utiliser des systèmes conçus ailleurs, ce qui explique que nous devons travailler sur des traités internationaux.
    Il faut déjà collaborer avec notre voisin du Sud de façon à réduire au minimum ces risques. Ce que les Américains demandent aux compagnies aujourd'hui inclut cette protection. Je pense que, si nous voulons nous aligner sur les États‑Unis sur cette question pour éviter que des systèmes très puissants tombent entre de mauvaises mains, nous devrions prévoir au moins la même protection qu'eux et travailler à l'international pour l'élargir.
    En outre, le fait d'envoyer le signal que les usagers doivent pouvoir distinguer ce qui est de l'intelligence artificielle de ce qui n'en est pas va inciter les compagnies à trouver des solutions techniques. Par exemple, une des choses auxquelles je crois, c'est qu'il faudrait que ce soit les compagnies fabriquant le contenu des appareils photo et des enregistreurs qui cryptent une signature permettant de distinguer ce qui est généré par l'intelligence artificielle de ce qui ne l'est pas.
    Pour que les compagnies avancent dans cette direction, il faut que des lois leur disent qu'elles doivent aller dans cette direction autant que possible.
    Le projet de loi C‑27 permettra-t-il d'être assez aussi efficace que le décret présidentiel américain actuellement en vigueur, ou équivalent à ce dernier?
     Selon vous, les Américains adopteront-ils par la suite une loi qui ira plus loin que ce décret présidentiel en vigueur?
    Déjà, l'Union européenne a été beaucoup plus rapide que nous à adopter des mesures. Quel est le point de convergence entre le projet de loi C‑27 et le projet de loi qui est sur le point d'être adopté en Europe?
    Je vais laisser mes collègues répondre à certaines de ces questions. Toutefois, j'aimerais préciser une chose que j'ai proposée dans ce que j'ai dit et écrit. Il s'agit de fixer un critère lié à la taille des systèmes sur le plan de la puissance de calcul, le seuil actuel au-delà duquel il faudrait inscrire un système étant de 1026opérations par seconde. Ce critère serait le même qu'aux États‑Unis et cela nous amènerait au même niveau de surveillance que les Américains.
    Or, ce critère n'est pas prévu actuellement dans le projet de loi C‑27. Je propose donc que nous adoptions ce critère comme point de départ, mais que nous laissions ensuite l'organisme de réglementation tenir compte des avancées scientifiques et des mauvais usages pour adapter les critères définissant ce qui constitue un système potentiellement dangereux et à incidence élevée. Nous pouvons commencer tout de suite par la même chose qu'aux États‑Unis.
    En Europe, on a adopté à peu près le même système, basé lui aussi sur la puissance de calcul. Pour l'instant, il s'agit d'un critère simple qui fait consensus et que nous pouvons utiliser pour faire la distinction entre des systèmes potentiellement à risque qui se trouvent dans la catégorie à incidence élevée et des systèmes considérés à 99,9 % comme des systèmes d'intelligence artificielle sans risque pour la sécurité nationale.
     Madame Régis, j'aimerais entendre votre opinion sur l'équivalence de notre projet de loi avec la législation européenne.
    J'aimerais soulever quelques petits points. Une question a été posée à savoir si la loi canadienne sera suffisante. Premièrement, elle va certainement aider, mais elle ne suffira pas, compte tenu des autres ordres législatifs dont il faut tenir compte. En effet, les provinces ont un rôle à jouer à cet égard. D'ailleurs, en ce moment même, le Québec lance son rapport de recommandations sur l'encadrement de l'intelligence artificielle, intitulé « Prêt pour l'IA ». Le gouvernement du Québec a mandaté le Conseil de l'innovation du Québec pour proposer des pistes de réglementation. Il faut donc considérer que la loi canadienne fera partie d'un ensemble plus vaste d'initiatives qui vont aider à solidifier les garanties et à bien nous protéger.
    Concernant les États‑Unis, il est difficile de prévoir dans quelle direction ils se dirigeront pour la suite des choses. Toutefois, le décret présidentiel de M. Biden était un signal d'une ampleur à laquelle peu de gens s'attendaient. C'est une bonne initiative, donc, et ce dossier est à suivre.
    Votre question touche un peu au volet vraiment important de l'interopérabilité. Comment le Canada s'arrimera-t-il avec l'Union européenne, les États‑Unis et les autres?
    En ce qui a trait au cas européen, le texte final de la législation a été publié la semaine passée. Comme il a 300 pages, je n'ai pas tous les détails; cependant, je vous dirais qu'il faut certainement y penser pour ne pas pénaliser nos entreprises. Autrement dit, il faut vraiment savoir comment notre législation et les citoyens vont, jusqu'à un certain point, s'y arrimer.
     Par ailleurs, une des questions que je me pose d'emblée est la suivante. La législation européenne est plus axée sur les systèmes d'IA à haut risque et leur cadre juridique traite plus des risques, tandis que le nôtre parle plus des incidences. Comment les deux peuvent-ils vraiment s'arrimer? C'est une question à laquelle il faut réfléchir davantage.

  (1205)  

    Vous pourriez demander à ChatGPT de vous faire un résumé de ces 300 pages, si vous me permettez ce commentaire humoristique.
    Ce serait trop drôle.
    J'aimerais ajouter une petite chose. Le fait d'avoir une loi plutôt basée sur des principes nous protège contre les changements à venir et favorise l'harmonisation que nous aurons besoin de faire, parce que cela donne aux organismes de réglementation la possibilité d'adapter les détails importants de notre réglementation à ceux de nos partenaires.
    Merci beaucoup.
    Merci, monsieur Généreux.
    Monsieur Van Bynen, vous avez la parole.

[Traduction]

    Merci beaucoup, monsieur le président.
    Nous avons entendu un certain nombre de témoins qui nous ont présenté un très large éventail de points de vue, dont certains qui nous ont dit de mettre le projet de loi à la poubelle et de tout recommencer. En même temps, nous avons aussi entendu dire qu'il est trop tard. C'est quasiment le far west dans le secteur.
    Ma question s'adresse à Mme Strome. En novembre 2023, le CIFAR a publié Réflexions sur l'IA du CIFAR : Transformation de la réglementation à l'ère de l'IA. Le résumé du rapport prévient que les efforts actuels visant à réglementer l'IA sont voués à l'échec si on ne tient pas compte de l'aspect crucial de l'incidence transformatrice de l'IA sur les processus réglementaires en tant que tels.
    Pouvez-vous nous parler un peu plus des conclusions de ce rapport?
    Je vous remercie de la question. Je vais essayer de vous répondre.
    Ce rapport a été rédigé par Gillian Hadfield, professeure et directrice de l'Institut Schwartz Reisman pour la technologie et la société de l'Université de Toronto. Elle est titulaire d'une chaire en IA du CIFAR Canada et vous avez recueilli son témoignage la semaine dernière ou la semaine précédente.
    Comme vous pouvez le comprendre, Mme Hadfield est experte en matière de réglementation et c'est une spécialiste de la réglementation de l'IA au Canada et à l'étranger.
    Le document d'orientation publié par le CIFAR présente les idées de Mme Hadfield, son laboratoire, ses associés de recherche et ses collègues, qui se sont penchés sur la nécessité d'innover davantage pour réglementer l'IA. C'est une technologie qui évolue très rapidement et qui comporte énormément de dimensions que nous n'avons pas encore étudiées dans d'autres secteurs réglementés.
    Je crois que le point que Mme Hadfield et ses collègues ont fait valoir, c'est que dans le cadre de notre réflexion sur la réglementation de l'intelligence artificielle, nous devons être incroyablement souples, dynamiques et réactifs à la technologie à mesure qu'elle évolue.
    Comment les conclusions de ce rapport peuvent-elles éclairer notre réflexion sur le projet de loi que nous étudions actuellement?
    Je pense que j'ai mentionné l'essentiel dans ma déclaration liminaire: le besoin d'une grande souplesse. À mesure que la technologie et le monde évoluent rapidement sur le plan du développement, du déploiement et de l'adoption de l'intelligence artificielle, la réglementation doit elle aussi être modifiée rapidement avec souplesse et dynamisme. Nous devrons impérativement faire preuve d'innovation dans la façon dont nous aborderons la réglementation de l'intelligence artificielle au Canada.
    On pourrait songer à réunir des groupes d'intervenants divers pour obtenir des idées, des conseils et de l'expertise, et à tirer des leçons des processus et approches retenus par le secteur privé afin de se conformer au règlement de la Loi sur l'intelligence artificielle et les données. On réunirait des universitaires et des experts du gouvernement et du secteur privé pour tirer des leçons de leurs expériences, de leurs points de vue et de leurs approches.
    Je pense qu'il faut être souple, essayer de nouvelles choses et suivre de près les progrès technologiques, plutôt que d'accuser un retard énorme, comme c'est le cas actuellement.
    Merci.
    Vous êtes directrice exécutive de la Stratégie pancanadienne en matière d'intelligence artificielle depuis 2018. Les travaux sur cette stratégie ont-ils éclairé la rédaction de la Loi sur l'intelligence artificielle et les données et, le cas échéant, de quelle façon?

  (1210)  

    Pas de façon directe.
    La Stratégie pancanadienne en matière d'intelligence artificielle, à ses débuts, a vraiment été conçue pour faire progresser le leadership du Canada en matière de recherche, de formation et d'innovation dans ce domaine. Il visait vraiment à créer un vaste bassin de personnes talentueuses possédant une expertise en IA dans tout le pays et à mettre en œuvre des écosystèmes d'IA très riches, robustes et dynamiques dans nos trois centres à Toronto, Montréal et Edmonton. C'était le fondement de la stratégie.
    À mesure que la stratégie a évolué au fil des ans, nous avons vu des investissements supplémentaires dans le budget de 2021 nous permettant de nous concentrer sur le développement, le déploiement et l'adoption responsables de l'intelligence artificielle, ainsi que de nous pencher sur les possibilités de collaboration, notamment à l'échelle internationale, sur des dossiers comme les normes, etc.
    Je dirais que la stratégie pancanadienne en matière d'intelligence artificielle a au moins eu une influence indirecte sur le développement de la loi sur l'intelligence artificielle et les données de diverses façons. Il y a d'abord le conseil consultatif sur l'intelligence artificielle dont M. Bengio a parlé plus tôt. Il est le coprésident de ce conseil. Plusieurs dirigeants de l'écosystème de l'IA participent aux activités du conseil ou en sont membres. J'en suis également membre. La Loi sur l'intelligence artificielle et les données et le projet de loi C‑27 ont fait l'objet de discussions au sein du conseil.
    Deuxièmement...
    Merci...
    Allez‑y.
    D'accord.
    J'allais simplement dire que les instituts d'intelligence artificielle — les points névralgiques de la recherche, de l'innovation et de la commercialisation de l'intelligence artificielle au pays — ont également eu l'occasion de contribuer et de réunir leurs membres pour transmettre des idées et des conseils sur la loi.
    Merci.
    Je pense que mon temps s'est écoulé, monsieur le président.

[Français]

     Merci, monsieur Van Bynen.
    Monsieur Garon, vous avez la parole.
    Merci, monsieur le président.
    Professeure Régis, je ne veux présumer de rien ni nous vieillir indûment, mais, quand j'étais petit, je regardais des films à la télévision et, après quelque 10 minutes, il y avait des annonces. On utilisait des techniques de persuasion pour essayer de me vendre des produits. Il était évident qu'il s'agissait de persuasion et que, si je regardais ces choses, je consentais explicitement à me faire vendre toutes sortes de trucs.
    Il me semble qu'aujourd'hui, avec tous les algorithmes qui circulent, qu'ils soient liés à l'intelligence artificielle ou non, il est de plus en plus difficile d'identifier une tentative de persuasion. Ce phénomène va être appelé à se répandre de plus en plus. Souvent, on nous demande de consentir à quelque chose, mais c'est en petits caractères et c'est incompréhensible pour une personne moyenne, voire une personne très éduquée.
    Premièrement, êtes-vous d'accord qu'il est de plus en plus difficile de consentir à ces tentatives? Deuxièmement, comment peut-on améliorer la qualité du consentement lorsqu'on fait face à cette situation? Troisièmement, y a-t-il moyen d'améliorer le projet de loi actuel pour améliorer la qualité du consentement?
    Ce sont beaucoup de questions. Il vous reste une minute quinze secondes et je vous laisse y répondre en rafale.
    Oui. Il est encore plus facile qu'avant de se laisser persuader, et c'est une des stratégies, d'ailleurs. Cela peut être fait d'une manière très personnalisée, en utilisant votre historique et certaines de vos données personnelles. C'est donc effectivement un problème et qui, dans le cas des enfants, me préoccupe encore davantage.
    C'est un problème non seulement pour les consommateurs, comme vous l'avez soulevé, mais aussi, plus largement, pour les démocraties. Une de mes préoccupations est liée à l'enfermement dans des bulles où on ne reçoit que de l'information qui confirme certaines choses ou qui nous expose à des points de vue moins variés. Le filon des préoccupations qui entourent cette question est très large, et il faut en tenir compte. Voilà ma réponse à la première question.
    Maintenant, que peut-on faire de plus? Comme je vous le disais, cela mérite réflexion. C'est aussi une question de protection du consommateur, qui soulève le volet provincial, sur lequel on pourra travailler davantage. Dans une étude réalisée il n'y a pas si longtemps par l'Institut canadien de recherches avancées, on a analysé des millions de gazouillis pour savoir comment les gens d'un bout à l'autre du Canada percevaient l'intelligence artificielle. Contrairement à ce qu'on pourrait penser, les gens ont parfois une vision extrêmement positive de l'intelligence artificielle, mais ils ont moins ce regard critique, cette compréhension de ce que cette technologie fait concrètement dans leur vie et de ses limites. On parle beaucoup des questions juridiques, entre autres, mais cette compréhension est encore jeune.
    D'ailleurs, une des recommandations formulées dans le rapport du Conseil de l'innovation du Québec vise à sensibiliser les gens à l'importance de développer cet esprit critique et de se questionner sur ce que fait l'intelligence artificielle, sur les façons dont elle peut nous influencer et sur les façons dont on peut se créer un guide d'autodéfense à ce sujet. Cela doit commencer très jeune.

  (1215)  

    Monsieur Bengio, souhaitez-vous intervenir?
    Je voudrais ajouter quelque chose. Parmi les recommandations que j'ai mentionnées rapidement au début, il y en a une qui parle d'une ligne rouge à ne pas franchir: les entreprises ne devraient pas avoir le droit d'améliorer les technologies de l'intelligence artificielle au point où ces dernières seraient capables d'influencer la population mieux que ne le ferait un être humain, parce que les conséquences pourraient en être terribles. Il faut ériger des barrières importantes pour éviter qu'on se rende à ce stade qu'on craint.
    Merci beaucoup.
    Monsieur Masse, vous avez la parole.

[Traduction]

    Merci, monsieur le président.
    L'une des choses que nous entendons constamment, c'est que nous sommes censés, je ne sais pas trop comment, ne plus attendre et nous doter du même cadre que nos homologues internationaux, dont bon nombre qui n'ont pas encore agi, ou dont nous ignorons les orientations. Avez-vous des conseils à nous donner à ce sujet?
    Ce sera un tour de table très rapide. Je n'ai que deux minutes et demie. Je vais commencer encore une fois par M. Cofone.
    Avez-vous des conseils à nous donner sur la façon de procéder? On nous a dit de nous dépêcher et ensuite d'attendre. C'est ce que nous faisons.
    Une partie de la réponse à cette question consiste à suivre correctement l'approche fondée sur le risque, qui figure dans le projet de loi. C'est parce qu'en adoptant une approche fondée sur le risque et des normes, plutôt que d'essayer d'établir des règles précises pour les technologies particulières que nous avons maintenant par rapport à celles que nous aurons dans cinq ans, nous serons en mesure de nous adapter au fur et à mesure que la technologie évoluera. En évitant la tentation de réglementer les technologies que nous avions il y a quelques années et en nous concentrant sur la neutralité technologique tout en intégrant suffisamment de contenu dans le projet de loi, nous serons à l'affût des changements futurs et en conformité avec les principes internationaux.
    Cela est en partie lié à la question qui a été posée juste avant la vôtre au sujet de l'impossibilité de donner un consentement valable aujourd'hui à la plupart des processus de traitement des données, parce qu'il est impossible d'anticiper les préjudices inférentiels de l'intelligence artificielle. Je le répète, une partie de la réponse consiste à suivre les normes et à se concentrer sur des aspects comme la protection intégrée de la vie privée, la minimisation des données et la mutation intentionnelle. Ces aspects sont indépendants du consentement de la personne. Cette approche permettra à nos lois de s'adapter aux différentes façons dont les préjudices inférentiels vont muter au cours des 10 prochaines années, et elle est semblable à l'approche retenue par l'Union européenne à l'égard de l'intelligence artificielle.
    Je crois que mon temps s'est écoulé. Merci, monsieur le président.
    Merci, monsieur Masse.
    Monsieur Vis, vous avez la parole.

[Français]

    Merci beaucoup, monsieur le président.
    Madame Régis, dans votre témoignage, au début, vous avez parlé de l'indépendance du commissaire. Le 28 novembre dernier, le ministre nous a fait parvenir une lettre dans laquelle il expliquait les pouvoirs qu'aurait le commissaire à l'intelligence artificielle, ainsi que la structure de son bureau. Si j'interprète bien vos propos, vous êtes d'avis que ce commissaire doit avoir un bureau, des ressources financières et des employés indépendants.
     Que pensez-vous de l'idée de créer un commissariat qui rendrait des comptes spécifiquement au Parlement, afin qu'il ait l'indépendance que vous avez mentionnée?
    L'idée d'établir un organisme indépendant qui fait des recommandations à des organismes de réglementation ou, plus largement, aux acteurs de la société n'est pas nouvelle. Il y a plusieurs modèles desquels on peut s'inspirer, dont la formule des ombudsmans, qu'on connaît bien, notamment à l'échelle provinciale. Il y a aussi le Bureau de la concurrence.
    Pour répondre brièvement à votre question, il faudrait effectivement explorer l'idée de créer un poste de commissaire qui rendrait des comptes de façon complètement indépendante, y compris aux Canadiens. On pourrait donc étudier les différents modèles qui existent pour déterminer lequel serait le meilleur.
    Merci.

[Traduction]

    Madame Strome, vous avez mentionné dans votre déclaration liminaire que nous devons investir dans des experts en la matière au ministère de l'Industrie. Cela me préoccupe beaucoup. Nous savons que l'intelligence artificielle n'est pas seulement présente au Canada; elle est aussi mondiale. Même si nous avons une approche réglementaire au Canada, si ce projet de loi est effectivement adopté, je ne pense pas que nous puissions nous isoler des préjudices sociétaux et individuels potentiels causés par les acteurs de l'IA dans d'autres parties du monde.
    Je me souviens qu'il y a quelques années, le gouvernement du Canada — et je n'essaie pas de marquer des points politiques ici — avait de la difficulté à gérer son calendrier de paiements pour les fonctionnaires.
     M. Brian Masse: C'est toujours le cas.
     M. Brad Vis: C'est toujours le cas.
    Comment diable Industrie Canada va‑t‑il réglementer les préjudices en ligne causés par l'intelligence artificielle? Le gouvernement ne peut même pas gérer ses propres systèmes de paye. Je ne sais tout simplement pas si notre fonction publique est assez souple en ce moment pour faire le travail dont nous avons besoin selon la procédure suggérée jusqu'à présent.

  (1220)  

    Permettez-moi de vous offrir une occasion et une suggestion.
    Il y a beaucoup d'expertise dans le secteur public, dans le secteur universitaire et dans le secteur privé pour ce qui est d'étudier l'intelligence artificielle responsable et d'en promouvoir l'usage, et de mesurer et d'évaluer ses répercussions et ses préjudices. Je pense que c'est une occasion en or pour le gouvernement du Canada d'incorporer une partie de cette expertise au gouvernement, que ce soit temporairement ou au cas par cas, afin d'être épaulé dans l'identification, la surveillance et l'évaluation des risques associés à l'intelligence artificielle.
    Je vous arrête tout de suite. Suggérez-vous un modèle hybride de collaboration entre les acteurs du secteur privé et les fonctionnaires pour surveiller et réglementer, et peut-être même prendre rapidement des décisions sur les préjudices potentiels auxquels les Canadiens sont confrontés?
    Je vais laisser M. Bengio intervenir tout de suite après.
    Bien évidemment, il faudrait que ces personnes aient une habilitation de sécurité et les compétences et l'expertise nécessaires pour fournir ce genre de conseils. Cependant, je pense en particulier que les juristes et les chercheurs scientifiques qui ont l'expertise nécessaire pour comprendre les répercussions techniques de la technologie seraient des atouts importants dans ce travail.
    Merci.
    M. Bengio, très rapidement.
    Je suis d'accord avec tout ce que Mme Strome a dit, mais je tiens à ajouter qu'il y a déjà des organismes à but lucratif ou sans but lucratif — principalement aux États-Unis, mais il pourrait y en avoir au Canada — qui travaillent sur la sécurité de l'intelligence artificielle. Autrement dit, ils mettent au point la technologie nécessaire pour permettre à l'organisme de réglementation de déterminer ce qui est dangereux et ce qui ne l'est pas. Je pense que c'est la voie à privilégier. Il faudra du temps au gouvernement pour se doter des compétences nécessaires; il sera beaucoup plus rapide de travailler avec des organisations non gouvernementales qui ont cette expertise.
    Merci.
    J'ai une autre question pour Mme Strome.
    Une fois de plus, nous parlons de mettre sur pied ici un cadre de réglementation sur l'intelligence artificielle. Je ne sais pas nécessairement si la Chine et la Russie, surtout dans le contexte de l'ingérence électorale, appliqueront le même genre de mesures de protection pour les acteurs chez eux en ce qui a trait à l'innovation et aux préjudices possibles en matière d'intelligence artificielle. Il y a actuellement une discussion philosophique dans laquelle il est presque question d'un nivellement par le bas. Si nous nous mettons des obstacles avec une approche réglementaire trop lourde, allons-nous nous empêcher de nous attaquer aux préjudices graves qui peuvent survenir et avoir des répercussions sur la société canadienne?
    Eh bien, je pense que le récent sommet sur la sécurité en matière d'intelligence artificielle qui a eu lieu l'année dernière à Bletchley Park, au Royaume-Uni, nous donne une occasion d'être optimistes. À cette réunion, des représentants du gouvernement chinois ont participé aux discussions internationales sur la possibilité de collaborer avec des pays aux vues similaires afin de comprendre, d'évaluer et d'atténuer les risques liés à l'intelligence artificielle. Je pense que nous devons demeurer optimistes et garder espoir relativement aux discussions et aux collaborations possibles.
    Je suis député, et je dois constamment demeurer sceptique, car je pense à mon enfant d'un an. Nous sommes nombreux ici à avoir des enfants, et j'entends parler de ces menaces sur 20 ans. Ma fille aura 21 ans dans 20 ans. Elle va se retrouver dans un monde fou. Je ne sais pas s'il peut y avoir une approche réglementaire ou si nous pouvons même mettre un frein à cela. Nous nous faisons peut-être juste des illusions en pensant que nous pouvons arrêter ce qui s'en vient.
    M. Bengio peut‑il en parler?
    Vous avez raison: il n'y a rien que nous savons maintenant qui nous garantit totalement que nous pouvons éviter tous les dangers que peuvent présenter les puissants systèmes d'intelligence artificielle. Cependant, il serait insensé de ne pas essayer de favoriser la sécurité. Nous devrions plus particulièrement nous assurer que les entreprises se comportent bien.
    À propos de ce que font les organisations chinoises, nous devrions préparer des contre-mesures, et ce n'est peut-être pas dans la portée de cette loi. Il s'agit davantage d'un investissement nécessaire dans la sécurité nationale pour protéger les Canadiens contre ces attaques.

  (1225)  

    Merci beaucoup, monsieur Vis. Votre temps est écoulé.

[Français]

     Madame Lapointe, la parole est à vous.
    Merci, monsieur le président.

[Traduction]

    Madame Strome, vous avez cité trois priorités pour le gouvernement dans votre déclaration liminaire. Lorsque vous parliez de la deuxième priorité, de la marge de manœuvre, vous avez dit qu'il est important de noter que l'intelligence artificielle ignore les frontières et que le Canada devrait créer des systèmes et des partenariats. Lorsque vous avez soulevé ce point, je me suis tout de suite dit que la législation canadienne ne serait pas efficace à l'extérieur du pays. Votre point était donc très pertinent.
    Pouvez-vous en dire plus sur ce que vous considérez comme des systèmes et des partenariats satisfaisants et nécessaires?
    Tout à fait.
    Nous avons des occasions de travailler avec des pays aux vues similaires partout dans le monde. De toute évidence, nous sommes un proche allié des États-Unis, du Royaume-Uni et des autres pays du G7. Ces pays sont tous aux prises avec les mêmes problèmes concernant les risques associés à l'intelligence artificielle.
    Des pas sont faits dans la bonne direction. De nouveaux systèmes sont mis au point et envisagés en ce qui concerne la collaboration internationale pour réglementer l'intelligence artificielle. Il y a notamment le sommet sur la sécurité de l'intelligence artificielle dont j'ai parlé et qui a eu lieu au Royaume-Uni. Un groupe de pays aux vues similaires se rassemblent régulièrement pour examiner et comprendre ces risques et la façon de collaborer pour les atténuer.
    Dans la déclaration de Bletchley, qui a été publiée après cette réunion, il était très révélateur de voir qu'on reconnaît même que différents pays auront différentes approches réglementaires, lois et mesures législatives concernant l'intelligence artificielle. Cependant, malgré ces différences, il y a, tout d'abord, des possibilités d'harmonisation et même d'interopérabilité. Je pense que c'est un excellent exemple, et c'est une occasion pour le Canada d'apporter une contribution vraiment majeure.
    Cela fait ressortir les préoccupations soulevées par mes collègues députés, M. Masse et M. Généreux. Ce que je crains, c'est que les gens honnêtes se fassent imposer une législation trop lourde qui s'accompagne de formalités législatives, alors que les acteurs malhonnêtes auront le champ libre sans ces accords internationaux. Partagez-vous aussi ces préoccupations?
    Je pense qu'il y a même probablement de meilleures occasions de collaborer et d'harmoniser les approches face à certains de ces problèmes, sans aucun doute.
    La troisième priorité que vous avez mentionnée est la nécessité d'investir. À votre avis, à quel endroit faudrait‑il investir en premier pour profiter plus rapidement des occasions qui s'offrent au Canada, tout en offrant une protection contre les préjudices individuels et les risques systémiques?
    L'un des domaines où le manque d'investissements nous préoccupe grandement est celui de l'infrastructure informatique au sein de notre écosystème d'intelligence artificielle. À l'heure actuelle, il y a vraiment une course mondiale pour la technologie informatique. Ces grands modèles de langage et systèmes avancés d'intelligence artificielle nécessitent vraiment une technologie informatique très avancée et importante.
    Au Canada et dans l'écosystème canadien d'intelligence artificielle, nous n'avons pas accès sur le terrain à ce niveau de puissance informatique. Des entreprises du pays l'achètent actuellement sur le nuage, surtout auprès de fournisseurs de services infonuagiques américains. Des universitaires au Canada n'ont carrément pas accès à ce genre de technologie.
    Pour que nous puissions acquérir les compétences, les outils et l'expertise nécessaires pour vraiment interroger ces systèmes avancés d'intelligence artificielle et comprendre leurs vulnérabilités, les préoccupations en matière de sécurité et les risques, nous aurons besoin de systèmes informatiques vraiment très puissants. Quand nous parlons de réglementer l'intelligence artificielle, cela s'applique également au milieu universitaire, au secteur public et au secteur privé. C'est un élément essentiel.
    Monsieur Cofone, j'aimerais entendre votre opinion sur le genre d'obligations juridiques que devraient avoir les créateurs de systèmes d'intelligence artificielle à incidence élevée et aussi les plateformes qui permettent l'utilisation d'applications de l'intelligence artificielle, comme Facebook et YouTube.
    Je pense qu'il faut surtout se concentrer sur l'atténuation des risques. Cela peut renvoyer aux principes de l'équité, de la transparence et de la reddition de comptes dont nous avons parlé au début de la réunion. Il est important que les créateurs et les développeurs de systèmes d'intelligence artificielle surveillent les risques qu'ils créent pour un large éventail de préjudices lorsqu'ils déploient et développent ces systèmes, et que nous ayons les cadres juridiques pour leur demander des comptes à cet égard.
    Je pense que c'est également lié à votre question précédente. Il est légitimement difficile et raisonnablement préoccupant que dans d'autres pays, nous ne puissions peut-être pas faire appliquer les cadres adoptés aujourd'hui. Nous ne devrions toutefois pas laisser une application imparfaite nous empêcher d'adopter les règles et les principes que nous devons faire respecter, car leur application imparfaite est mieux que de ne rien faire.
    Cette préoccupation est semblable à celle que nous avions pour la protection de la vie privée il y a plus de 20 ans relativement aux données qui traversent les frontières. Nous ne savions pas si nous allions être en mesure de faire respecter à l'étranger la loi canadienne sur la protection des renseignements personnels. Les tribunaux et les organismes de réglementation nous ont surpris dans la mesure où ils sont parfois capables de le faire.

  (1230)  

[Français]

     Merci, madame Lapointe.

[Traduction]

    Monsieur Williams, vous avez la parole.
    Merci beaucoup, monsieur le président.
    Je veux revenir à la question que mon collègue, M. Vis, a posée à Mme Régis, mais je vais m'adresser à d'autres témoins. Je vais commencer par le professeur Cofone.
    La loi sur l'intelligence artificielle et les données propose que nous créions un poste de commissariat à l'intelligence artificielle et aux données qui ne serait pas une entité indépendante, mais plutôt une entité qui relève d'Innovation, Sciences et Développement économique Canada, du ministre de l'Industrie. Avons-nous besoin que le commissariat à l'intelligence artificielle soit un bureau indépendant ou plutôt un agent du Parlement?
    Je pense qu'il serait grandement avantageux pour nous que le commissaire à l'intelligence artificielle soit un agent indépendant. Une solution de rechange, un second choix, serait de faire contrepoids en donnant certains des pouvoirs qui sont actuellement confiés au commissaire au tribunal, qui est établi en tant qu'entité indépendante. Le tribunal pourrait être mieux constitué en augmentant la proportion d'experts qui y occupent des postes pour compenser.
    À propos du processus, le commissariat fonctionnerait‑il alors largement comme le Commissariat à la protection de la vie privée ou le bureau du commissaire à la concurrence?
    Oui. Je pense que nous avons un système qui fonctionne comme celui du commissaire à la protection de la vie privée. Selon la structure prévue dans le projet de loi, le commissaire à la protection de la vie privée pourrait, par exemple, mener des enquêtes et le tribunal imposerait ensuite les amendes.
    Les autres témoins ont-ils des commentaires à ce sujet?
    Monsieur Bengio, allez‑y.
    Oui, je pense aussi qu'il y a de bonnes raisons de faire en sorte que l'organisme de réglementation n'a pas une seule mission.
    Innovation, Sciences et Développement économique Canada a une mission d'innovation, qui consiste surtout à assurer la croissance de l'économie grâce à la technologie, mais le gouvernement doit s'occuper d'autres aspects liés à la gestion et à la gouvernance de l'intelligence artificielle, en particulier les préjudices, les risques, notamment pour la sécurité nationale, et même les questions liées aux affaires étrangères.
    Je ne sais pas comment on peut bien le faire, mais je pense que ce sera plus sain si l'organisation qui le fait au sein du gouvernement ne relève pas d'un ministère en particulier.
    Madame Strome, vous avez déjà pas mal parlé ici de la façon dont le Canada accuse vraiment un retard dans le domaine de l'intelligence artificielle en ce qui a trait à la commercialisation de la propriété intellectuelle. Nous avons perdu beaucoup de nos brevets. Je pense que le nombre de brevets que la Chine a obtenus dans le domaine en une seule année est plus élevé que notre nombre total de brevets. Elle est vraiment loin devant, tout comme les États-Unis et d'autres.
    Comment le Canada peut‑il développer et protéger ce domaine et vraiment redevenir un leader de l'intelligence artificielle? Quels sont les passages du projet de loi qui pourraient lui barrer la route? Que pourrions-nous ajouter pour peut-être encourager cela?
    Je crois que les brevets ne sont pas la seule mesure de la valeur dans notre écosystème d'intelligence artificielle. En fait, je crois que le talent est la meilleure mesure de sa force et de sa valeur.
    Les brevets sont assurément importants, plus particulièrement pour les entreprises en démarrage qui essaient de protéger leur propriété intellectuelle. Cependant, une grande partie de l'intelligence artificielle qui est créée se retrouve dans le domaine public; c'est libre d'accès. Nous obtenons vraiment beaucoup de valeur ainsi que de nouveaux produits et services très innovateurs qui reposent sur l'intelligence artificielle grâce aux personnes très qualifiées qui unissent leurs efforts avec les bonnes ressources, la bonne expertise, les bons collaborateurs et le bon financement pour innover dans le domaine.
    Les brevets sont une mesure, mais ce n'est pas la seule. Je pense donc que nous devons adopter une perspective plus vaste à ce sujet.
    Quand nous regardons la position du Canada à l'échelle internationale, on constate qu'il est vrai que l'intelligence artificielle se trouve sur une plateforme mondiale très concurrentielle. Parmi les indices existants, il y a l'indice mondial sur l'intelligence artificielle. Depuis de nombreuses années, le Canada est au quatrième rang dans le monde, ce qui n'est pas mauvais pour une petite économie par rapport à certains des autres acteurs. Nous perdons toutefois du terrain selon cet indice. Cette année seulement, nous sommes passés de la quatrième à la cinquième position, et lorsqu'on examine attentivement les détails sur les aspects pour lesquels nous perdons du terrain dans le domaine de l'intelligence artificielle, on voit que c'est à cause du manque d'investissements dans l'infrastructure connexe. D'autres pays font des promesses importantes, ils prennent des engagements de taille et font des investissements considérables dans la mise sur pied et la progression de leur infrastructure dans ce domaine, et le Canada ne suit pas le rythme.
    Selon l'indice le plus récent, nous sommes passés de la quinzième à la vingt-troisième place dans le monde en matière d'infrastructure d'intelligence artificielle, ce qui a un effet sur notre compétitivité à l'échelle mondiale.

  (1235)  

    Merci beaucoup.
    Je vais maintenant donner la parole à M. Sorbara, qui sera le dernier à poser des questions.
    Merci beaucoup, monsieur le président. Les témoins sont formidables aujourd'hui.
    Je veux m'adresser à Mme Strome.
    Je pense que vous avez mentionné que 140 000 personnes travaillent dans le domaine de l'intelligence artificielle au Canada. De toute évidence, cela rapporte maintenant très gros, et c'est juste dans le secteur proprement dit, cela ne comprend pas les emplois indirects.
    Avez-vous connaissance d'estimations sur ce que l'intelligence artificielle pourrait rapporter à l'économie canadienne à l'avenir?
    Je n'ai pas de chiffres précis là‑dessus, mais c'est une chose que nous voulons nous-mêmes comprendre, et je vais donc vous transmettre la réponse lorsque nous l'aurons, bien entendu.
    Je pense que les avantages pour le Canada sont absolument économiques, et nous le voyons dans le nombre d'emplois. Nous le voyons dans le nombre d'entreprises en démarrage dans les villes canadiennes, et plus particulièrement dans le nombre d'investissements en capital-risque dans ces entreprises. Environ 30 % de tous les investissements en capital-risque se retrouvent directement dans des entreprises du domaine de l'intelligence artificielle. C'est vraiment très avantageux pour l'économie.
    À propos du capital-risque, c'est habituellement investi dans des entreprises en démarrage.
    Je vais d'abord poser la question à Mme Strome et ensuite à M. Cofone et aux autres témoins qui voudront intervenir.
    À propos de la réglementation de l'intelligence artificielle, on veut qu'elle soit... C'est comme la comptabilité. On a un principe. La réglementation est très normative en comptabilité. On veut éviter qu'elle soit stricte au point de limiter la croissance et la capacité d'évoluer et d'innover, mais on veut aussi veiller à ce qu'elle ne soit pas permissive au point d'avoir des lacunes et des échappatoires, si je peux employer ce mot.
    Avons-nous le bon équilibre? C'est très difficile à obtenir. J'ai parlé de l'intelligence artificielle à des collègues en Europe, tant à l'échelle infranationale qu'à l'échelle européenne. Toutes les assemblées législatives sont aux prises avec cette question.
    Où en sommes-nous pour atteindre le bon équilibre?
    Je crois que nous sommes sur la bonne voie. Je pense que si le projet de loi est adopté et que nous passons à l'élaboration des règlements, si nous voulons adopter une approche vraiment souple, nous devons carrément regarder les possibilités et apporter des modifications, changer de cap et nous adapter à mesure que la technologie et d'autres acteurs internationaux progressent.
    Merci.
    Si je peux vous arrêter ici, j'aimerais entendre M. Cofone.
    Monsieur Cofone, pouvez-vous donner rapidement votre point de vue à ce sujet? Je sais que vous avez parlé des préjudices dans votre exposé. Je vais relire ce que vous avez dit là‑dessus dans votre témoignage lorsque j'en aurai la chance cette semaine, car cela se rapporte au point sur le principe et la façon de le réglementer plutôt que d'opter pour une réglementation normative.
    Je pense que nous y sommes presque.
    Je pense, tout d'abord, qu'il est louable que cette mesure législative prenne ce compromis au sérieux et ne soit pas trop axée sur la technologie. Je crois qu'il faut être un peu plus précis, ce qui est possible tout en maintenant la neutralité technologique du projet de loi. Nous pourrions être un peu plus précis dans la norme pour ce qui est des résultats biaisés. Nous pourrions apporter des précisions dans la norme à propos des systèmes à incidence élevée. Nous pourrions avoir des degrés proportionnels de diligence requise qui vont au‑delà de la catégorisation. Toutes ces choses pourraient s'appliquer aux systèmes qui n'ont pas encore été créés tout en donnant une certaine orientation à la réglementation.
    Monsieur le président, combien de temps me reste‑t‑il?
    Vous avez environ une minute.
    Je veux également entendre M. Bengio.
    Vous êtes un des leaders au Canada. Vous avez le Vector Institute à l'Université de Toronto, je crois, et nous avons d'autres instituts à Montréal. Pouvez-vous répondre à mes questions?
    Je vais ensuite passer à Mme Régis si j'ai le temps.
    Je pense que nous ne devrions pas faire l'erreur d'essayer d'insérer trop de détails dans la loi. Nous avons tous de petites choses que nous aimerions voir. Puisque la technologie va changer et compte tenu de sa mauvaise utilisation et des préjudices qui évolueront, la seule option qui doit être possible, c'est celle qui permet à l'organisme de réglementation de s'adapter rapidement. Mme Strome l'a mentionné à maintes reprises, tout comme moi. Nous devons vraiment nous en tenir à une approche axée sur le principe. C'est la seule solution viable pour protéger le public.

  (1240)  

[Français]

     Madame Régis, qu'en pensez-vous?

[Traduction]

    Je dirais que la meilleure façon, à mon avis, de trouver l'équilibre entre l'innovation et la protection est de favoriser une approche fondée sur le risque. Le projet de loi se fonde sur cette logique. Plus il est élevé, plus les exigences sont élevées. Si vous suivez cette règle, je pense que vous êtes sur la bonne voie pour atteindre l'équilibre que vous cherchez.

[Français]

    Merci à tous et à toutes.

[Traduction]

    Merci beaucoup, monsieur Sorbara.
    Merci à tous nos témoins d'aujourd'hui. Cela a été une discussion fascinante.
    Nous devons maintenant organiser un peu les travaux du Comité. Je vous laisse donc tous partir.
     Des députés: Bravo!
     Le président: Je ne sais pas si vous pouvez l'entendre sur Zoom, mais nos membres vous applaudissent. C'était très intéressant. Je vous remercie de votre travail dans ce dossier et je vous remercie de nous avoir fait part de vos points de vue dans le cadre de notre étude de ce projet de loi.
    Vous êtes libres de partir, et merci encore.

[Français]

    Chers collègues, ceci nous amène aux travaux du Comité. Je sais que quelques avis de motion ont été déposés, dont celui de M. Williams.
    Monsieur Williams, vous avez la parole.

[Traduction]

    Merci, monsieur le président.
    Je suis désolé d'insister autant à ce sujet, mais je pense qu'il est vraiment important que nous continuions d'examiner les factures de téléphonie cellulaire au nom des Canadiens. Nous ne nous arrêterons pas tant que nous n'aurons pas réussi à faire baisser les factures de téléphone cellulaire.
    Il y a une motion dont nous avons parlé la semaine dernière, et j'aimerais y revenir. Nous l'avons modifiée légèrement pour faire en sorte que non seulement Rogers et Bell comparaissent devant le Comité, mais Vidéotron aussi. Je pense qu'il est important que nous invitions les PDG de ces entreprises à venir nous parler de ce qui se passe avec les factures de téléphonie cellulaire des Canadiens.
    Deuxièmement, nous voulons entendre le ministre de l'Innovation, des Sciences et de l'Industrie. Je pense que c'est important pour lui. Je sais, pour lui avoir parlé dans le passé, qu'il dit toujours vouloir montrer aux Canadiens qu'il souhaite voir réduire les factures de téléphonie cellulaire.
    Reportons-nous au 5 mars 2020. Le ministre de l'Industrie de l'époque, Navdeep Bains, avait alors annoncé que son gouvernement allait réduire les factures de téléphonie cellulaire de 25 % au cours des deux années suivantes, d'ici 2022. Les familles économiseraient ainsi 690 $ par année. Selon les annonces faites la semaine dernière par Bell — il y a maintenant trois semaines, je crois —, la facture moyenne de téléphonie cellulaire au Canada est de 106 $. Rogers et Bell s'apprêtent à y ajouter une augmentation de 9 $ par mois, de sorte que la facture passera à 115 $.
    Tout se résume à une chose, et ce sont les données. C'est la question que nous voulons poser aux PDG. Les Canadiens ont utilisé trois fois plus de données en 2022 qu'en 2015. Vous savez que lorsqu'on regarde Instagram, qu'on télécharge des Reels ou qu'on utilise YouTube ou Netflix, on consomme plus de données. La facture de téléphonie cellulaire d'une personne qui ne consomme que cinq gigaoctets par mois a diminué de 25 %, mais les Canadiens consomment plus de données, et les factures de téléphonie cellulaire augmentent. Ce sont de bonnes questions à poser au nom de tous les Canadiens.
    Je propose ce qui suit:
Que, comme les Canadiens paient déjà les tarifs des téléphones cellulaires les plus élevés au monde, et Rogers et Bell ont annoncé une augmentation des factures de téléphone cellulaire de 9 $, le Comité demande deux réunions tenues d'ici le 15 février 2024, la première avec les PDG de Rogers, Vidéotron, et Bell, et la deuxième, avec le ministre de l'Innovation, des Sciences et de l'Industrie, pour expliquer pourquoi les prix augmentent, et que ce Comité condamne également les augmentations de prix et en fasse rapport à la Chambre.
    Merci, monsieur le président.

[Français]

    Merci beaucoup.

[Traduction]

    Merci, monsieur Williams.
    Je donne la parole à M. Masse. Il veut intervenir sur la motion dont le Comité est saisi.
    Allez‑y, monsieur Masse.
    Merci, monsieur le président.
    J'appuie la motion, mais je demanderais de la modifier pour y ajouter Telus. Nous aurions alors devant nous les quatre cavaliers de l'apocalypse.
    Pour moi, c'est une motion importante. Nous devrions également en faire rapport à la Chambre afin d'accorder le plus d'attention possible à cette question. C'est rendu scandaleux.
    J'appuie la motion et j'espère que nous pourrons aller de l'avant et y inclure Telus également.
    C'est un amendement, monsieur Masse.
    Comme vous le savez tous, les amendements favorables n'existent pas. C'est un amendement visant à ajouter Telus à la liste si éloquemment décrite par M. Masse.
    Y a‑t‑il des commentaires sur l'amendement visant à ajouter Telus à la motion, ou y a‑t‑il consensus en faveur de l'amendement?
    Allez‑y, monsieur Turnbull.
    Je n'ai aucun problème à ajouter Telus à la motion, mais j'ai un petit problème avec la motion en général. Je vais peut-être réserver mes commentaires si nous voulons d'abord voter sur l'amendement.

  (1245)  

    Je pense que ce sera plus élégant sur le plan de la procédure si nous procédons de cette façon.
    Il vaut toujours mieux faire preuve d'élégance sur le plan de la procédure.
    J'essaie, mais je ne réussis pas toujours.
    Je regarde dans la salle et je pense qu'il y a consensus général pour cette petite modification visant à ajouter Telus à la motion.
    (L'amendement est adopté. [Voir le Procès-verbal])
    Nous revenons à la motion principale modifiée. Allez‑y, monsieur Turnbull.
    Nous avons eu une excellente réunion du sous-comité. Évidemment, c'était une réunion à huis clos, donc je ne parlerai pas de la conversation que nous avons eue, mais le rapport du sous-comité que nous avons produit est public. Il y est question d'une étude très approfondie que M. Lemire a proposée au départ et que nous avons convenu d'entreprendre. De plus, au point 5, on y mentionne tous les PDG de toutes les entreprises, y compris Telus. Nous avons déjà convenu de convoquer les PDG pour leur poser des questions sur les factures de téléphonie cellulaire. Je parle ici du point 5 du rapport du sous-comité à ce sujet, qui a fait l'objet d'un consensus. Je crois également comprendre, selon le calendrier actuel du Comité, que nous avons déjà prévu des dates et des heures pour ces réunions.
    La façon dont je vois les choses, c'est qu'il semble que M. Williams essaie simplement de faire adopter quelque chose qui va se produire de toute façon, quelque chose dont nous avons déjà convenu. Je ne vois pas comment la motion se justifie, alors que nous en sommes déjà arrivés à un consensus à ce sujet. Nous avons tous convenu qu'il s'agit d'un sujet important. Nous avons tous convenu qu'il y a des préoccupations concernant les augmentations de prix des téléphones cellulaires qui sont prévues par Rogers et d'autres. Nous pourrions également mieux comprendre les faits, car il y a beaucoup d'autres renseignements à examiner. Il y a tout un éventail d'autres questions dont nous pourrions parler, mais elles sont toutes déjà incluses dans le rapport du sous-comité et dans sa motion.
    D'après ce que je comprends, nous avons convenu de tenir des réunions à ce sujet dès le 26 février. La motion de M. Williams, je crois, ne fait que devancer l'échéance. Il demande que ces réunions aient lieu une semaine ou 10 jours plus tôt.
    Quelle en est la raison? Pourquoi le Comité aurait‑il besoin de devancer cela de deux semaines ou de 19 jours alors que nous avons déjà convenu de le faire en temps et lieu? Nous en avons convenu.
    Il y a également d'autres études dont nous avons parlé. Nous avons eu cette conversation ensemble et nous nous sommes entendus. Nous sommes parvenus à un consensus.
    Cela semblerait venir renverser le consensus auquel nous sommes arrivés. Nous avons eu une conversation très constructive pour parvenir à un consensus, je pensais que nous avions un plan, et maintenant voilà une motion pour tenter de devancer cette étude de 10 jours. Quelle en est la raison? Je ne comprends pas.
    J'aimerais que quelqu'un m'éclaire à ce sujet. Peut-être que M. Williams pourrait nous expliquer son raisonnement.
    Je regarde dans la salle pour voir s'il y a d'autres interventions.
    Il est vrai que le comité de direction a convenu de commencer l'étude sur les télécommunications le 26 et de terminer l'audition des témoins sur le projet de loi C‑27 avant que nous ajournions pour la semaine de relâche en février.
    Je vais laisser M. Williams défendre sa motion.
    Merci, monsieur le président.
    Je sais que nous avons convenu de mener une étude plus vaste sur les télécommunications, qui porte sur l'infrastructure et les problèmes que nous avons connus avec les entreprises. Celle‑ci est propre aux augmentations de prix de Rogers, comme l'a annoncé Rogers, et de Bell. Bien sûr, nous sommes d'accord avec le Comité pour que d'autres témoins — les quatre cavaliers ou d'autres — comparaissent ensemble devant le Comité, parce que c'est nécessaire et pertinent dès maintenant. C'est la troisième fois que nous essayons de faire adopter cette motion pour réunir ces personnes devant le Comité.
    Il y aura une étude plus vaste sur les télécommunications. Il y sera question d'infrastructure, de sans-fil et des nombreux Canadiens qui n'ont toujours pas accès au téléphone cellulaire et au signal. Je sais que sept millions de Canadiens se sont fait promettre l'accès à Internet haute vitesse. La moitié du Canada n'y a toujours pas accès.
    En gros, on se concentre sur un seul sujet ici: les augmentations annoncées par Rogers, et on réunirait ces PDG et le ministre ici pour parler de cette augmentation.
    Pourquoi est‑ce si important? Je vais vous le dire.
    Pas plus tard que ce matin, à 11 heures, Manuvie, qui avait annoncé la semaine dernière qu'elle allait offrir des médicaments spécialisés à Loblaws uniquement, selon une entente exclusive qui posait problème, s'est rétractée aujourd'hui sous la pression. Elle a annoncé qu'elle ne donnerait pas suite à cette entente. C'est ce qui arrive lorsque nous travaillons ensemble et que nous exerçons des pressions politiques sur les entreprises.
    Rogers doit répondre de sa décision maintenant, pas dans quatre semaines ni dans six. Elle doit nous expliquer d'ici deux semaines pourquoi elle compte maintenant augmenter les prix pour les Canadiens. Nous devons agir dès maintenant, sans attendre.
    Merci.

  (1250)  

    D'accord.
    Je cède la parole à M. Turnbull.
    Il y a une petite chose à garder à l'esprit en ce qui concerne le calendrier. Nous avons des témoins prévus sur le projet de loi C‑27 les 12 et 14 février. Si cette motion est adoptée, je suggérerais que nous essayions d'obtenir des ressources supplémentaires afin de ne pas défaire l'excellent travail que notre greffière a fait pour faire comparaître ces témoins devant le Comité. Il ne faut pas l'oublier.
    Allez‑y, monsieur Turnbull.
    Personne ne conteste le fait que les dirigeants des sociétés de téléphonie cellulaire doivent être convoqués devant le Comité et interrogés sur les augmentations prévues. Je pense que nous sommes tous d'accord là‑dessus. C'est écrit dans le rapport du sous-comité, en fait. Je pense que cette étude sera plus substantielle. Elle prévoit déjà la comparution des PDG de Telus et de Québecor Média, entre autres. Elle touchera tous les PDG de toutes les entreprises qui ont été mentionnées. L'accent sera mis sur l'augmentation des factures de téléphonie cellulaire des clients, donc tout... C'est déjà là.
    Je pense que nous avons déjà convenu de faire ce travail, alors je ne comprends toujours pas la raison d'être d'une motion supplémentaire qui ne fait que devancer certaines choses. Si vous demandiez des ressources supplémentaires pour commencer plus tôt cet élément de l'étude générale, d'accord, mais ne sommes-nous pas limités par les ressources octroyées au Comité? Si nous avons demandé des ressources supplémentaires pour étudier le projet de loi C‑27, pourquoi ne serait‑ce pas la priorité, comme nous l'avions décidé?
    Nous nous sommes déjà entendus là‑dessus. Nous avons déjà eu ce débat et cette conversation. Nous nous sommes entendus sur ce qui paraît dans le rapport du sous-comité, alors pourquoi déposer cette motion maintenant? Même si nous en avons déjà convenu, pour une raison ou pour une autre, c'est maintenant devenu une priorité plus grande encore pour vous parce que vous l'avez décidé dans la dernière semaine, environ.
    Cela ne me semble pas logique étant donné que nous avons déjà convenu de mener une étude plus générale. Nous avons déjà convenu de convoquer tous ces témoins. Nous avons convenu de nous concentrer sur les prix et les factures de téléphonie cellulaire; nous avons convenu que ce peut être la priorité dans cette étude plus vaste. Nous avons également convenu de présenter un rapport à la Chambre afin de lui présenter nos conclusions et nos recommandations.
    Je ne comprends tout simplement pas ce que... D'une certaine façon, cette motion n'est-elle pas redondante? Nous en avons déjà convenu.
    N'y a‑t‑il pas une règle dans le Règlement selon laquelle une motion doit proposer quelque chose de substantiellement différent pour être admissible? Cela ne semble pas du tout différent. Je ne vois rien de différent ici. Je ne comprends vraiment pas la raison d'être de cette motion, si ce n'est un peu pour épater la galerie.
    Merci, monsieur Turnbull.
    M. Masse est le prochain intervenant.
    Je vous remercie.
    Je pense qu'un certain nombre de choses ont changé la donne depuis que nous avons établi le calendrier, mais vous avez soulevé un très bon point. Si des témoins ont déjà prévu de participer aux réunions, cela veut dire qu'ils devront se déplacer, etc., alors je pense que nous pouvons trouver un consensus.
    Si nous obtenons des ressources supplémentaires pour ce comité, nous pourrons commencer l'étude plus tôt. C'est ce que je souhaiterais. Je pense qu'il s'agit d'une question très importante. Il y a de bonnes interventions, mais si nous créons un problème pour d'autres témoins... C'est quelque chose dont nous n'avions pas à nous soucier avant même que cette motion ne soit déposée. À un moment donné, il semblait que certains de ces témoins ne viendraient pas, mais c'est désormais le cas.
    Je propose que nous nous en remettions à vous, monsieur le président, pour voir si nous pouvons obtenir des ressources supplémentaires afin de pouvoir commencer cette étude plus rapidement, si c'est possible. Voilà ce que je vous propose pour la suite des choses, et je pense que c'est un bon compromis.
    Je pense que les gens s'inquiètent de plus en plus de ce que font les sociétés de téléphonie cellulaire. Nous nous en rendons tous compte. C'est la principale préoccupation — à part ce qui se passe à Gaza et quelques autres situations qui ont cours — dont mes concitoyens me font part, et ce régulièrement.
    Quoi qu'il en soit, j'estime que nous devrions vous laisser le soin de voir si nous pouvons obtenir des ressources supplémentaires à ce comité pour commencer cette étude un peu plus tôt. Nous pourrons décider ce que nous ferons ensuite. Nous ne voulons pas perturber le travail que notre greffière a accompli ni le déroulement des travaux qui vous attendent.
    Si les autres membres du Comité n'y voient pas d'objection, je pense que ce serait une bonne façon de procéder.
    D'accord. Je peux très bien voir...
    Si nous atteignons un consensus pour que nous commencions cette étude sur les télécommunications plus tôt que prévu, si nous avons les ressources supplémentaires, et que nous continuions l'étude du projet de loi C‑27 comme prévu... La greffière pourra m'aider, et nous essaierons de trouver des ressources supplémentaires.
    Toutefois, notre comité est toujours saisi d'une motion. Je ne sais pas comment les collègues veulent procéder avec cette motion. Êtes-vous d'accord pour que nous commencions l'étude sur les télécommunications plus tôt?
    Je vais donner la parole à M. Turnbull, puis à M. Masse.
    Monsieur Turnbull, la parole est à vous.

  (1255)  

    Je me contenterai de dire que je suis d'accord avec M. Masse. Je pense que si le Comité peut obtenir les ressources supplémentaires pour commencer cette étude sur les télécommunications un peu plus tôt et se concentrer d'abord sur les PDG, ce sera un pas dans la bonne direction.
    L'une des différences est que dans notre rapport du sous-comité, nous allouons plus de temps au témoignage des PDG en comité, ce qui est important à mon avis. Je pense que le rapport du sous-comité nous donne davantage l'occasion d'examiner minutieusement ce que font les PDG, et c'est l'objectif ici. Je pourrais donc suggérer que M. Williams...
    Monsieur Williams, je sais que cela ne vous plaira pas, mais vous pourriez peut-être retirer la motion? Nous pourrons alors parvenir — je l'espère — à un consensus pour obtenir les ressources supplémentaires afin de commencer cette étude un peu plus tôt. Nous serions heureux de le faire. Nous pourrions en arriver à un consensus.
    La parole est à M. Perkins. Ce sera ensuite à M. Williams.
    Je vous remercie.
    Nous pouvons en discuter. Je tiens simplement à vous rappeler — et tout le monde le sait — que mardi et mercredi prochains, après la période de questions, ainsi que mercredi soir prochain à 19 h 30, des créneaux seront disponibles pour que les comités puissent tenir des réunions supplémentaires. C'est seulement une idée que je propose. Nous disposerons de ressources supplémentaires à ces moments‑là.
    Je vous remercie, monsieur Perkins.
    Monsieur Williams, allez‑y.
    C'est une discussion intéressante.
    Écoutez, nous voulons tous entendre les PDG. Je veux seulement savoir si la motion prévoit également d'inviter le ministre de l'Innovation dans le cadre de cette étude supplémentaire.
    Attendez un instant, monsieur Williams. Je n'ai pas le rapport du Comité sous les yeux. Je vais demander à la greffière.
    Oui, monsieur Williams, c'est ce que je pensais. On ne nomme pas expressément le ministre dans l'amendement, ou l'ajout, au rapport du sous-comité qui prévoit que nous accueillerons les PDG. Le texte de la motion principale présentée par M. Lemire ne fait pas mention du ministre, mais rien ne nous empêche de l'inviter à témoigner, si c'est la volonté du Comité dans le cadre de cette étude sur les télécommunications. Je suis tout à fait disposé à envoyer l'invitation au ministre et à son équipe.
    Si le Comité souhaite que le ministre participe à ces études, s'il souhaite aller de l'avant et utiliser les ressources dont nous disposons...
    Il ne manque qu'un élément ici, et c'est de faire rapport à la Chambre. Cela se trouve dans le corps du texte de cette motion. Bien entendu, c'est ce que je souhaite.
    Le point 4 du rapport du sous-comité indique que le Comité doit faire rapport de ses conclusions et de ses recommandations à la Chambre.
    D'accord. Si le Comité dégage un consensus, nous pourrons aller de l'avant avec les ressources nécessaires avant le 15, c'est juste?
    La greffière tâchera d'obtenir des ressources supplémentaires pour des réunions supplémentaires, et cela s'ajoute à ce que nous avons prévu pour le projet de loi C‑27 la semaine prochaine. Ensuite, nous voulons inviter les PDG des entreprises de télécommunications et le ministre à comparaître dans le cadre de cette étude sur les télécommunications.
    Très bien. Cela me convient.
    J'aimerais seulement préciser un point, parce que je parlais à la greffière lorsque cela a été mentionné. Pour ce qui est des PDG, voulez-vous qu'il n'y en ait qu'un seul par réunion ou par heure? Comment voulez-vous les répartir? Voulons-nous en accueillir deux par réunion ou quatre lors d'une seule réunion? Je veux simplement obtenir des précisions à ce sujet.
    Si nous avons deux réunions, nous accueillerions deux PDG par réunion.
    Ce serait deux PDG par réunion. Ils disposeraient d'une heure chacun. Cela me convient.
    Allez‑y, monsieur Masse.
    Je suis ouvert à à peu près tout. Je n'ai aucun problème à ce qu'ils soient tous les quatre devant nous pendant cette période.
    Il s'agirait de deux heures avec les quatre PDG.
    D'accord, il n'y a pas d'avis bien arrêtés à ce sujet...

  (1300)  

    Oui.
    ... alors je vais trouver une solution selon leur emploi du temps, leurs disponibilités et les ressources que nous pourrons obtenir. J'estime que nous sommes entre de bonnes mains avec notre greffière, Mme Burke, et je suis convaincu qu'elle trouvera une solution.
    Cela nous amène à la fin de la réunion.
    Monsieur Perkins, je sais que vous vouliez présenter des avis de motions. Pourriez-vous le faire à un autre moment? Nous avons écoulé nos deux heures pour cette réunion.
    Bien sûr. Nous pourrions peut-être en parler à la fin de notre prochaine réunion.
    Oui, nous réserverons du temps pour...
    Je parlerai peut-être avec quelques collègues d'ici là, pour voir si nous pouvons simplifier le tout.
    Cela me faciliterait la tâche. Je vous en serais très reconnaissant, monsieur Perkins.
    Merci beaucoup.
    La séance est levée.
Explorateur de la publication
Explorateur de la publication
ParlVU