Passer au contenu
Début du contenu

ETHI Réunion de comité

Les Avis de convocation contiennent des renseignements sur le sujet, la date, l’heure et l’endroit de la réunion, ainsi qu’une liste des témoins qui doivent comparaître devant le comité. Les Témoignages sont le compte rendu transcrit, révisé et corrigé de tout ce qui a été dit pendant la séance. Les Procès-verbaux sont le compte rendu officiel des séances.

Pour faire une recherche avancée, utilisez l’outil Rechercher dans les publications.

Si vous avez des questions ou commentaires concernant l'accessibilité à cette publication, veuillez communiquer avec nous à accessible@parl.gc.ca.

Publication du jour précédent Publication du jour prochain
Passer à la navigation dans le document Passer au contenu du document






Emblème de la Chambre des communes

Comité permanent de l'accès à l'information, de la protection des renseignements personnels et de l'éthique


NUMÉRO 146 
l
1re SESSION 
l
42e LÉGISLATURE 

TÉMOIGNAGES

Le jeudi 2 mai 2019

[Enregistrement électronique]

  (1530)  

[Traduction]

    La 146e séance du Comité permanent de l’accès à l’information, de la protection des renseignements personnels et de l’éthique est ouverte. Conformément au paragraphe 108(2) du Règlement, nous allons poursuivre l'étude des aspects éthiques de l’intelligence artificielle et des algorithmes.
    Au cours de la première heure, nous allons entendre, à titre personnel, M. Marc-Antoine Dilhac, professeur de philosophie à l'Université de Montréal, et M. Christian Sandvig, directeur du Center for Ethics, Society, and Computing de la University of Michigan.
    Aussi, comme vous le savez, nous allons tenir une discussion à huis clos, conformément à l'article 108 du Règlement. Il s'agit d'une séance d'information du légiste de la Chambre sur le pouvoir des comités de convoquer des témoins. Cette discussion suivra la première heure de nos travaux.
    Je donne donc la parole à M. Dilhac pendant 10 minutes.

[Français]

    Je vous remercie de m'inviter invité à vous faire part des réflexions en matière d'éthique de l'intelligence artificielle que nous avons formulées à Montréal.
    On m'a demandé de parler de la Déclaration de Montréal pour un développement responsable de l'intelligence artificielle, qui a été présentée en 2018. Je vais donc revenir sur ce document.
    Je vais d'abord vous exposer le contexte de façon très générale. La révolution technologique en cours modifie profondément la structure de la société, en automatisant le traitement administratif et les décisions qui concernent la vie de nos concitoyens. Elle change aussi l'architecture du choix en déterminant, par exemple, nos options par défaut. Elle transforme enfin les modes de vie et les mentalités avec la personnalisation des recommandations, l'accès à des conseils de santé en ligne automatisés, la planification des activités en temps réel, la prédiction, et ainsi de suite.
    Cette révolution technologique est une occasion sans précédent, me semble-t-il, d'améliorer les services publics, de corriger les injustices et de répondre aux besoins de chaque personne et de chaque groupe. Il faut donc saisir cette occasion avant que l'infrastructure numérique ne se mette complètement en place et ne nous laisse plus de marge de manoeuvre pour agir.
    Pour cela, nous devons d'abord établir les principes éthiques fondamentaux qui guident un développement responsable et durable de l'intelligence artificielle et des technologies numériques. Nous devons ensuite élaborer des normes, une réglementation et une législation appropriées. Avec la Déclaration de Montréal pour un développement responsable de l'intelligence artificielle, nous avons proposé un cadre éthique pour la réglementation du secteur de l'intelligence artificielle. Bien qu'elle ne soit pas contraignante, la Déclaration vise à orienter la normalisation, la législation et la réglementation en matière d'IA, ou intelligence artificielle. Par ailleurs, ce cadre éthique constitue un fondement pour les droits de la personne à l'ère numérique.
    Je vais expliquer rapidement comment nous avons élaboré cette déclaration. Cela présente probablement un intérêt pour la question de la délibération sur l'intelligence artificielle dans nos sociétés démocratiques. Ensuite, je présenterai rapidement son contenu.
    La Déclaration est d'abord un document qui est issu d'une consultation auprès de divers intervenants. C’est une initiative de l'Université de Montréal, qui a reçu le soutien des Fonds de recherche du Québec et du Canadian Institute for Advanced Research, ou CIFAR, dans le reste du Canada. Derrière cette déclaration, il y a un groupe de travail interuniversitaire multidisciplinaire en philosophie, en éthique, en sciences sociales, en droit, en médecine et, bien sûr, en informatique. M. Yoshua Bengio, par exemple, était membre de ce comité.
    Ce groupe universitaire a ensuite lancé, en février 2018, un processus de consultation citoyenne, afin de bénéficier de l'expertise de terrain des citoyens et des parties prenantes de l'IA. Il a organisé plus de 20 événements publics et ateliers de délibération pendant huit mois, principalement au Québec, à Montréal, à Québec, mais aussi en Europe, à Paris et à Bruxelles. Plus de 500 personnes ont participé à ces ateliers en personne. Le groupe a aussi organisé une consultation en ligne. Ce processus de consultation s'appuyant sur une méthodologie prospective appliquée à l'éthique, notre groupe a invité les participants aux ateliers à réfléchir aux enjeux éthiques à partir de scénarios prospectifs, c'est-à-dire de scénarios sur un avenir proche de la société numérique.
    Nous avons mis en place une consultation large, citoyenne et avec divers intervenants plutôt que la consultation des seuls experts pour plusieurs raisons. Je vais en évoquer rapidement trois.

  (1535)  

     La première raison est que l'IA se déploie dans toute la société et concerne tout le monde. Tout le monde doit pouvoir s'exprimer sur son déploiement. C'est une exigence démocratique.
    La deuxième raison est que l'IA pose des défis éthiques complexes qui mettent en jeu de nombreuses valeurs. Dans une société diverse et multiculturelle, les experts ne peuvent pas trancher eux-mêmes les dilemmes éthiques posés par le déploiement de l'intelligence artificielle. Si les experts peuvent clarifier les enjeux éthiques de l'IA et établir les conditions d'un débat rationnel, ils doivent concevoir les solutions en collaboration avec les citoyens et les parties prenantes.
    La troisième raison est que seul un processus participatif est en mesure de soutenir la confiance du public, nécessaire au déploiement de l'IA. Si nous voulons gagner la confiance de la population et lui donner de bonnes raisons de faire confiance aux acteurs de l'IA, nous avons le devoir d'impliquer le public dans la conversation sur l'IA. Ce n'est pas une condition suffisante, mais c'est une condition nécessaire de la confiance.
    Je dois ajouter que, si les acteurs de l'industrie sont très importants comme parties prenantes, il faut qu'ils cessent de vouloir écrire les principes éthiques à la place des citoyens et des experts, et les lois à la place des parlements. Cette attitude est très répandue, mais elle peut également nuire à l'établissement de la confiance du public.
    Parlons du contenu de la Déclaration. L'objectif de la consultation était double. Il s'agissait d'abord d'élaborer les principes éthiques et, ensuite, de formuler des recommandations en matière de politiques publiques.
    Le résultat de ce processus de participation est une déclaration très complète, comprenant 10 principes fondamentaux, 60 sous-principes ou propositions pour appliquer les principes, et 35 recommandations de politiques publiques.
    Les principes fondamentaux regroupent le bien-être, l'autonomie, la vie privée et l'intimité, la solidarité — ce dernier n'étant pas un principe que l'on retrouve dans d'autres documents —, la démocratie, l'équité, la diversité, la responsabilité, la prudence et le développement durable.
    Les principes ne sont pas classés par ordre de priorité. Le dernier principe n'est pas moins important que le premier et, selon les circonstances, un principe peut être considéré comme plus pertinent qu'un autre. Par exemple, si la vie privée est en général considérée comme une question de dignité humaine, le principe de vie privée peut être assoupli à des fins médicales si deux conditions sont remplies: cela doit contribuer à améliorer la santé des patients — le principe de bien-être —, et la collecte et l'utilisation des données personnelles doivent être soumises au consentement individuel — le principe d'autonomie.
    La Déclaration n'est donc pas une simple liste de contrôle, mais elle permet d'établir des normes et des listes de contrôle en fonction des secteurs d'activités. Ainsi, le régime de la vie privée ne sera pas le même en fonction du secteur, par exemple si c'est un secteur médical ou si c'est un secteur bancaire.
    Cette déclaration constitue aussi une base pour concevoir des normes juridiques, comme les lois.
    D'autres déclarations similaires, comme la Déclaration d'Helsinki en bioéthique, sont des déclarations non contraignantes comme la nôtre. Notre déclaration énumère simplement des principes que les acteurs du développement de l'IA devraient s'engager à respecter. Pour nous, il s'agit maintenant de travailler à la transposition de ces principes dans des normes industrielles qui touchent aussi le déploiement de l'intelligence artificielle dans les administrations publiques.

  (1540)  

     Nous travaillons également à la transposition de ces principes en droits de la personne pour la société numérique. C'est ce que nous allons essayer d'établir au moyen d'une consultation citoyenne, que nous espérons mettre en place dans l'ensemble du Canada.
    Je vous remercie.

[Traduction]

    Merci beaucoup, monsieur Dilhac.
    Monsieur Sandvig, vous avez maintenant 10 minutes.
    Allez-y.
    Je suis heureux d'avoir l'occasion de m'adresser au Comité. Afin de mettre mes commentaires en contexte avant d'entrer dans les détails, j'aimerais d'abord confirmer que je me réjouis de voir le Comité tenir ces séances en cette période. Actuellement, les conséquences néfastes que pourraient avoir ces systèmes, c'est-à-dire l'intelligence artificielle et les algorithmes, suscitent de plus en plus d'inquiétude.
    J'ai cru bon d'utiliser ma déclaration d'ouverture pour vous donner un aperçu de ce que pourraient faire les gouvernements dans les circonstances. Ce que je souhaite, c'est discuter de cinq volets que j'estime être les plus emballants pour les communautés de chercheurs et de praticiens de même que pour les décideurs dans ce domaine à l'heure actuelle. Je vous présente donc mon évaluation de ces cinq volets. Vous avez déjà traité, de façon préliminaire à tout le moins, de bon nombre de ces volets dans vos rapports précédents, mais je crois pouvoir apporter des précisions.
    Les cinq volets en question sont la transparence, les solutions structurelles, les solutions techniques, l'audit et le concept d'une agence de réglementation indépendante.
    Commençons par la transparence. Les centres d'automatisation algorithmique et l'idée de l'équité par la transparence sont de loin les aspects qui suscitent le plus d'enthousiasme chez les praticiens et les décideurs à l'heure actuelle. Je dois vous avouer que je suis plutôt dubitatif par rapport à ces travaux. Bon nombre des problèmes qui nous préoccupent dans ce volet de l'intelligence artificielle et en matière de transparence ne peuvent tout simplement pas se résoudre grâce à la transparence. Par exemple, nous sommes rarement certains que des gestes isolés permettent de résoudre les problèmes; donc, la divulgation de quelque information que ce soit à diverses personnes ne contribue pas hors de tout doute à améliorer une situation problématique.
    Un problème lié à une plateforme de médias sociaux, par exemple, pourrait exiger l'expertise nécessaire à la compréhension du risque. La divulgation est en quelque sorte une forme de régression ici, car elle demande un certain temps ainsi que l'expertise adéquate pour réfléchir aux particularités parfois très pointues et complexes d'un système donné. De plus, la personne n'est peut-être pas du tout en mesure de percevoir le risque.
    Un des fondements de la transparence veut que ce qui est divulgué corresponde aux conséquences néfastes que l'on espère repérer et éviter. Mais notre capacité à assurer cette concordance entre ce qui doit être divulgué et ce que l'on espère éviter n'est pas claire.
    Parfois, la transparence fait office de tactique employée pour associer l'information divulguée au public ciblé. C'est souvent une lacune des débats actuels sur la transparence et l'intelligence artificielle. On ne sait pas avec certitude quel public cibler pour favoriser la compréhension des détails divulgués sur ces systèmes. Il semble nécessaire de cibler des experts, mais nous ne savons pas exactement lesquels, sans compter la nature très chronophage de la déconstruction de ces systèmes.
    Les algorithmes n'ont souvent aucune valeur sans les données, et les données n'ont souvent aucune valeur sans les algorithmes, ce qui est un problème fondamental propre à ce domaine et qui est parfois éludé dans d'autres discussions. Donc, il est possible que, en divulguant des données, une situation inscrite dans l'algorithme qui pose problème sur le plan éthique ou sociétal nous échappe complètement et vice versa.
    C'est la taille qui pose problème si vous avez besoin à la fois des données et de l'algorithme. Il est souvent difficile d'un point de vue pratique de gérer une divulgation d'une telle ampleur ou d'établir ce que vous ferez avec ces renseignements. Bien sûr, les données sont aussi continuellement mises à jour dans bien des systèmes.
    Au bout du compte, je crois que vous aurez relevé mon pessimisme par rapport à bien des propositions en matière de transparence. En fait, il est important de noter que, lorsque des gouvernements adoptent des exigences en matière de transparence, celles-ci peuvent souvent être contre-productives dans ce domaine parce qu'elles donnent l'impression qu'il s'est produit un incident, mais en l'absence d'un mécanisme efficace de reddition de comptes et de suivi qui assure ladite transparence, il est possible que rien n'ait vraiment eu lieu. Donc, la transparence peut en réalité être néfaste.

  (1545)  

    Les labels d'ensembles de données sont un exemple de proposition en matière de transparence qui a généré beaucoup d'enthousiasme récemment. Ils sont en quelque sorte comparables à l'étiquetage alimentaire, un peu comme si on fournissait la valeur nutritive d'un ensemble de données ou quelque chose du genre. Il y a des idées intéressantes. Il y aurait une description des biais ou des ingrédients qui ont une provenance inhabituelle — d'où viennent ces données? —, mais la métaphore implique que des ingrédients contaminés donnent de la nourriture contaminée. Malheureusement, vu les systèmes en IA, ce n'est pas une bonne métaphore, parce que l'application des données et leur incidence sur le monde sont rarement évidentes sans précisions sur leur utilisation ni mise en contexte.
    Le droit à l'explication, qui est souvent abordé, est une autre idée attrayante et enthousiasmante dans la sphère de la transparence. Je suis d'accord qu'il s'agit d'une idée attrayante, mais il est rarement évident que l'explication s'applique aux processus. Même un processus assez simple — il n'est pas nécessaire qu'il soit informatique; ce pourrait être le processus à partir duquel vous avez décidé de joindre la Chambre des communes — peut se traduire par une décision qui tient compte de beaucoup de facteurs, et simplement en citer quelques-uns ne permet pas d'illustrer toute la complexité du processus décisionnel. C'est la même problématique avec les systèmes informatiques.
    Le deuxième volet majeur que je veux aborder est celui des solutions structurelles. Je crois que le sujet a été bien traité dans le rapport précédent du Comité, alors je m'en tiendrai à quelques commentaires.
    L'idée d'opter pour une solution structurelle peut découler du fait que, compte tenu du très petit nombre d'entreprises dans certains de ces secteurs, surtout celui des médias sociaux, nous pourrions nous servir de la politique antitrust ou sur la concurrence pour mettre un terme au monopole. Ainsi, en changeant la structure et les incitatifs au sein du secteur, on pourrait remédier à certaines des conséquences néfastes envisagées pour ces systèmes.
    Je crois que de changer les incitatifs au sein d'un secteur pour remédier aux problèmes envisagés est une idée assez prometteuse, mais comme le précise votre rapport, l'application de telles économies d'échelle dans ces plateformes est rarement évidente. Sans un mécanisme assez strict d'interopérabilité des systèmes, on ne sait pas vraiment de quelle façon un nouvel acteur dans le milieu des médias sociaux ou de l'intelligence artificielle — ou essentiellement dans tout secteur où de grands dépôts de données sont nécessaires — serait efficace.
    Je pense que l'une des choses les plus emballantes par rapport à ce volet est l'idée d'une alternative publique dans quelques secteurs. Certains ont parlé d'une alternative publique aux médias sociaux, quoique la taille nécessaire demeure un problème, tout comme l'effet de réseau, alors je présume que l'on peut résumer sur ce point en disant que nous sommes enthousiastes par rapport à son potentiel, mais que nous ne savons pas exactement de quelle façon procéder à un changement structurel.
    Un exemple de changement structurel qui réjouit beaucoup de gens et qui est moins ambitieux, c'est la proposition d'obligations fiduciaires en matière de renseignements, où le gouvernement peut réglementer un incitatif différent simplement en l'exigeant. C'est un peu difficile à imaginer, parce que l'efficacité de ces propositions semble optimale quand elles s'appliquent à un domaine très encadré, comme la médecine ou le droit.
    Le troisième volet que je souhaite aborder est celui d'une solution technique aux problèmes posés par l'IA et les algorithmes. Beaucoup de travaux portent actuellement sur la création d'un système tout à fait objectif ou équitable en partant du principe qu'il s'agit essentiellement d'un problème technique. Bien qu'il soit tout à fait plausible de concevoir de tels systèmes plus efficaces à certains égards que les systèmes actuels, ce n'est pas, en réalité, un problème technique.
    Certains exemples mis de l'avant dans ce volet comprennent l'idée d'un sceau d'approbation pour les systèmes qui répondent à un type de norme, ce qui serait possible grâce à des mises à l'essai et à un processus d'homologation. C'est certes un aspect emballant, mais seulement une série restreinte de problèmes pourraient être systématiquement mis à l'essai et, techniquement, résolus. Dans les faits, il s'agit de problèmes sociétaux, comme l'a dit le témoin précédent.
    Le quatrième volet est celui de l'audit, qui a été brièvement abordé dans le dernier rapport du Comité, d'après ce que j'ai vu. C'est mon idée préférée. Elle découle en fait des travaux menés pour cerner la discrimination raciale dans les domaines du logement et de l'emploi. L'idée d'un audit repose sur deux vérificateurs qui sont envoyés chez un propriétaire à peu près en même temps et qui demandent à louer un appartement. Ils vérifient ensuite s'ils ont obtenu la même réponse et, si ce n'est pas la même, c'est que quelque chose cloche.

  (1550)  

    Ce qui est enthousiasmant par rapport à la vérification, c'est qu'il n'est pas nécessaire de connaître l'état d'esprit du propriétaire ni de l'expliquer. On établit seulement que quelque chose ne va pas. Les législatures peuvent accomplir beaucoup de choses dans le domaine de la mise à l'essai. Elles peuvent protéger les tierces parties qui souhaitent enquêter sur ces systèmes ou créer des processus semblables aux programmes de repérage de bogues ou bug bounty, où les récompenses seraient liées à l'équité ou à la justice. Selon moi, c'est l'aspect le plus prometteur à partir duquel les gouvernements peuvent intervenir.
    Enfin, je conclurai en vous mentionnant simplement les discussions qui ont cours sur la création d'une nouvelle agence, d'une agence administrative judiciaire voire d'une commission, pour traiter des questions liées à l'IA. Cette idée me paraît intéressante, mais ne fait que reporter à plus tard bon nombre des points que j'ai soulevés dans ma déclaration. Nous pouvons souvent imaginer une telle agence se charger de certains des points que j'ai abordés, ce qui mène à la question suivante: quelles sont les particularités de ce secteur qui exigent des processus qui ne sont pas ceux dont nous disposons déjà avec la législature et la branche judiciaire, c'est-à-dire les tribunaux? On a avancé que c'est l'expertise qui la distingue du reste, mais cela ne tient pas la route, car on peut souvent voir des législatures on ne peut plus traditionnelles adopter des règles applicables à des domaines fort complexes.
    Je vais m'arrêter là. Je serais heureux de répondre à vos questions.
    Merci beaucoup à vous deux pour vos témoignages.
    Nous allons commencer les interventions de sept minutes, à tour de rôle.
    Je cède la parole à Mme Vandenbeld.
    Merci beaucoup, monsieur le président, et aussi à vous deux, pour vos exposés très pertinents.
    Un des points que j'aimerais clarifier — en fait, monsieur Dilhac, vous l'avez mentionné quand vous avez parlé de l'inclusion de la société civile —, c'est que la plupart des gens comprennent très mal ce domaine; je parle de gens qui ne sont pas des experts, quoique ce soit aussi le cas de certains experts, j'imagine.
    Avant toute chose, il y a des mythes très répandus dans la culture populaire sur l'intelligence artificielle qui datent de plusieurs décennies déjà. Beaucoup de gens ne savent pas à quel point cette technologie est déjà présente dans notre quotidien. Si vous avez des systèmes où la société civile, des législateurs ou des personnes qui ne sont pas des experts techniques participent à sa supervision, comment pouvez-vous vous assurer que vous ne reproduisez pas et n'amplifiez pas tout simplement les biais déjà présents dans ces systèmes et au sein de la population?

[Français]

     Je vous remercie de cette excellente question.
    Il n'y a pas de solution miracle.
    L'idée est de faire travailler ensemble la société civile, les experts en informatique, en éthique et en sciences sociales en général, de même que les parties prenantes de l'industrie. Il n'y a pas qu'une seule expertise qui soit utile. C'est en regroupant les divers experts, au moyen de processus de dialogue entre ceux-ci, qu'on parviendra à réduire les idées préconçues et les préjudices potentiels, à l'égard, notamment, des personnes les plus vulnérables. La raison en est que la discussion entre ces experts permettra tout simplement de rationaliser le débat. C'est peut-être une idée préconçue de philosophe de croire à la rationalisation du débat. Cependant, dans le cadre d'assemblées au Parlement ou avec des citoyens dans une bibliothèque — on a fait cela beaucoup dans des bibliothèques publiques —, le dialogue permet de rationaliser les arguments et donc de repérer les préjugés dans nos arguments. C'est vraiment cette collaboration qui est importante.

  (1555)  

[Traduction]

    Monsieur Sandvig, vous souhaitez ajouter quelque chose?
    La réponse de mon collègue me satisfait.
    Merci.
    Pour revenir à ce que vous avez dit sur la transparence, monsieur Sandvig, parce que c'est quelque chose dont ce comité a beaucoup entendu parler, si l'on sait d'où viennent les données et l'on comprend comment fonctionnent les algorithmes, cela permettrait une certaine surveillance, comme c'est le cas dans bien d'autres domaines.
    Vous avancez que la transparence à elle seule n'aurait pas vraiment cette incidence. Pour qu'il y ait des vérifications et la présence d'un organe de réglementation, il est évident que les renseignements doivent être accessibles, même si vous deviez les vérifier. Donc, nous aurions besoin de transparence, mais de telle façon que l'on sache qui va réellement en faire l'examen, c'est bien cela? Ou est-ce le public en général, la société civile, qui en serait responsable?
    Merci beaucoup pour cette question, parce que je pense qu'elle a souligné une faiblesse de mon explication.
     Dans la documentation liée aux sciences sociales, on utilise le terme « audit », mais pas au sens financier. Ce terme désigne simplement le processus que j'ai décrit dans lequel deux vérificateurs, par exemple un Noir et un Blanc, ou une femme et un homme, demandent à un propriétaire de leur louer une chambre ou à un employeur de leur donner un emploi. Ils appellent cela un audit, mais cela porte à confusion, car les autorités fiscales réalisent également un audit, qui est quelque chose de tout à fait différent.
    Je pense que je trouve les audits intéressants parce qu'on peut les réaliser sans transparence. Souvenez-vous que j'ai dit qu'on ne pouvait pas voir à l'intérieur du cerveau du propriétaire. C'est pourquoi les audits sont intéressants. Nous pouvons réaliser des audits sur les plateformes comme Facebook et Google sans transparence, en protégeant simplement les tiers comme les chercheurs, les journalistes d'investigation et les organismes de la société civile, comme les ONG, qui souhaitent savoir si ces systèmes causent des torts. Pour ce faire, dans mon exemple, ils joueraient le rôle de vérificateurs. Ils agiraient en tant qu'utilisateurs des systèmes et compileraient ensuite ces données pour repérer toute tendance inquiétante.
    Ceci présente toutefois quelques inconvénients. Par exemple, vous pourriez devoir mentir. Les auditeurs mentent. Les gens qui demandent une chambre à un propriétaire ne veulent pas en louer une; ce sont des vérificateurs qui travaillent pour une ONG ou un organisme gouvernemental. Vous pourriez donc avoir à mentir; vous pourriez devoir faire perdre du temps au propriétaire, mais pas beaucoup.
    Habituellement, sur les systèmes comme les grandes plateformes Internet, il est difficilement imaginable qu'un audit puisse être détecté. Cependant, il est possible que vous fournissiez de faux renseignements qui entreront dans le système d'une façon ou d'une autre, parce que vous ne cherchez pas réellement un emploi; vous réalisez simplement un audit. Il y a assurément des inconvénients.
    Comme je l'ai mentionné, vous avez aussi besoin d'un système pour continuer... une fois que votre audit vous a permis de repérer un problème. Par exemple, si vous constatez quelque chose d'inquiétant, vous aurez alors besoin d'un autre mécanisme, comme une procédure judiciaire, exigeant la divulgation de certains renseignements. Vous pourriez dire que la transparence intervient plus tard, dans le cadre d'un autre processus, si vous souhaitiez réellement comprendre comment le système fonctionne. Vous n'aurez peut-être toutefois jamais besoin de comprendre. Il se peut que vous n'ayez qu'à détecter un danger et à dire à l'entreprise qu'elle doit remédier au problème. Ce sera ensuite à elle de s'en charger.
    C'est pourquoi je suis emballé par l'audit. Il permet de contourner les problèmes de transparence.
    Monsieur Dilhac, allez-y.

[Français]

     Oui, je pourrais ajouter quelque chose.
    Je suis tout à fait d'accord sur ce qui vient d'être dit concernant la transparence. Je crois que nous surestimons la transparence. Le mécanisme qui consiste à tester les algorithmes est probablement la meilleure manière de procéder pour découvrir les problèmes.
    Néanmoins, j'utiliserai le terme « audit » dans les deux sens, d'abord au sens qui vient d'être dit, ensuite dans un sens où il s'agit de faire appel aux algorithmes, qui seraient utilisés par des autorités compétentes pour repérer les paramètres problématiques d'une décision. Nous pourrions nous servir des deux, mais, dans un premier temps, je crois que la solution qui a été proposée précédemment est une excellente manière de procéder.

  (1600)  

[Traduction]

    Merci.
    Nous avons ensuite M. Kent, pour sept minutes.
    Merci, monsieur le président.
    Merci à vous deux d'être présents aujourd'hui.
    Monsieur Sandvig, en ce qui concerne la réglementation, de nombreux observateurs externes, qui sont pour beaucoup préoccupés par ce qu'ils lisent, par ce qu'ils entendent au sujet de l'utilisation d'algorithmes et de l'IA, peuvent se sentir — et après avoir entendu certains des témoignages, par exemple ceux sur Cambridge Analytica, sur le monopole des données utilisées par l'IA pour influencer et orienter l'attitude des consommateurs, les attitudes sociales, etc., je pense parfois... N'est-il pas un peu tard pour renverser un peu la vapeur en ce qui concerne la réglementation? Peut-on abroger la réglementation concernant certaines des applications inappropriées ou contraires à l'éthique de l'IA et des algorithmes faites à ce jour?
    Je vous pose la question à tous les deux, mais j'aimerais que M. Sandvig y réponde en premier.
    Avant d'entreprendre des études supérieures, j'étais ingénieur en logiciel, et le souvenir que je conserve de cette époque correspond à ce que beaucoup de commentateurs disent maintenant: le génie logiciel n'a pas de culture de sécurité. Ce domaine ne dispose pas d'une culture comparable, par exemple, à celle du transport aérien.
    Je suppose que la question est de savoir si nous pouvons envisager de changer quelque chose d'important qui s'est déjà produit. Vous avez mentionné les révélations récentes liées à Facebook et au scandale de Cambridge Analytica. Pouvons-nous envisager de remplacer quelque chose qui semble extrêmement mauvais par quelque chose qui semble extrêmement sûr?
    Encore une fois, j'ai utilisé l'exemple du transport aérien, mais je pense que c'est possible... Je veux dire que je ne pense pas que les frères Wright avaient une culture de sécurité. La réglementation gouvernementale a commencé lentement et s'est développée. Notre industrie est réglementée, et nous estimons maintenant — à l'exception, peut-être, du Max 8 — que cette industrie est sûre. Nous ne sommes pas préoccupés par le transport aérien.
    Je pense que nous devons aller dans le même sens pour ces industries. Nous devons savoir quand le gouvernement doit assurer la sécurité du public, et nous pouvons le faire pour les médias sociaux, car nous l'avons fait pour d'autres domaines qui présentaient des dangers.
    Vous avez donné l'exemple du 737 Max 8. Le problème est-il lié à un manque de vérification après la première tragédie?
    Une audience sur la sécurité aérienne... excusez-moi, mais je vais répondre que je ne suis pas sûr. Je pense qu'en général, le fait que les gens se sentent à l'aise avec l'idée de voyager en avion, malgré les Max 8, est le facteur principal. Je pense qu'on pourrait imaginer quelque chose de ce genre pour les plateformes des médias sociaux ou l'intelligence artificielle.
    Nous en sommes actuellement très loin. Je ne veux donc absolument pas minimiser votre inquiétude. Des reportages récents montrent que bon nombre de ces entreprises sont au plus bas en ce qui concerne la confiance des consommateurs dans leurs opérations ou la satisfaction de la clientèle, et je veux dire très en dessous de n'importe quelle autre industrie. Nous examinons certaines des industries les plus détestées.
    Monsieur Dilhac, allez-y.

[Français]

     Dans la Déclaration de Montréal pour un développement responsable de l'intelligence artificielle, par exemple, un des principes est la prudence. L'idée derrière cela, c'est d'affirmer qu'il y a des critères de sécurité et de fiabilité des algorithmes, mais pas seulement des algorithmes. Je voudrais un peu étendre le thème des algorithmes, parce que la façon dont l'algorithme est mis en place dans un système est importante.
    Il y a tout un système qui entoure un algorithme, comme d'autres algorithmes, des bases de données et l'utilisation dans un contexte précis. Dans le cas d'une plateforme, c'est facile, puisque c'est un utilisateur individuel derrière son écran. Cependant, quand il s'agit d'un avion ou d'une entreprise complexe, il faut prendre en compte l'ensemble du système.
    Ici, la fiabilité en cause est celle du système et pas seulement de l'algorithme. L'algorithme fait son travail. La question est de savoir comment on utilise les données, quels types de décisions sont rendues et quel est le contrôle humain sur ces décisions ou sur les prédictions. De ce point de vue, il me paraît extrêmement important que les systèmes algorithmiques — pas simplement un algorithme — puissent faire l'objet d'audits. Je parle d'audits au sens où on regarde vraiment dans l'architecture du système pour trouver ses possibles défaillances.
    Dans le cas des avions, puisque vous avez mentionné ces deux catastrophes aériennes tragiques, on doit, par exemple, s'assurer à l'avance que les êtres humains gardent le contrôle, quand bien même ils pourraient faire des erreurs. Là n'est pas la question: les êtres humains font des erreurs. C'est précisément pour cela qu'on met aussi en place des aides algorithmiques. Toutefois, dire que l'erreur appartient encore à l'être humain et qu'il y a encore un contrôle humain dans la machine, cela fait partie des choses dont on doit discuter. Cependant, c'est assurément un sujet essentiel pour repérer les problèmes dans un système algorithmique.

  (1605)  

[Traduction]

    Merci.
    En ce qui concerne l'audit social du développement et des algorithmes de l'IA, nous avons vu l'incidence négative que cela a eue sur les chaînes de montage, par exemple, ou sur la main-d'œuvre, lorsque certaines entreprises s'empressent d'adopter des technologies fondées sur l'IA pour sauver leur plan d'affaires ou optimiser de nouveaux bénéfices. Que pensez-vous tous les deux de l'acceptabilité ou de la nécessité d'une certaine réglementation sociale visant à assurer la stabilité sociale dans des secteurs importants de la population active?
    M. Dilhac peut commencer.

[Français]

    Il est très difficile d'orienter les changements sociaux au moyen de lois ou de règlements. Quand on parle de révolution technologique, il faut prendre au sérieux le mode de révolution. Comme on l'a dit, il y a un changement structurel. Vouloir orienter une transformation de cette nature ne me paraît pas raisonnable. Ce qui me paraît raisonnable, c'est de mettre en place des mécanismes de formation pour que les transformations de la société numérique puissent inclure toutes les personnes qui doivent changer de compétences.
    L'idée n'est pas de mettre plus de pression sur les entreprises pour les empêcher de remplacer des êtres humains par des algorithmes. On peut le regretter, et je le regrette, mais ce n'est pas la meilleure manière de procéder. En revanche, le gouvernement pourrait mettre en place des mécanismes de formation pour accompagner les gens dans la transformation de leurs compétences.

[Traduction]

    Pour ce qui est de la révolution technologique...
    Désolé, vous avez largement dépassé votre temps.
    C'est maintenant au tour de M. Julian, pour sept minutes.

[Français]

    Merci beaucoup, monsieur le président.
    Je remercie aussi nos invités.
    Je suis désolé d'arriver un peu en retard. Je n'ai pas eu l'occasion d'entendre leurs présentations. Je m'excuse donc à l'avance si je pose des questions auxquelles ils ont déjà répondu pendant leurs présentations.
    Ma première question concerne la loi et le cadre réglementaire en matière d'intelligence artificielle. Le Canada devrait-il se doter d'un cadre réglementaire pour encadrer l'utilisation éthique de l'intelligence artificielle? Pouvez-vous nommer des pays où des gouvernements, que ce soit à l'échelle nationale ou régionale, qui ont mis en place des lois et un cadre réglementaire concernant l'utilisation de l'intelligence artificielle?
    Ma question s'adresse à vous deux, mais M. Dilhac peut répondre en premier.

  (1610)  

    Il y a de nombreuses initiatives de réglementation dans le monde. L'Union européenne vient de produire un cadre éthique et normatif qui s'accompagne de recommandations et de listes d'évaluation. Il est cependant rare que l'on passe au cadre législatif.
    Dans le cas de certaines activités et de certains secteurs, le cadre législatif peut être pertinent. Le Canada peut régir certaines activités relatives aux algorithmes. On pense aux données, évidemment, puisque c'est ce qui nourrit les algorithmes. Il faut adopter une loi pour créer un régime susceptible de régir l'utilisation des données.
    Il faut également adopter des lois en ce qui a trait à l'éducation afin de déterminer jusqu'à quel point on veut que l'éducation soit robotisée. Cela s'en vient petit à petit, et, le jour où ce sera là, il sera un peu trop tard pour légiférer.
    Je vous donne un exemple. Quand un robot suit le parcours d'un élève, il prend des décisions qui suivront ce dernier. Je parle ici de « robot » parce que l'interface est robotique, mais ces décisions sont en fait fondées sur des algorithmes. La question est de savoir jusqu'où l'on veut enfermer un élève dans un parcours dont la progression est établie ou évaluée à tout moment par un algorithme.
    Je m'excuse de vous interrompre, mais je ne comprends pas. Vous parlez d'un robot qui suit un élève ou un étudiant, mais à quoi sert le robot dans l'exemple que vous donnez?
    Vous me demandez à quoi sert le robot?
    Oui.
    Il permet de personnaliser l'éducation. Si un étudiant a des difficultés, l'algorithme est capable de les repérer très rapidement et d'adapter le contenu de l'enseignement à l'étudiant. C'est une grande avancée technologique. Le Canada et l'Amérique du Nord en général ont encore un peu de retard relativement à cette technologie déjà bien implantée en Asie, en Chine et en Corée du Sud. Je vous parle d'exemples de ce qui viendra bientôt. Si j'y pense, c'est parce qu'un sommet du numérique en éducation s'est tenu récemment à Montréal, lequel regroupait plus de 1 500 personnes.
    Je vous donne un dernier exemple. À qui les décisions doivent-elles incomber? C'est aux législateurs de se prononcer après une large consultation, tout comme les médecins ont la responsabilité de limiter les risques quand ils posent un diagnostic et qu'ils prescrivent un traitement.
    Ce ne sont que quelques exemples, mais il y en a beaucoup d'autres.
    Merci beaucoup.
    M. Sandvig, quel est votre avis?

[Traduction]

    Je pense que je suis d'accord avec les remarques faites par mon collègue.
    Je pourrais ajouter qu'il est difficile de prévoir un texte de loi précis, en partie parce que nous n'avons pas défini de façon précise ce que nous entendons par intelligence artificielle. Ce terme est très vague et couvre toutes sortes de choses. C'est même le cas des idées qui nous préoccupent particulièrement au sujet de l'IA, comme l'apprentissage machine... Il s'agit d'un terme vague qui couvre une variété d'approches très différentes.
    L'une des difficultés pour nous est la réussite de l'informatique, parce que les logiciels qui ressemblent à de l'intelligence artificielle sont très variés et sont présents dans toutes sortes de domaines. Je pense qu'il est plus probable que l'on crée une loi qui traitera d'un contexte et d'une utilisation de la technologie spécifiques, et non d'un principe général.
    L'un de mes collègues m'a dit que nous nous trouvions au « point culminant du livre blanc ». Il est possible que nous nous approchions également du point culminant des principes. Il existe de nombreux énoncés de principes, et ceux-ci sont utiles. Je pense cependant que nous devons nous pencher sur des situations précises au lieu de légiférer sur l'ensemble de l'IA, parce que je ne sais tout simplement pas comment cela serait possible. Il existe cependant quelques exceptions. Dans certains domaines, nous pourrions créer une loi globale utile.
    Par exemple, ce comité a réalisé un travail important relativement au scandale de Cambridge Analytica dans son rapport précédent. Pour de nombreux pays dans le monde, l'une des difficultés liées à ce scandale était qu'ils avaient adopté une approche de la communication en vertu de laquelle les plateformes des médias sociaux ne faisaient pratiquement rien. Comme vous le savez, de nombreux gouvernements accordent l'immunité en matière de responsabilité aux plateformes en ligne ou aux entreprises de médias sociaux en tant qu'intermédiaires... Ils l'ont fait de façon très généralisée. On pourrait dire qu'il s'agit d'une grave erreur commise par les États-Unis.
    Il s'agit d'un domaine dans lequel une loi touche une grande partie de l'activité, parce qu'elle concerne toute utilisation d'ordinateurs visant à agir en tant qu'intermédiaire entre les humains. Le fait d'accorder l'exonération de toute responsabilité semble être une mauvaise idée.
    Il existe des domaines dans lesquels on pourrait prendre des mesures législatives générales, mais je pense qu'ils sont rares. Il est plus probable que l'on adopte des approches propres à un domaine.

  (1615)  

    Merci.
    La parole va maintenant à M. Erskine-Smith, pour sept minutes.
    Merci à vous deux.
    La dernière réponse est une bonne transition vers la réglementation qui pourrait être appliquée de façon plus générale. L'algorithme du Règlement général sur la protection des données peut tout à fait être expliqué, et le droit à l'explicabilité a été mentionné dans certaines des observations préliminaires.
    Ce comité a recommandé un certain niveau de transparence et la capacité d'un organisme de réglementation d'examiner de temps à autre les mécanismes pour déterminer si cette transparence est suffisante.
    Monsieur Sandvig, vous avez exprimé un certain scepticisme à propos de la transparence, bien qu'il s'agisse, à mon avis, de la première mesure à appliquer de façon plus générale, car l'étape suivante pourrait devoir être sectorielle.
    Je veux parler davantage du scepticisme à l'égard de la transparence. Vous n'avez pas mentionné les évaluations d'impact algorithmiques dans vos remarques préliminaires. Je me demande si le travail approfondi qui est actuellement consacré à la formulation d'évaluations d'impact algorithmiques constitue une réponse mieux adaptée en matière de transparence.
    Je vais demeurer dubitatif au sujet de la transparence parce que je pense que les évaluations d'impact algorithmiques ne constituent pas une proposition de transparence. Je pense que, comme l'indique leur titre, ces évaluations sont inspirées des évaluations d'impact environnemental. La production de ces évaluations exige peut-être des éléments de transparence, mais je pense que je ne les ai pas mentionnés dans cette section, en partie parce que je ne considère pas qu'il s'agisse principalement d'une approche axée sur la transparence.
    Je me ferai cependant un plaisir de vous donner plus de raisons d'être dubitatif au sujet des évaluations d'impact algorithmiques. J'estime que le problème est que nous pourrions classer les effets négatifs des algorithmes et de l'IA en deux groupes. Le premier groupe comprend les effets que l'on pourrait considérer comme prévisibles et l'autre, les effets imprévisibles. J'ai bien peur que le deuxième groupe ne soit assez important. Les évaluations d'impact algorithmiques que j'ai vues tiennent vraiment pour acquis qu'il est possible de réaliser une évaluation. Quand on examine un grand nombre de scandales liés aux systèmes informatiques, à l'intelligence artificielle et aux systèmes algorithmiques, un certain nombre de scandales — bien que ce ne soit pas toujours le cas — semblent concerner des choses que personne n'aurait souhaitées. Il se peut qu'un processus d'évaluation d'impact ait amené ou obligé le concepteur à réfléchir plus attentivement au système et à en produire un autre, mais il se peut aussi qu'il soit difficilement imaginable que certains des résultats que nous obtenons aient été prévus. C'est ce qui m'inquiète.
    Permettez-moi d'intervenir.
    Vous devez reconnaître qu'il se trouve là un élément de transparence. Je vous donne un exemple. Actuellement, dans le secteur public — et c'est très récent dans l'administration fédérale —, tout ministère qui a recours à la prise de décisions automatisée doit répondre à un questionnaire d'environ 80 questions. D'après les réponses, on leur attribue, relativement au risque, une cote de 1 à 4.
    Ensuite, il y a des mesures à prendre, des avis supplémentaires à donner. Le ministère doit faire revoir le travail par des spécialistes de la discipline, mais, dans l'évaluation initiale d'impact, des questions portent sur l'objectif de la prise automatisée de décisions qu'il se propose d'employer et sur ses éventuelles répercussions dans un domaine particulier, comme les droits individuels, l'environnement ou l'économie.
    Nous pourrions discuter du caractère général du processus et de sa perfectibilité, mais il semble, d'une part, assurer un mécanisme de transparence en exigeant la divulgation de l'objectif de l'algorithme et, éventuellement, des intrants, des coûts et des avantages de l'algorithme ainsi que des éventuels externalités et risques. Ensuite, selon les résultats de cette évaluation, des mécanismes supplémentaires de responsabilisation pourraient s'appliquer.
    Si vous n'êtes pas encore allé voir, ma question serait la suivante: Dans l'examen plus détaillé du modèle canadien destiné au secteur public, est-ce une condition qu'on pourrait transcrire et traiter davantage comme un dépôt de document relatif à des valeurs mobilières — c'est-à-dire que ce sera requis pour les entreprises du secteur privé d'un certain niveau, et, en cas de non-conformité, par exemple exclusion, délibérée ou par négligence, de modalités essentielles, des peines sont prévues? Est-ce que ça suffirait pour satisfaire au moins aux conditions de base de la responsabilité de transparence, en général, avant d'entrer dans les règlements propres à chaque secteur?

  (1620)  

    Je suis absolument d'accord pour dire que la transparence a un rôle quelque part. Je crains seulement que cette proposition n'en promette plus, je pense, qu'elle n'est pas capable d'en tenir.
    Très bien.
    Je suis donc d'accord.
    Voyons un exemple particulier. Pour certains algorithmes qui préoccupaient votre comité, quand il a rédigé son rapport antérieur, nous savons qu'il existe déjà des brevets qui en exposent de façon générale le mode de fonctionnement.
    Par exemple, voyez le fil de nouvelles de Facebook, qui, d'après les divulgations déjà faites, se vantait que ses calculs se fondaient sur trois facteurs. Au fil des ans, c'est passé à des dizaines de facteurs, puis à des centaines. Je pense que nous nous trouvons maintenant à plus de 300. Leur divulgation comporte une certaine utilité, mais il n'est pas clair qu'il y en ait tant, parce que...
    Mais je suppose que je ne voulais pas dire que ça ne se bornait pas à la divulgation des facteurs. M. Richard Allan, le vice-président de la politique mondiale, dans son témoignage devant notre comité international, à Londres, l'automne dernier, a dit, vous savez, si le discours franchit la ligne où il devient haineux, visiblement, nous devrions le retirer, mais s'il ne la franchit pas, cette ligne, peut-être ne devrions-nous pas l'encourager et le promouvoir. Et je suis assis là, en me disant que, visiblement, on ne devrait pas promouvoir ce genre de contenu, mais c'est l'algorithme. C'est l'algorithme du fil de nouvelles qui provoque les réactions, peu importe leur nature. Même si des réactions sont négatives, ce qu'on recherche, c'est des lecteurs. On ne recherche pas beaucoup plus que ça, quand tout ce qu'on veut, c'est d'engranger des profits.
    S'il existe une évaluation de l'impact des algorithmes et que nous fixons les règles de ce que cette évaluation devrait comporter, je suis d'accord avec vous qu'il existe un élément de transparence et de divulgation. Ça ne devrait pas se limiter aux intrants, nécessairement. Une entreprise devrait aussi comprendre quels sont les éventuels effets négatifs, je pense, et les préciser dans une évaluation. Elle doit y réfléchir.
    Croyez-vous que c'est une couche utile et supplémentaire de responsabilisation et de transparence?
    Oui. Absolument. Je crains seulement — j'ignore la grosseur de la catégorie — que ça ne coïncide pas, d'où mon scepticisme. Non pas que ce ne soit pas une proposition utile en soi.
    Merci beaucoup.
    Normalement, nous disposons de beaucoup de temps pour ce genre de discussion, mais je dois tous vous prévenir que nous n'avons plus de temps que pour deux interventions d'une durée de cinq minutes. Ensuite nous devons entamer la discussion sur l'avis juridique sur le pouvoir des comités de convoquer des témoins. Vous voilà avertis.
    La parole est à M. Gourde, cinq minutes, puis ce sera M. Picard.

  (1625)  

[Français]

    Merci, monsieur le président.
    La difficulté en matière d'éthique que posent toutes ces nouvelles plateformes a trait au fait que les individus ne sont pas tous nécessairement conscients de ce que suppose l'intelligence artificielle, et le degré d'acceptation peut être très variable.
    Je vous donne un exemple. Personnellement, cela ne me dérange pas que, grâce à des algorithmes, on sache quelle est ma couleur préférée ou la marque de mon automobile. Par contre, certaines personnes sont très réticentes à ce sujet et elles ne veulent absolument pas que l'on sache quoi que ce soit les concernant sur certaines plateformes. Malheureusement pour elles, je pense qu'il est déjà trop tard. Les entreprises privées acquièrent beaucoup de renseignements personnels sur nous. Leurs bases de données grandissent d'année en année, et elles peuvent pratiquement prédire la date de notre décès à l'aide des algorithmes.
    Monsieur Dilhac, vous avez dit qu'il y avait beaucoup de règlements, mais peu de lois dans ce domaine. Je comprends bien qu'il soit très difficile d'adopter des lois pour régir des outils qui n'ont pas de frontières. Néanmoins, en tant que législateurs, nous devons protéger la population. Par où devrions-nous commencer?
    Il faut trouver un équilibre entre la loi et le contrat. Aujourd'hui, c'est surtout la forme contractuelle qui l'emporte en matière de déploiement de l'intelligence artificielle dans les applications. Quand on appuie sur un bouton à la fin du contrat sur Facebook, on accepte ou non. On n'a pas le temps de le lire.
    Si l'on prend connaissance de ce que disent ces contrats, on s'aperçoit qu'ils contiennent des éléments tout à fait inacceptables qui ne devraient pas en faire partie. Je vais prendre l'exemple de Facebook. Nous avons un peu examiné les conditions d'utilisation de Facebook. Cette entreprise s'autorise à obtenir vos informations par des applications tierces. Que vous soyez en ligne ou non sur Facebook, que vous y soyez inscrit ou non, l'entreprise se réserve le droit d'aller chercher des informations à partir d'applications tierces.
    Ce genre de choses est tout à fait possible selon la forme contractuelle. Si, comme utilisateur, vous acceptez cela, c'est tant pis pour vous. Cette forme contractuelle devrait être réglementée par la loi. C'est justement là qu'il faut trouver un équilibre. Ce n'est pas facile, mais c'est le travail d'un gouvernement de trouver cet équilibre entre ce qui est du ressort du contrat conclu entre un prestataire de services et un utilisateur et ce qui appartient à la loi.
    Quelle est la priorité? Il y a beaucoup de choses à faire, mais je pense que, pour protéger le public, il faut s'attaquer en priorité et de manière sérieuse à l'utilisation qui est faite des données. Ce n'est pas simplement la couleur bleue qui est importante, mais, si vous n'aimez plus la couleur bleue un jour, un algorithme établira peut-être que vous avez un problème d'ordre mental ou une maladie dont vous ne vous doutiez pas, par exemple, et ce sera alors beaucoup plus gênant.
    Merci.

[Traduction]

    Merci, monsieur Gourde.
    Monsieur Picard, vous concluez la période de questions.
    Allez-y.

[Français]

    Ma question s'adresse à M. Dilha, et M. Sandvig pourra y répondre par la suite.
    La révolution de l'intelligence artificielle amène son lot d'inconnues. La population y réagit de façon négative. Elle craint le pire et essaie de voir toutes les choses négatives qui pourraient se produire. Pourtant, au début du siècle dernier, on a vécu la révolution industrielle. Dans les années 1960 et 1970, on a vécu la révolution électronique à l'arrivée des ordinateurs.
    Toutes choses étant égales par ailleurs, n'y a-t-il pas lieu de comparer les effets sur la société de ces trois événements sur les plans culturel, social, économique et politique? Pourrait-on en tirer des leçons, tant positives que négatives? Sinon, est-il impossible d'en tirer des leçons à cause des différences incompatibles entre ces trois révolutions?
    Je vais essayer d'être bref.
    Oui, il y a des inconnues. Une position de modestie consisterait à dire qu'on ne sait pas très bien où l'on s'en va. Si l'on examine le passé, on constate qu'il y a des points qui servent de repères. Vous parlez de la révolution industrielle, qui a permis de très grandes avancées. Par contre, cette révolution du début du XIXe siècle, soit il y a deux siècles, n'avait pas été préparée. Elle a donné lieu à plus d'un siècle de tourments, à plus d'un siècle de transitions ainsi qu'à des guerres, à des révolutions et à des millions de morts, si l'on fait le décompte total. Il y a eu une transformation complète de nos États.
    La révolution industrielle nous apprend une chose. Il y a des progrès liés à ces nouveaux outils technologiques, mais il faut faire en sorte d'assurer la transition. L'économiste Joseph Schumpeter, que vous connaissez probablement, a forgé un terme à ce propos. Il a parlé de la transition destructrice ou de la destruction créatrice. On détruit quelque chose pour créer de nouvelles activités. La destruction créatrice peut prendre beaucoup de temps et peut-être n'a-t-on pas envie de l'aspect destruction.
    Il faut que l'on se penche sur les conditions de la transition afin qu'il y ait le moins de perdants possible. L'intelligence artificielle et l'utilisation des algorithmes apportent un progrès exceptionnel, non seulement dans le domaine médical, mais aussi dans le cas des tâches répétitives. Il faut s'en réjouir, mais il faut préparer cette révolution.

  (1630)  

    Monsieur Sandvig, voulez-vous ajouter des commentaires?

[Traduction]

    Je m'en remets à l'opinion de mon confrère. Je pense que c'est une grande question.
    D'accord. Pour ma deuxième question, qui, alors, décidera des normes quand on créera un tel système de logiciels d'intelligence artificielle? Si les normes sont établies par des entreprises, on se retrouvera dans une société qui fonctionnera comme une entreprise. Je ne crois pas que ce soit l'évolution que nous souhaitons. Un sage, quelque part, que n'importe qui devrait reconnaître... Je n'en ai pas encore rencontré, pas dans le gouvernement. Qui est-ce que ce sera?
    Monsieur Sandvig.
    Je n'ai franchement pas de réponse précise pour vous. Cette question m'emballe, parce que je crains que trop de gens croient ne pas voir de solution de rechange aux technologies venues de nulle part, auxquelles ils doivent s'assujettir. Je suis donc emballé par l'idée que ça ne vient pas d'entreprises et que les choix devront être faits par la société.
    Les faire, dans la pratique, je pense que ça pose de grandes difficultés. Nous pouvons avaliser le principe de « participation démocratique », par exemple, comme il figure dans la déclaration de Montréal. Comment y arriver? Il existe des modèles. Il y a le modèle scandinave de conception participative. Il y a des idées, mais, encore, actuellement, nous avons sous les yeux un paysage dominé par ce que certains ont appelé les « grandes plateformes de calcul exerçant un monopole social » — l'intelligence artificielle — et il est difficile de voir exactement comment chacun y aura voix au chapitre.
    J'espère que certaines des propositions dont j'ai discuté dans ma déclaration préliminaire et qui figuraient dans votre dernier rapport sur les changements structurels survenus à l'industrie permettront d'entrevoir une autre sorte de participation — par exemple, une solution de rechange publique.

[Français]

    Monsieur Dilhac, avez-vous des commentaires à formuler en conclusion?
    En ce qui concerne les normes, ma réponse sera négative. Il faudrait éviter que les normes soient établies uniquement par le secteur privé et le secteur industriel. C'est ce que l'on voit de plus en plus, et cela s'appelle de l'autoréglementation. On ne demande pas aux gouvernements de trouver toutes les solutions — cela suppose de trouver d'abord quel est le problème, ce qui est difficile —, mais il leur faut reprendre en main les discussions sur les normes. Ils doivent faire en sorte que les entreprises, les organisations professionnelles et les organisations de la société civile soient des parties prenantes de cette conversation. Les gouvernements doivent reprendre en main ce débat. Je suis donc très heureux de participer à ce genre de comité.

  (1635)  

    Merci.

[Traduction]

    Merci, monsieur Picard. Je remercie nos témoins. Je sais que nous pourrions discuter du sujet pendant beaucoup plus qu'une heure. Nous vous sommes reconnaissants du temps que vous nous avez accordé.
    Encore une fois, merci. J'apprécie votre apport à notre comité.
    Nous allons à huis clos avec M. Dufresne. Je suspends brièvement les travaux.
    [La séance se poursuit à huis clos.]
Explorateur de la publication
Explorateur de la publication
ParlVU