Thank you very much.
Just for the record, Mr. Chair, I am but one of many different global policy directors at Facebook, so I'm not “the” director, just “a” director of the company.
Thank you, Mr. Chair, and members. My name is Kevin Chan, and I am the head of public policy at Facebook Canada. I am pleased to contribute to your study of online hate.
We want Facebook to be a place where people can express themselves freely and safely around the world. With this goal, we have invested heavily in people, technology and partnerships to examine and address the abuse of our platform by bad actors.
We have worked swiftly to remove harmful content and hate figures from our platform in line with our policies, and we also remain committed to working with world leaders, governments and across the technology industry to help counter hate speech and the threat of terrorism.
We want Facebook to be a place where people can express themselves freely and safely around the world. With this goal, we have invested heavily in people, technology and partnerships to examine and address the abuse of our platform by bad actors. We have worked swiftly to remove harmful content and hate figures from our platform, in line with our policies. We also remain committed to working with world leaders, governments and across the technology industry to help counter hate speech and the threat of terrorism.
Everyone at our company remains shocked and deeply saddened by the recent tragedies in New Zealand and Sri Lanka, and our hearts go out to the victims, their families and the communities affected by the horrific terrorist attacks.
With regard to the event in Christchurch, Facebook worked closely with the New Zealand police as they responded to the attack, and we are continuing to support their investigation.
In the immediate aftermath, we removed the original Facebook live video within minutes of the police's outreach to us and hashed it so that other shares that are visually similar to that video are then detected and automatically removed from Facebook and Instagram. Some variants such as screen recordings were more difficult to detect, so we also expanded to additional detection systems, including the use of audio technology.
This meant that in the first 24 hours we removed about 1.5 million videos of the attack globally. More than 1.2 million of those videos were blocked at upload and were, therefore, prevented from being seen on our services.
As you will be aware, Facebook is a founding member of the Global Internet Forum to Counter Terrorism, or GIFCT, which coordinates regularly on terrorism. We have been in close contact since the attack, sharing more than 800 visually distinct videos related to the attack via our collective database, along with URLs and context on our enforcement approaches. This incident highlights the importance of industry co-operation across the range of terrorists and violent extremists operating online.
At the same time, we have been working to understand how we can prevent such abuse in the future. Last month Facebook signed the Christchurch call to eliminate terrorist and violent extremist content online and has taken immediate action on live streaming.
Specifically, people who have broken certain rules on Facebook, including our dangerous organizations and individuals policy, will be restricted from using Facebook Live. We are also investing $7.5 million in new research partnerships with leading academics to address the type of adversarial media manipulation we saw after Christchurch, when some people modified the video to avoid detection in order to repost it after it had been taken down.
With regard to the tragedy in Sri Lanka, we know that the misuse and abuse of our platform may amplify underlying ethnic and religious tensions and contribute to offline harm in some parts of the world. This is especially true in countries like Sri Lanka, where many people are using the Internet for the first time and social media can be used to spread hate and fuel tension on the ground.
That's why in 2018 we commissioned a human rights impact assessment on the role of our services, which found that we weren't doing enough to help prevent our platform from being used to foment division and incite violence. We've been taking a number of steps, including building a dedicated team to work across the company to ensure we're building products, policies and programs with these situations in mind, and learning the lessons from our experience in Myanmar. We've also been building up our content review teams to ensure we have people with the right language skills and understanding of the cultural context.
We've been investing in technology and programs in places where we have identified heightened content risks and are taking steps to get ahead of them.
In the wake of the atrocities in Sri Lanka we saw our community come together to help one another. Following the terror attacks and up until the enforcement of the social media ban on April 21, more than a quarter of a million people had used Facebook's safety check tool to mark themselves safe, to reassure their friends and loved ones. Following the attacks there were over 1,000 offers or requests for help on Facebook's crisis response tool.
These events are a painful reminder that while we have come a long way there's always more we can and should do. The price of getting this wrong can be the very highest.
I'd like to now provide a general overview of how we approach hate speech online. Facebook's more important responsibility is keeping people safe both online and off to help protect what's best about the online world. Ultimately we want to give people the power to build communities and bring the world closer together through a diversity of expression and experiences on our platform.
Our community standards are clear: Hate can take many forms and none of it is permitted in our global community. In fact, Facebook rejects not just hate speech, but all hateful ideologies, and we believe we've made significant progress. As our policies tighten in one area, people will shift language and approach to try to get around them. For example, people talk about white nationalism to avoid our ban on white supremacy, so now we ban that too.
People who are determined to spread hate will find a way to skirt rules. One area we have strengthened a great deal is in the designation of hate figures and hate organizations based on a broader range of signals not just their on-platform activity. Working with external Canadian experts has led to the removal of six hate figures and hate organizations—Faith Goldy, Kevin Goudreau, the Canadian Nationalist Front, the Aryan Strikeforce, the Wolves of Odin and Soldiers of Odin—from having any further presence on Facebook and Instagram. We will also remove any praise, representation or support for them. We have already banned more than 200 white supremacist groups as a result of our dangerous organizations policy worldwide.
In addition to this policy change we have strengthened our approach to hate speech in the last few years centred around three Ps. The first is people. We have tripled the number of people at Facebook working on safety and security globally to over 30,000 people.
The second is products. We continue to invest in cutting-edge technology and our product teams continue to build essential tools like artificial intelligence, smart automation and machine learning that help us remove much of this content, often at the point of upload.
The third is partnerships. In addition to the GIFCT, in Canada we have worked with indigenous organizations to better understand and enforce against hateful slurs on our platform. We have also partnered with Equal Voice to develop resources to keep candidates, in particular women candidates, safe online for the upcoming federal election. We have partnered with the Canada Centre for Community Engagement and Prevention of Violence on a workshop on counter-speech and counter-radicalization.
Underpinning all of this is our commitment to transparency. In April 2018, we published our internal guidelines that our teams used to enforce our community standards. We also published our first-ever community standards enforcement report describing the amount and types of content we have taken action against, as well as the amount of content we have proactively flagged for review. We publish our report on a semi-annual basis, and in our most recent report released last month we were proud to share that we are continuing to make progress on identifying hate speech.
We now proactively detect 65% of the content we remove, up from 24% just over a year ago when we first shared our efforts. In the first quarter of 2019 we took down four million hate speech posts and we continue to invest in technology to expand our abilities to detect this content across different languages and regions.
I would like to conclude with some thoughts on future regulation in this space. New rules for the Internet should preserve what is best about the Internet and the digital economy: fostering innovation, supporting growth for small businesses, and enabling freedom of expression while simultaneously protecting society from broader harms. These are incredibly complex issues to get right and we want to work with governments, academics and civil society around the world to ensure new regulations are effective.
As the number of users on Facebook has grown and as the challenges of balancing freedom of expression and safety have increased, we have come to realize that Facebook should not be making so many of these difficult decisions, which is why we will create an external oversight board to help govern speech on Facebook by the end of this year. This oversight board will be independent of Facebook and will be a final level of appeal for what stays up and what goes down on the platform. Our thinking at this time is that the decisions by this oversight board will be publicly binding on Facebook.
Even with the oversight board in place, we know that people use many different online platforms and services to communicate, and we would all be better off if there were clear baseline standards for all platforms. This is why we like to work with governments to establish rules for what is permissible speech online. We have been working with President Macron of France on exactly this kind of project, and we would welcome the opportunity to engage with more countries going forward.
Thank you for the opportunity to present before you today, and I look forward to answering your questions.
Merci beaucoup.
J'aimerais préciser, monsieur le président, que je ne suis que l'un des nombreux directeurs des politiques mondiales de Facebook. Je ne suis donc pas « le » directeur, mais simplement « un » directeur de l'entreprise.
Merci, monsieur le président, et merci aux membres du Comité. Je m'appelle Kevin Chan et je suis le chef des politiques publiques de Facebook Canada. Je suis heureux de contribuer à votre étude sur la haine en ligne.
Nous voulons que Facebook soit un lieu où les gens puissent s'exprimer librement et en toute sécurité dans le monde entier. C'est pourquoi nous avons investi massivement dans les personnes, la technologie et les partenariats afin d'examiner les abus commis sur notre plateforme par des personnes malveillantes, et d'y répondre.
Nous avons travaillé rapidement pour supprimer les contenus préjudiciables et les personnalités qui incitent à la haine sur notre plateforme, conformément à nos politiques, et nous restons également déterminés à travailler avec les dirigeants mondiaux, les gouvernements et l'ensemble de l'industrie de la technologie pour contribuer à la lutte contre les propos haineux et la menace terroriste.
Nous souhaitons que Facebook soit un endroit où les gens peuvent s'exprimer librement et de manière sécuritaire dans le monde entier. En lien avec cet objectif, nous avons beaucoup investi dans les ressources humaines, la technologie et les partenariats afin d'examiner et de combattre les abus de notre plateforme imputables à de mauvais joueurs. Conformément à nos politiques, nous avons travaillé rapidement pour supprimer de notre plateforme les contenus préjudiciables et les représentants de groupes haineux. Nous restons déterminés à collaborer avec les gouvernements et l'ensemble du secteur des technologies pour lutter contre les discours haineux et la menace du terrorisme.
Tous les membres de notre entreprise demeurent choqués et profondément attristés par les récentes tragédies survenues en Nouvelle-Zélande et au Sri Lanka, et nous sommes de tout cœur avec les victimes, leur famille et les collectivités touchées par ces terribles attentats terroristes.
En ce qui concerne les événements de Christchurch, Facebook a travaillé en étroite collaboration avec la police néo-zélandaise au moment où elle a réagi à l'attentat, et continue d'appuyer son enquête.
Quelques minutes après avoir été contactés par la police, nous avons retiré la vidéo en direct originale de Facebook et nous l'avons hachée de façon à ce que les vidéos visuellement similaires partagées soient ensuite détectées et automatiquement supprimées de Facebook et d'Instagram. Certaines variantes, comme les enregistrements d'écran, étant plus difficiles à détecter, nous nous sommes également tournés vers d'autres systèmes de détection, y compris la technologie audio.
Ainsi, au cours des 24 premières heures, nous avons supprimé environ 1,5 million de vidéos de l'attentat dans le monde. Plus de 1,2 million de ces vidéos ont été bloquées lors de leur téléchargement et n'ont donc pas pu être visionnées sur nos services.
Comme vous le savez, Facebook est l'un des membres fondateurs du Forum mondial de lutte contre le terrorisme sur Internet, qui assure une coordination régulière de la lutte contre le terrorisme. Nous sommes en contact étroit depuis l'attentat, et nous avons échangé plus de 800 vidéos distinctes sur le plan visuel liées à l'attentat via notre base de données collective, ainsi que des adresses URL et du contexte sur nos approches en matière d'application. Cet événement souligne l'importance de la coopération au sein de l'industrie pour lutter contre tous les terroristes et les extrémistes violents qui opèrent en ligne.
Parallèlement, nous nous sommes efforcés de comprendre comment nous pouvons prévenir de tels abus à l'avenir. Le mois dernier, Facebook a signé l’Appel à l'action de Christchurch pour éliminer le contenu terroriste et extrémiste violent en ligne, et a pris des mesures immédiates relativement à la diffusion en direct.
Plus précisément, les personnes qui enfreignent certaines règles sur Facebook, y compris notre politique sur les organisations et les personnes dangereuses, ne pourront pas utiliser Facebook Live. Nous investissons également 7,5 millions de dollars dans de nouveaux partenariats de recherche avec d'éminents universitaires pour nous attaquer au type de manipulation hostile des médias dont nous avons été témoins après Christchurch, lorsque des personnes ont modifié la vidéo pour éviter sa détection et la publier de nouveau après son retrait.
En ce qui concerne la tragédie survenue au Sri Lanka, nous savons que le mauvais usage et l'usage abusif de notre plateforme peuvent amplifier les tensions ethniques et religieuses sous-jacentes et contribuer à des préjudices hors ligne dans certaines régions du monde. C'est particulièrement vrai dans les pays comme le Sri Lanka, où de nombreuses personnes se servent d'Internet pour la première fois, et où les médias sociaux peuvent être utilisés pour répandre la haine et alimenter les tensions sur place.
C'est pourquoi, en 2018, nous avons commandé une étude d'impact sur les droits de la personne portant sur le rôle de nos services, qui a révélé que nous n'en faisions pas assez pour empêcher que notre plateforme soit utilisée pour fomenter la discorde et inciter à la violence. Nous avons pris un certain nombre de mesures, y compris la mise sur pied d'une équipe spéciale pour travailler dans toute l'entreprise afin de nous assurer que nous élaborons des produits, des politiques et des programmes qui tiennent compte des situations qui se présentent, et de tirer des enseignements de notre expérience au Myanmar. Nous avons également mis sur pied nos équipes d'examen du contenu pour nous assurer que nous disposons de personnes possédant les compétences linguistiques et la compréhension du contexte culturel voulues.
Nous avons investi dans la technologie et les programmes là où nous avons repéré des risques plus élevés en matière de contenu et où nous prenons des mesures pour les devancer.
À la suite des atrocités commises au Sri Lanka, notre communauté s'est rassemblée pour s'entraider. Après les attentats terroristes et jusqu'à l'entrée en vigueur de l'interdiction des médias sociaux, le 21 avril dernier, plus d'un quart de million de personnes avaient utilisé l'outil de contrôle d'absence de danger de Facebook pour signaler qu'elles étaient en sécurité, afin de rassurer leurs amis et leurs êtres chers. À la suite des attaques, plus de 1 000 offres ou demandes d'aide ont été reçues sur l'outil de réponse aux crises de Facebook.
Ces événements sont un rappel douloureux du fait que même si nous avons fait beaucoup de chemin, nous pouvons et devons toujours en faire plus. Toute erreur pourrait nous coûter très cher.
J'aimerais maintenant vous donner un aperçu général de la façon dont nous traitons les propos haineux en ligne. La principale responsabilité de Facebook est d'assurer la sécurité des personnes en ligne et hors ligne pour protéger ce qu'il y a de mieux dans le monde virtuel. En fin de compte, nous voulons donner aux gens le pouvoir de bâtir des communautés et rapprocher le monde à travers une diversité d'expressions et d'expériences sur notre plateforme.
Les normes de notre communauté sont claires: la haine peut prendre plusieurs formes et aucune d'entre elles n'est permise dans notre communauté mondiale. Facebook rejette d'ailleurs non seulement les propos haineux, mais toutes les idéologies haineuses, et nous croyons que nous avons réalisé d'importants progrès. À mesure que nos politiques se resserrent dans un domaine, les personnes changent leur langage et leur approche pour essayer de les contourner. Par exemple, les gens parlent de nationalisme blanc pour éviter notre interdiction de la suprématie blanche, alors nous interdisons maintenant aussi le nationalisme blanc.
Les personnes qui sont déterminées à répandre la haine trouveront un moyen de contourner les règles. L'un des domaines que nous avons considérablement renforcés est la désignation de personnalités et d'organisations incitant à la haine en fonction d'un plus large éventail de signaux et pas seulement de leurs activités sur notre plateforme. La collaboration avec des experts canadiens de l'extérieur a abouti à l'élimination de six personnalités et organisations incitant à la haine — Faith Goldy, Kevin Goudreau, le Canadian Nationalist Front, l'Aryan Strikeforce, les Wolves of Odin et les Soldiers of Odin — sur Facebook et Instagram. Nous supprimerons également tout éloge, représentation ou soutien de ces personnes et organisations. Notre politique mondiale sur les organisations dangereuses nous a déjà permis d'interdire plus de 200 groupes suprémacistes blancs.
En plus de ce changement de politique, ces dernières années, nous avons renforcé notre approche à l'égard de la propagande haineuse autour de trois P. Tout d'abord, les personnes. Nous avons triplé le nombre d'employés de Facebook qui travaillent dans le domaine de la sûreté et de la sécurité à l'échelle mondiale pour le porter à plus de 30 000 personnes.
Deuxièmement, les produits. Nous continuons d'investir dans la technologie de pointe et nos équipes responsables des produits continuent de créer des outils essentiels comme l'intelligence artificielle, l'automatisation intelligente et l'apprentissage machine, qui nous aident à supprimer une grande partie de ce contenu, souvent au moment de son téléchargement.
Troisièmement, les partenariats. En plus du Forum mondial de lutte contre le terrorisme sur Internet, au Canada, nous avons travaillé avec des organismes autochtones pour mieux comprendre les propos haineux tenus sur notre plateforme et appliquer des sanctions contre ceux-ci. Nous nous sommes également associés à l'organisation À voix égales pour élaborer des ressources visant à assurer la sécurité en ligne des candidats, en particulier des candidates, en vue des prochaines élections fédérales. Nous avons travaillé en partenariat avec le Centre canadien d'engagement communautaire et de prévention de la violence dans le cadre d'un atelier sur la lutte contre les propos haineux et la radicalisation.
Notre engagement en faveur de la transparence est à la base de tout cela. En avril 2018, nous avons publié nos lignes directrices internes, que nos équipes ont utilisées pour faire respecter les normes de notre communauté. Nous avons également publié notre tout premier rapport sur l'application des normes de notre communauté qui décrit la quantité et les types de contenu contre lesquels nous avons pris des mesures, ainsi que la quantité de contenu que nous avons signalé de façon proactive aux fins d'examen. Nous produisons un rapport semestriel et, dans notre dernier rapport, publié le mois dernier, nous avons été fiers d'annoncer que nous continuons de réaliser des progrès dans l'identification des propos haineux.
Nous détectons maintenant de façon proactive 65 % du contenu que nous supprimons, contre 24 % il y a un peu plus d'un an, lorsque nous avons partagé nos efforts pour la première fois. Au premier trimestre de 2019, nous avons supprimé quatre millions de messages haineux et nous continuons d'investir dans la technologie afin d'accroître notre capacité à détecter ce contenu dans différentes langues et régions.
Je voudrais conclure avec quelques réflexions sur l'avenir de la réglementation dans ce domaine. Les nouvelles règles régissant Internet devraient préserver ce qu'il y a de mieux dans cet espace et dans l'économie numérique: stimuler l'innovation, soutenir la croissance des petites entreprises et favoriser la liberté d'expression tout en protégeant la société contre les préjudices plus importants. Ce sont là des questions extrêmement difficiles à traiter et nous voulons travailler avec les gouvernements, les universitaires et la société civile du monde entier pour nous assurer que les nouveaux règlements sont efficaces.
À mesure que le nombre d'utilisateurs de Facebook a augmenté et que les difficultés liées au maintien d'un équilibre entre la liberté d'expression et la sécurité se sont accentuées, nous nous sommes rendu compte que Facebook ne devrait pas avoir à prendre un si grand nombre de ces décisions difficiles. C'est pourquoi nous allons créer un conseil de surveillance externe qui nous aidera à gérer le discours sur Facebook avant la fin de l'année en cours. Ce conseil de surveillance sera indépendant de Facebook et constituera le dernier niveau d'appel pour déterminer ce qui reste affiché et ce qui est éliminé sur la plateforme. À l'heure actuelle, nous pensons que les décisions de ce conseil de surveillance seront exécutoires sur Facebook.
Même avec le conseil de surveillance, nous savons que les gens utilisent de nombreux services et plateformes en ligne pour communiquer, et il vaudrait mieux pour nous tous que des normes de base claires soient établies pour toutes les plateformes. C'est pourquoi nous aimons travailler avec les gouvernements afin d'établir des règles concernant ce qui constitue un discours admissible en ligne. Nous avons travaillé avec le président français, Emmanuel Macron, sur ce type de projet précis, et nous serions heureux de pouvoir collaborer avec d'autres pays à l'avenir.
Je vous remercie de m'avoir donné la chance de m'adresser à vous aujourd'hui, et je me ferai un plaisir de répondre à vos questions.