Comment nous utilisons la technologie pour détecter les contenus préjudiciables
Nous utilisons une approche à plusieurs niveaux pour protéger nos utilisateurs contre les contenus et les comportements préjudiciables.
Nous déployons les technologies de hachage PhotoDNA et MD5 sur les contenus photo et vidéo partagés par l’intermédiaire des services grand public hébergés par Microsoft et sur les contenus téléchargés pour les recherches d’images visuelles sur Internet et ce, afin de détecter et de mettre fin à la diffusion de contenus d’images illégaux et préjudiciables connus. Un « hachage » transforme les images en une série de nombres qui peuvent être facilement comparés, stockés et traités. Ces « hachages » ne sont pas réversibles, ce qui signifie qu’ils ne peuvent pas être utilisés pour recréer les images d’origine. Nous nous appuyons sur la dérogation autorisée par le règlement de l’Union européenne (UE) 2021/1232 pour utiliser ces technologies de hachage dans les services régis par la directive 2002/58/CE de l’UE.
Nous utilisons également des technologies de Machine Learning telles que des classifieurs de texte et d’images, et des techniques de détection de « grooming » pour découvrir les contenus ou les comportements partagés par l’intermédiaire des services grand public hébergés par Microsoft susceptibles d’être illégaux ou d’enfreindre nos politiques. Enfin, nous nous appuyons sur les signalement des utilisateurs, des gouvernements et des signaleurs de confiance pour attirer notre attention sur d’éventuelles violations des politiques. Ces techniques sont adaptées aux fonctionnalités et services sur lesquels elles sont déployées.
Nous détectons
D’autres détectent
Vous détectez
Révision de contenu
Les réviseurs humains prennent en compte les images, les vidéos, les messages et le contexte.
Politiques
Les politiques de Microsoft en matière de contenu et de comportement expliquent ce qui n’est pas autorisé sur nos services.