Comment Nudging
Un débat en ligne plus sain et de meilleure qualité grâce au nudging des commentaires : cette fonction permet aux participants d'obtenir un retour d'information en direct sur la qualité de leur réaction.
Grâce à l'intelligence artificielle, nous détectons les propos potentiellement offensants ou abusifs et encourageons les participants à étayer suffisamment leur réponse. Les participants reçoivent déjà ce retour d'info lorsqu'ils répondent.

Non, nous n'arrêtons pas des réactions. Toute réaction peut être soumise : après tout, l'intelligence artificielle peut faire des erreurs. Les commentaires potentiellement toxiques reçoivent une étiquette « à modérer ». En tant que gestionnaire ou modérateur, vous en êtes alors informé par une notification par courrier électronique. Vous pouvez donc rapidement ajuster ou intervenir si nécessaire !
Vous ne pouvez pas gérer l'intelligence artificielle elle-même. Cependant, vous pouvez choisir d'activer ou de désactiver le nudging de commentaires pour votre projet. Allez dans les paramètres de votre projet >> idéation >> paramètres de l'expert et décochez l'option « nudging des commentaires ».

La technologie de l'IA permet de reconnaître automatiquement les contenus nuisibles ou haineux. Pour ce faire, nous combinons un logiciel intelligent (intelligence artificielle) avec des données humaines.
Nous travaillons avec Textgain, qui développe sa propre technologie et son propre modèle d'IA. La technologie n'a accès qu'au contenu des messages traités, et non à d'autres données de l'utilisateur. Textgain est une entreprise belge et une référence européenne dans le domaine du discours de haine en ligne.
Des personnes de différents horizons contribuent à son développement en dressant des listes de mots et d'expressions souvent utilisés dans des contextes négatifs. Ces mots se voient attribuer un score et une étiquette indiquant leur degré de nocivité (toxicité).
Régulièrement, les développeurs de Textgain se réunissent avec un groupe de personnes diverses pour discuter de nouvelles tendances, de nouveaux mots ou de nouveaux contextes. Grâce à cette collaboration, nous nous assurons que la technologie reste équitable et que les biais de l'IA dans les algorithmes sont minimisés. De cette manière, les gens ont toujours le contrôle.
Vous voulez en savoir plus ? Lisez l'article de fond ici.
Comment cela fonctionne-t-il ?
Grâce à l'intelligence artificielle, nous détectons les propos potentiellement offensants ou abusifs et encourageons les participants à étayer suffisamment leur réponse. Les participants reçoivent déjà ce retour d'info lorsqu'ils répondent.

Arrêtons-nous des réactions ?
Non, nous n'arrêtons pas des réactions. Toute réaction peut être soumise : après tout, l'intelligence artificielle peut faire des erreurs. Les commentaires potentiellement toxiques reçoivent une étiquette « à modérer ». En tant que gestionnaire ou modérateur, vous en êtes alors informé par une notification par courrier électronique. Vous pouvez donc rapidement ajuster ou intervenir si nécessaire !
Comment puis-je gérer le nudging des commentaires ?
Vous ne pouvez pas gérer l'intelligence artificielle elle-même. Cependant, vous pouvez choisir d'activer ou de désactiver le nudging de commentaires pour votre projet. Allez dans les paramètres de votre projet >> idéation >> paramètres de l'expert et décochez l'option « nudging des commentaires ».

Comment fonctionne la technologie de modération avec l'IA ?
La technologie de l'IA permet de reconnaître automatiquement les contenus nuisibles ou haineux. Pour ce faire, nous combinons un logiciel intelligent (intelligence artificielle) avec des données humaines.
Nous travaillons avec Textgain, qui développe sa propre technologie et son propre modèle d'IA. La technologie n'a accès qu'au contenu des messages traités, et non à d'autres données de l'utilisateur. Textgain est une entreprise belge et une référence européenne dans le domaine du discours de haine en ligne.
Des personnes de différents horizons contribuent à son développement en dressant des listes de mots et d'expressions souvent utilisés dans des contextes négatifs. Ces mots se voient attribuer un score et une étiquette indiquant leur degré de nocivité (toxicité).
Régulièrement, les développeurs de Textgain se réunissent avec un groupe de personnes diverses pour discuter de nouvelles tendances, de nouveaux mots ou de nouveaux contextes. Grâce à cette collaboration, nous nous assurons que la technologie reste équitable et que les biais de l'IA dans les algorithmes sont minimisés. De cette manière, les gens ont toujours le contrôle.
Vous voulez en savoir plus ? Lisez l'article de fond ici.
Mis à jour le : 10/02/2025
Merci !