Comment Nudging
Een beter en gezonder online debat dankzij comment nudging: met deze feature krijgen deelnemers live feedback over de kwaliteit van hun reactie.
Dankzij artificiële intelligentie detecteren we mogelijks offensief of grof taalgebruik, en moedigen we aan om een reactie voldoende te onderbouwen. Deelnemers krijgen deze feedback al tijdens het reageren te zien.

Neen, we houden geen reacties tegen. Elke reactie kan ingediend worden: kunstmatige intelligentie (artificiële intelligentie) kan immers fouten maken. Reacties die mogelijk toxisch zijn krijgen wel een "te modereren" label. Als manager of moderator word je hier vervolgens van op de hoogte gebracht via een e-mailnotificatie. Zo kan je snel bijsturen of ingrijpen indien nodig!
De artificiële intelligentie zelf kan je niet beheren. Je kan er wel voor kiezen om de comment nudging te activeren of te deactiveren voor je project. Ga naar je project settings >> ideation >> expert settings en vink "comment nudging" uit.

De AI-technologie helpt om schadelijke of haatdragende inhoud automatisch te herkennen. Hiervoor combineren we slimme software (kunstmatige of artificiële intelligentie) met input van mensen.
We werken samen met Textgain, die een eigen technologie en AI-model ontwikkelt. De technologie heeft enkel toegang tot de inhoud van de verwerkte berichten, en niet tot verdere gebruikersgegevens. Textgain is een Belgisch bedrijf en een Europese referentie op het vlak van online hate speech.
Mensen met verschillende achtergronden helpen bij de ontwikkeling, door lijsten te maken van woorden en uitdrukkingen die vaak in negatieve contexten worden gebruikt. Deze woorden krijgen een score en een label om aan te geven hoe schadelijk ze zijn (toxiciteit).
Regelmatig komen de ontwikkelaars van Textgain samen met deze mensen om nieuwe trends en woorden te bespreken. Door deze samenwerking zorgen we ervoor dat de technologie eerlijk blijft en de AI-bias in algoritmes geminimaliseerd wordt. Mensen behouden op deze manier altijd de controle.
Meer weten? Lees het achtergrondartikel hier.
Hoe werkt het?
Dankzij artificiële intelligentie detecteren we mogelijks offensief of grof taalgebruik, en moedigen we aan om een reactie voldoende te onderbouwen. Deelnemers krijgen deze feedback al tijdens het reageren te zien.

Houden we reacties tegen?
Neen, we houden geen reacties tegen. Elke reactie kan ingediend worden: kunstmatige intelligentie (artificiële intelligentie) kan immers fouten maken. Reacties die mogelijk toxisch zijn krijgen wel een "te modereren" label. Als manager of moderator word je hier vervolgens van op de hoogte gebracht via een e-mailnotificatie. Zo kan je snel bijsturen of ingrijpen indien nodig!
Hoe beheer ik comment nudging?
De artificiële intelligentie zelf kan je niet beheren. Je kan er wel voor kiezen om de comment nudging te activeren of te deactiveren voor je project. Ga naar je project settings >> ideation >> expert settings en vink "comment nudging" uit.

Hoe werkt de moderatietechnologie met AI net?
De AI-technologie helpt om schadelijke of haatdragende inhoud automatisch te herkennen. Hiervoor combineren we slimme software (kunstmatige of artificiële intelligentie) met input van mensen.
We werken samen met Textgain, die een eigen technologie en AI-model ontwikkelt. De technologie heeft enkel toegang tot de inhoud van de verwerkte berichten, en niet tot verdere gebruikersgegevens. Textgain is een Belgisch bedrijf en een Europese referentie op het vlak van online hate speech.
Mensen met verschillende achtergronden helpen bij de ontwikkeling, door lijsten te maken van woorden en uitdrukkingen die vaak in negatieve contexten worden gebruikt. Deze woorden krijgen een score en een label om aan te geven hoe schadelijk ze zijn (toxiciteit).
Regelmatig komen de ontwikkelaars van Textgain samen met deze mensen om nieuwe trends en woorden te bespreken. Door deze samenwerking zorgen we ervoor dat de technologie eerlijk blijft en de AI-bias in algoritmes geminimaliseerd wordt. Mensen behouden op deze manier altijd de controle.
Meer weten? Lees het achtergrondartikel hier.
Bijgewerkt op: 10/02/2025
Dankuwel!