Artikelen over: Interactieve modules
Dit artikel is ook beschikbaar in:

Comment en Ideation Nudging

Een beter en gezonder online debat dankzij comment en ideation nudging: met deze feature krijgen deelnemers live feedback over de kwaliteit van hun reactie.


Hoe werkt het?


Dankzij artificiële intelligentie detecteren we mogelijks offensief of grof taalgebruik, en moedigen we aan om een reacties en bijdragen voldoende te onderbouwen. Deelnemers krijgen deze feedback al tijdens het reageren te zien.


Comment Nudging

Nudgen we overal?


We nudgen op basis van artificiële intelligentie wanneer deelnemers lange, tekstuele input kunnen indienen: bij reacties (comments) en lange, open tekstvelden in een formulier of topic. We nudgen niet bij korte tekst (bvb. "titel van je idee") of bij gesloten antwoordopties (dropdown, select ...).


Houden we reacties tegen?


Neen, we houden geen reacties of ideeën tegen. Elke reactie of bijdrage kan ingediend worden: kunstmatige intelligentie (artificiële intelligentie) kan immers fouten maken. Reacties die mogelijk toxisch zijn krijgen wel een "te modereren" label. Als manager of moderator word je hier vervolgens van op de hoogte gebracht via een e-mailnotificatie. Zo kan je snel bijsturen of ingrijpen indien nodig!


Hoe beheer ik AI nudging?


De artificiële intelligentie zelf kan je niet beheren. Je kan er wel voor kiezen om de AI nudging te activeren of te deactiveren voor je project. Ga naar je project settings >> ideation >> expert settings en vink "nudging" uit.


Beheer "comment nudging" bij de expert settings van ideation

Hoe werkt de moderatietechnologie met AI net?


De AI-technologie helpt om schadelijke of haatdragende inhoud automatisch te herkennen. Hiervoor combineren we slimme software (kunstmatige of artificiële intelligentie) met input van mensen.


We werken samen met Textgain, die een eigen technologie en AI-model ontwikkelt. De technologie heeft enkel toegang tot de inhoud van de verwerkte berichten, en niet tot verdere gebruikersgegevens. Textgain is een Belgisch bedrijf en een Europese referentie op het vlak van online hate speech.


Mensen met verschillende achtergronden helpen bij de ontwikkeling, door lijsten te maken van woorden en uitdrukkingen die vaak in negatieve contexten worden gebruikt. Deze woorden krijgen een score en een label om aan te geven hoe schadelijk ze zijn (toxiciteit).


Regelmatig komen de ontwikkelaars van Textgain samen met deze mensen om nieuwe trends en woorden te bespreken. Door deze samenwerking zorgen we ervoor dat de technologie eerlijk blijft en de AI-bias in algoritmes geminimaliseerd wordt. Mensen behouden op deze manier altijd de controle.


Meer weten? Lees het achtergrondartikel hier. ****

Bijgewerkt op: 25/06/2025

Was dit artikel nuttig?

Deel uw feedback

Annuleer

Dankuwel!