Non solo bullismo, esiste anche il modo di carpire cosa di buono si dica in rete su certi argomenti
I ricercatori del Language Technologies Institute di Carnegie Mellon affermano di aver sviluppato un sistema che sfrutta l’apprendimento automatico per analizzare i commenti online e individuare quelli che difendono o simpatizzano con le persone. Sebbene non sia stato commercializzato, il software è stato già utilizzato per cercare 1 milione di commenti su YouTube, concentrandosi sulla crisi dei rifugiati Rohingya e sull’attacco terroristico di Pulwama del febbraio del 2019 in Kashmir.
Gli scienziati sperano che il tool possa costituire la base di un sistema futuro che riduca lo sforzo manuale necessario per curare i commenti sui siti degli editori, sui social media e in generale su internet. Ridurre il comportamento offensivo online non è un’impresa facile, soprattutto considerando il livello di tossicità in alcuni ambienti.
Cosa potrà fare
Come spiegano i ricercatori, i miglioramenti nei modelli linguistici dell’intelligenza artificiale – che apprendono da molti esempi per prevedere quali parole potrebbero verosimilmente verificarsi in una determinata frase – hanno permesso di analizzare tali grandi quantità di testo. Il contributo dello studio nasce da una tecnica che consente a questi modelli di analizzare brevi testi, che possono essere difficili da interpretare perché spesso contengono errori di ortografia e grammaticali e combinano lingue e sistemi di scrittura diversi. In particolare, i ricercatori hanno ottenuto incorporamenti – rappresentazioni numeriche di parole – che hanno rivelato nuovi raggruppamenti o gruppi linguistici.
I modelli linguistici li creano in modo tale che le parole con significati simili siano rappresentate allo stesso modo, rendendo possibile calcolare la vicinanza di una parola ad altre in un commento o in un post. Il team riferisce che negli esperimenti, il loro approccio ha funzionato bene o meglio delle soluzioni disponibili in commercio. I campionamenti casuali dei commenti su YouTube hanno mostrato che circa il 10% era positivo, rispetto all’88% riscontrato con l’algoritmo IA.