Lo scontro, si sa, fa audience. Che si tratti di un alterco tra due persone in strada o di uno scambio di battute in un talk show televisivo, la nostra attenzione è inevitabilmente catturata. Quando poi tutto questo si trasferisce sui social network, dove c’è interazione, gli effetti si moltiplicano. I contenuti ritenuti divisivi, infatti, sono i più letti, commentati e condivisi; in altre parole sono quelli che generano maggiori guadagni. Cosa c’è di meglio di una fake news per avviare la macchina dell’odio e fare incetta di click? Il “gioco” è stato svelato lo scorso anno dall’inchiesta “Facebook files” condotta dal Wall Street Journal a partire dalle rivelazione di Frances Haugen. Di social network e fake news abbiamo parlato con Gianluca Maruzzella CEO e Co-Founder di Indigo.ai, una giovane azienda che sta lavorando alla creazione di uno strumento per riconoscere le notizie false che compaiono sulle nostre bacheche.
Social network e fake news
Gianluca Maruzzella, ci parli della sua azienda: quando è nata Indigo.ai e di cosa si occupa?
Indigo.ai è una piattaforma di Conversational AI che serve a progettare e costruire assistenti virtuali, tecnologie di linguaggio ed esperienze conversazionali. La società nasce nel 2016 tra i banchi del Politecnico di Milano da un’idea di cinque laureandi: Gianluca Maruzzella, Enrico Bertino, Andrea Tangredi (nel 2020 entrati nella classifica dei Forbes Under30), Marco Falcone e Denis Peroni e viene successivamente incubata da H-Farm. Oggi Indigo.ai ha realizzato assistenti virtuali per alcune delle aziende più innovative al mondo, tra cui banche, assicurazioni, case farmaceutiche, etc. (ad esempio, Santander Consumer Bank, Bayer, Just Eat). Il team è oggi formato da 25 persone che operano sia in Italia che all’estero.
La sua azienda ha ideato uno strumento che aiuta le persone a distinguere sui social network le notizie vere da quelle false. Cosa impedisce a una persona di riconoscere le fake news?
I toni accesi e i contenuti faziosi generano sui social un engagement molto più alto delle notizie ben spiegate. Questo porta ad una proliferazione di fake news e alla nascita di un circolo vizioso di propaganda che si ripercuote al di fuori dei social. La polarizzazione delle opinioni deriva dal fatto che non siamo “allenati” a riconoscere gli errori logici (altrui o nostri), perché la maggior parte di noi non ha studiato nella vita le tecniche del dibattito. Il risultato è che nella maggior parte dei casi le persone non dialogano e una conversazione scade in un muro contro muro. Imparare a confrontarci in maniera razionale ci fornisce gli strumenti utili a riconoscere le notizie costruite ad arte per suscitare la reazione “di pancia”.
Come funzionerebbe questo strumento?
Si tratterebbe di un assistente sotto forma di app con due obiettivi principali: insegnarci le tecniche per esprimerci al meglio e senza commettere errori di ragionamento, e aiutarci quando scriviamo un post su un social o un commento a un articolo, individuando in tempo reale se stiamo commettendo fallacie logiche o se esistono formulazioni migliori per il concetto che vogliamo esprimere. Questo è reso possibile dall’ uso dell’intelligenza artificiale, soprattutto quella “conversazionale” (ovvero quella che è in grado di interagire con le persone attraverso conversazioni vocali o scritte – si pensi ad esempio agli assistenti virtuali come Alexa o ai chatbot).
Quando prevedete che sarà disponibile questo strumento?
La ricerca che abbiamo fatto è partita da uno studio su come la tecnologia di intelligenza artificiale conversazionale che usiamo nel nostro lavoro possa essere applicata al problema dell’estrema polarizzazione delle opinioni e alle fake news. Tuttavia riteniamo che data la sensibilità del tema sia ancora troppo rischioso – ad oggi – uscire dall’ambito della ricerca e costruire lo strumento che abbiamo immaginato.