Questo articolo è stato pubblicato da questo sito
Un esame algoritmico degli account effettuato martedì 17 maggio ha rilevato che più di venti account su cento hanno un’alta probabilità di essere bot. Una verifica manuale condotta sugli stessi cento account ha concluso che più della metà potrebbero essere bot. Di contro, un’analisi degli argomenti discussi da questi account non ha raccolto prove che dimostrino che gli account sospetti fossero falsi. Tuttavia, molti di questi profili sono scomparsi poco dopo, un aspetto che fa pensare che Twitter sia in grado di rilevare i bot in modo piuttosto rapido. Vince Lynch, amministratore delegato di IV.ai, afferma che identificare gli account sospetti è un’operazione intrinsecamente soggettiva e comporta un certo grado di incertezza.
“È un problema molto complesso“, spiega Filippo Menczer, professore dell’Indiana University che ha diretto lo sviluppo di Botometer, un algoritmo che ha assegnato all’account di Musk un punteggio relativamente alto. Menczer sostiene che un’analisi di cento account non sia rappresentativa degli utenti attivi giornalieri di Twitter e che campioni diversi produrranno risultati molto diversi tra loro. “Voglio sperare che si tratti di uno scherzo“, afferma Menczer a proposito della metodologia.
Bot più intelligenti
Negli ultimi anni gli account automatizzati sono diventati più sofisticati e complessi. Molti account falsi sono gestiti in parte da esseri umani oltre che da macchine, oppure si limitano ad amplificare messaggi scritti da persone reali (quelli che Menczer definisce “account cyborg“). Altri profili utilizzano stratagemmi progettati per eludere il rilevamento umano e algoritmico, come per esempio mettere e rimuovere rapidamente un “mi piace” a un tweet, oppure pubblicare e cancellare a stretto giro un post. Oltre a questi, poi, esistono ovviamente numerosi profili automatizzati o semi-automatizzati, come quelli gestiti dalle aziende, che in realtà non sono dannosi.
L’algoritmo di Botometer utilizza l‘apprendimento automatico per analizzare un ampio bacino di dati pubblici legati a un account – non solo il contenuto dei tweet, ma anche l’orario in cui vengono inviati i messaggi, i profili seguiti e così via – e determinare la probabilità che si tratti di un bot. Sebbene l’algoritmo sia all’avanguardia, Menczer afferma che “molti account ora rientrano nella fascia di cui l’algoritmo non è molto sicuro“.
Futuro incerto
Menczer e altri esperti paragonano i tentativi di individuare i bot al gioco del gatto col topo. In futuro, aggiungono, il rilevamento dei bot potrebbe diventare molto più difficile, dato che gli spambot ricorrono sempre di più ad algoritmi in grado di generare testi credibili e dialogare in modo coerente.
Twitter è meglio attrezzato per individuare i bot utilizzando l’apprendimento automatico, dal momento che la piattaforma ha accesso a molti più dati sul conto di ogni account, tra cui la cronologia completa delle attività di un utente, nonché i diversi indirizzi ip e i dispositivi utilizzati. Ma Delip Rao, un esperto di machine learning che ha lavorato al rilevamento degli spam per Twitter dal 2011 al 2013, sostiene che l’azienda potrebbe decidere di non rivelare il funzionamento dei suoi metodi di analisi per non rendere pubblici dati personali o informazioni che potrebbero essere utilizzate per manipolare il sistema di raccomandazione della piattaforma.