Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy
Cliccando sul tasto "Accetto" acconsenti all’uso dei cookie. Accetto

NEWS ALIAS

12 Ottobre 2021
Bookmark and Share

F-Secure: manipolazione dell' intelligenza artificiale

MINACCE
& RICERCHE

articolo by Marzia Romeo 
- MarCom specialist @F-Secure

7 minuti di lettura

Una nuova ricerca mostra come l’IA nelle raccomandazioni online possa essere manipolata

I motori di raccomandazione sono utilizzati da siti e applicazioni su internet per spingere le persone ad acquistare più prodotti o a consumare più contenuti. Le scelte che presentano possono influenzare gli utenti, sia rafforzando le preferenze esistenti che introducendo nuovi elementi nella speranza di un maggiore coinvolgimento.

Per testare l’integrità di questi sistemi, abbiamo esaminato come i meccanismi di raccomandazione potrebbero essere manipolati da un attaccante. La nostra ricerca ha tentato di avvelenare i modelli di filtraggio collaborativo utilizzati da molti siti e applicazioni per le raccomandazioni, utilizzando tecniche che potrebbero essere utilizzate per far apparire un pezzo di contenuto in una posizione più alta nella timeline dei social media o nei risultati di ricerca di una persona, agganciandosi ad un altro pezzo di contenuto.

Gli attacchi simulati hanno effettivamente aumentato le possibilità che un utente fosse raccomandato ad un altro utente specifico, sulla base dell’attività di retweet. Anche un numero molto piccolo di retweet era sufficiente a manipolare l’algoritmo di raccomandazione per promuovere gli account il cui contenuto è stato condiviso attraverso i retweet iniettati. Abbiamo scoperto che questi attacchi potrebbero rappresentare meccanismi efficaci per diffondere la disinformazione, o per far crescere anelli di follow-back che coordinano la loro attività al fine di promuovere contenuti specifici.

I nostri risultati suggeriscono anche che i modelli di intelligenza artificiale probabilmente utilizzati da tutte le piattaforme di social media per aumentare l’engagement del sito sono già manipolati da utenti motivati. E queste piattaforme sono vulnerabili a uno sfruttamento molto maggiore da parte di avversari che potrebbero adottare un approccio più sperimentale per testare i modi migliori in cui influenzare l’intelligenza artificiale in questi meccanismi.

I pericoli della disinformazione

YouTube, Facebook, TikTok e Twitter giocano un ruolo fondamentale nell’influenzare il pubblico e modellare l’opinione pubblica. Questi siti possono già essere manipolati in vari modi, che includono:

  • servizi che vendono retweet, like, visualizzazioni, sottoscrizioni, ecc.
  • gruppi organizzati, come le fabbriche di troll
  • gruppi segreti ad hoc che usano attività coordinate per influenzare il discorso politico o diffondere disinformazione

Molti avversari trattano i social media come un gioco di guerra dell’informazione, escogitando continuamente modi per amplificare e diffondere contenuti, spesso raggiungendo l’amplificazione attraverso azioni coordinate eseguite da account falsi. Per fare questo in modo più efficace, spesso aggirano i sistemi progettati per prevenire la manipolazione, la pubblicazione di disinformazione e altre azioni che sono vietate dai termini di servizio di quella piattaforma.

Miliardi di persone in tutto il mondo ottengono le loro notizie dai social media. E la capacità di accelerare la diffusione della disinformazione è particolarmente preoccupante, dato che le falsità sembrano possedere una viralità intrinseca. Uno studio del 2018 pubblicato su Science ha dimostrato che le falsità hanno il 70% di probabilità in più di essere ritwittate su Twitter rispetto alla verità. Uno studio più recente ha rilevato che la disinformazione sul Covid-19 si è diffusa più velocemente della verità. Questo fenomeno potrebbe essere incoraggiato da raccomandazioni che alimentano gli sforzi di gruppi intenti a diffondere volutamente cattive informazioni. Questi esperimenti illustrano la difficoltà di differenziare tra ciò che è la manipolazione intenzionale dei meccanismi di raccomandazione e ciò che è diventato pratica standard degli utenti su queste piattaforme.

Indipendentemente da ciò, questi risultati forniscono un avvertimento su come questi meccanismi potrebbero essere abusati per influenzare l’opinione pubblica, specialmente durante eventi sensibili al tempo, i quali danno ai manipolatori brevi finestre per diffondere efficacemente la disinformazione prima che la loro attività sia rilevata – come nel periodo di tempo che precede un’elezione o quando si cerca di cronometrare l’aumento o il calo del prezzo di un’azione o nel mezzo di una campagna di vaccinazione di massa che si basa sulla conquista della fiducia di una vasta maggioranza della popolazione di un Paese.

Perché concentrarsi sulle raccomandazioni?

Filtraggio collaborativo—cos’è?

Cosa abbiamo scoperto

CONTINUA A LEGGERE IL RESTO DELL' ARTICOLO QUI

 

Bookmark and Share
© Alias S.r.l. 2024. Tutti i diritti riservati. Sede Legale: Via San Francesco, 2 - 33100 Udine
Capitale sociale Euro 62.400,00 i.v., C.F. / P.IVA 01837180304, Iscrizione C.C.I.A.A. Registro Imprese di UDINE n. 01837180304
Privacy Policy  |  Cookie Policy


© project Web Industry