Secondo uno studio condotto dalla società di sicurezza informatica statunitense Imperva, entro la fine del 2023 quasi la metà di tutto il traffico Internet era costituito da bot.
I bot cattivi hanno raggiunto i livelli più alti registrati da Imperva, costituendo il 34% del traffico Internet, mentre i bot buoni costituivano il restante 15%.
Ciò è dovuto in parte alla crescente popolarità dell’intelligenza artificiale (AI) per la generazione di testo e immagini.
Secondo Baydoun, i bot filo-israeliani che hanno trovato mirano principalmente a seminare dubbi e confusione su una narrativa filo-palestinese piuttosto che a far sì che gli utenti dei social media si fidino di loro.
Eserciti di bot – da migliaia a milioni di bot dannosi – vengono utilizzati in campagne di disinformazione su larga scala per influenzare l’opinione pubblica.
Man mano che i bot diventano più avanzati, è sempre più difficile distinguere tra contenuto bot e contenuto umano.
“La capacità dell'intelligenza artificiale di creare queste reti di bot più grandi… ha un effetto enormemente deleterio sulla comunicazione veritiera, ma anche sulla libertà di espressione perché hanno la capacità di soffocare le voci umane”, ha affermato Jillian York, direttrice per la libertà di espressione internazionale presso l'International gruppo no-profit per i diritti digitali Electronic Frontier Foundation.
Evoluzione dei robot
I primi robot erano molto semplici e funzionavano secondo regole predefinite anziché impiegare le sofisticate tecniche di intelligenza artificiale utilizzate oggi.
A partire dalla prima metà degli anni 2000, con la crescita dei social network come MySpace e Facebook, i bot dei social media sono diventati popolari perché potevano automatizzare attività come aggiungere rapidamente “amici”, creare account utente e automatizzare i post.
Quei primi robot avevano capacità limitate di elaborazione del linguaggio: comprendevano e rispondevano solo a una gamma ristretta di comandi o parole chiave predefiniti.
“I bot online prima, soprattutto a metà degli anni 2010… rigurgitavano per lo più lo stesso testo ancora e ancora e ancora. Il testo… sarebbe ovviamente scritto da un bot”, ha detto Semaan.
Negli anni 2010, i rapidi progressi nell’elaborazione del linguaggio naturale (NLP), un ramo dell’intelligenza artificiale che consente ai computer di comprendere e generare il linguaggio umano, hanno fatto sì che i robot potessero fare di più.
Nelle elezioni presidenziali americane del 2016 tra Donald Trump e Hillary Clinton, uno studio condotto da ricercatori dell’Università della Pennsylvania ha rilevato che un terzo dei tweet pro-Trump e quasi un quinto dei tweet pro-Clinton provenivano da bot durante i primi due dibattiti.
Quindi, è emerso un tipo più avanzato di PNL noto come modelli linguistici di grandi dimensioni (LLM) che utilizza miliardi o trilioni di parametri per generare testo simile a quello umano.