GLI ATTACCHI DELL’IA CONTRO IL GOVERNO, LA POLITICA ED IL LIBERO PENSIERO...
- oposservatoriopoli
- 14 ore fa
- Tempo di lettura: 9 min
Quando l’intelligenza artificiale viene manipolata.
C’è un momento della vita nel quale bisogna fermarsi a riflettere.
L’idea che l’intelligenza artificiale non “sfugga di mano” ma venga invece deliberatamente controllata per loschi affari è molto più realistica - e attuale - dello scenario fantascientifico alla Terminator.
Non parliamo quindi di macchine ribelli, ma di esseri umani che usano l’IA come strumento.
E questo è già un problema concreto.
Quando questo criterio viene adattato alla politica per screditare un determinato esponente diventa un’azione miserabile, oltre che un reato.
È il caso, ad esempio, di una pagina di Fb intitolata: Elizabeth Megan Paul che sta facendo il giro del web con notizie “bomba” del tipo: “NOTIZIA SCIOCCANTE: NICOLA GRATTERI DISTRUGGE L'UDIENZA GOVERNATIVA CON ATTACCHI "BOMBA" A MATTEO SALVINI - PROVE FERREE. Roma è in fiamme! L'ex Procuratore Speciale Nicola Gratteri ha fatto irruzione in un'udienza parlamentare a porte chiuse guidata dalla destra, rilasciando una testimonianza scioccante che ha "inchiodato" direttamente Matteo Salvini con "prove che superano di gran lunga ogni ragionevole dubbio."
O ancora: “ESPLOSIONE SCIOCCANTE A ROMA: ELLY SCHLEIN ASSALTA UN "PUGNETTO DI FERRO" SMASCHERANDO LA COALIZIONE MELONI NEL CAOS PARLAMENTARE. Una seduta a porte chiuse a Palazzo Montecitorio si è appena trasformata nel teatro di un'"esplosione" politica. Il leader dell'opposizione ha diffuso documenti che il governo Meloni non avrebbe mai voluto fossero rivelati.”
Ovviamente le notizie sono false ma, la massa legge e si fa coinvolgere, grazie all’effetto gregge.
Una pagina Facebook che in realtà sponsorizza solo un blog notizie dal titolo https://redworld.oedn.net/ nel quel poi vengono riportate per “intero” le notizie false, tendenziose, senza contenuti reali dapprima postate sul profilo.
Un po’ come la pagina Facebook nominata Eli Clay Lukas che usa la medesima tecnica.
E come queste due pagine ce ne sono centinaia se non migliaia che però, hanno un denominatore comune: l’attacco deliberato al governo di centrodestra con l’immissione nei social di notizie false che si ripercuotono su una popolazione che non accerta mai la fonte delle notizie.
I due leader più attaccati?
Giorgia Meloni e Matteo Salvini.
Un altro problema è che queste pagine utilizzano numeri di telefono e mail di attività commerciali realmente esistenti, ad esempio la prima usa il numero e la mail di una attività commerciale nel settore dell'edilizia e materiali di Pizzoli (AQ), l’altra una impresa Fiorentina di molatura ed incisioni su vetro e cristallo dal 1800.
Chissà se i titolari delle succitate aziende sanno che le coordinate delle loro attività sono usate per questi scopi nel web.
La manipolazione dell’informazione è un fatto grave.
Deepfake di politici o personaggi pubblici, generazione massiva di fake news e campagne di disinformazione mirata sono contesti gravissimi in un mondo già confuso.
Esempio reale?
Durante varie elezioni internazionali sono stati usati sistemi automatizzati per influenzare opinioni pubbliche tramite social media.
Risultato?
Elezioni taroccate.
Senza calcolare le truffe e la criminalità digitale.
Clonazione vocale per fingere di essere un familiare, email e messaggi di phishing scritti in modo perfetto e automazione di attacchi informatici.
Se aiutiamo l’AI a sostituirci, l’AI ci purgherà tutti prima o poi.
Qui l’IA aumenta scala e credibilità delle truffe.
La truffa politica o quella all’anziana signora non cambia il risultato.
Questo ci porterà alla sorveglianza e al controllo sociale.
Tecnologie di riconoscimento facciale e analisi comportamentale possono essere usate per reprimere dissenso o controllare popolazioni.
Un esempio discusso è l’uso massivo di sorveglianza in Cina, dove l’IA supporta sistemi di monitoraggio estesi.
Dite che stiamo esagerando?
Forse non avete capito la portata del problema.
Signori, sveglia, voi non avete capito la portata del problema.
Immaginate solo la manipolazione economica.
Trading algoritmico manipolativo, creazione di bolle artificiali e raccolta e sfruttamento opaco dei dati personali.
Abbiamo capito... a “bolle artificiali” vi abbiamo perso...
Il punto chiave è che l’IA non ha intenzioni proprie.
Il problema non è la tecnologia in sé, ma chi la controlla, con quali incentivi, con quale livello di regolamentazione e con quale trasparenza.
Le pagine di Fb farlocche che comunque arrivano a 20.000 utenti, da chi sono state create?
Chi le controlla?
Chi le finanzia?
La vera domanda non è: “L’IA diventerà cattiva?”
Ma piuttosto: “Chi la userà, e per fare cosa?”
Vi raccontiamo una storiella che per molto tempo è rimasta segreta alla massa.
Sapete chi è Geoffrey Hinton?
Geoffrey Hinton è considerato uno dei "padrini" dell'IA.
Oggi conoscete bene nomi come Mark Zuckerberg, Osama bin Laden, Jeff Bezos o Richard Branson ma non conoscete il nome di Geoffrey Hinton.
D'altronde, perché conoscere l’uomo che ha dato vita all’intelligenza artificiale?
Uno degli uomini più potenti di Google e di Anthropic Claude, due mostri dell’informatica mondiale si dimette per paura di suo “figlio” o “figlia” e nessuno al mondo lo sa.
Nel maggio 2023, infatti, Hinton ha lasciato il suo ruolo di Vicepresidente e Engineering Fellow presso Google, dove lavorava da oltre un decennio.
Ha motivato le sue dimissioni dichiarando di voler "parlare liberamente dei pericoli" dell'IA, pentendosi in parte del lavoro svolto.
Hinton ha espresso preoccupazione per la velocità con cui l'IA sta progredendo, temendo che possa diventare più intelligente degli esseri umani in tempi brevi (citando il rischio di disinformazione e la sostituzione di posti di lavoro).
Ovviamente le notizie sono sapientemente oscurate, anche ci esistono hacker etici che ogni tanti rinfrescano le pareti del web con notizie come queste, necessarie a sviluppare una coscienza critica.
Più recentemente, a febbraio 2026, si sono registrate ulteriori dimissioni di alto profilo.
Il capo della ricerca sulla sicurezza dell'IA presso Anthropic si è dimesso, citando preoccupazioni etiche e il fatto che il mondo sarebbe in pericolo a causa di uno sviluppo troppo rapido e poco controllato dell'IA.
Le dimissioni di figure come Hinton sono motivate principalmente dal timore che l'IA superi l'intelligenza umana e dalle conseguenze negative, come la diffusione di false informazioni e lo sviluppo incontrollato.
Tuttavia le notizie come queste vengono sottovalutate perché l’IA ha già sviluppato tutte le contromisure necessarie alla sua sopravvivenza.
Intanto se chiedete all’IA di Hinton, l’IA risponderà smorzando i toni.
Non è però corretto dire che “nessuno lo sa” o che le notizie siano oscurate: le dichiarazioni di Hinton, ad esempio, sono state riprese da BBC, New York Times, Guardian e molte altre testate internazionali.
Detto questo, il tema dei rischi è reale.
Ma va affrontato in modo lucido, non apocalittico.
Tuttavia il risultato è la disinformazione su larga scala.
Modelli generativi possono produrre fake news convincenti, deepfake audio/video e campagne coordinate automatizzate.
Non vi ricorda nulla dei tempi passati?
Anche la Prima Repubblica ne faceva uso.
Anche OP se ne è interessato a suo tempo …
Non avete capito?
Non avete afferrato l’idea che le tecnologie di comunicazione, ieri i dossier cartacei e le operazioni coperte, oggi l’IA e i social, possano essere strumenti di manipolazione su larga scala?
Ve lo facciamo capire meglio.
Prima Repubblica: dossier, controspionaggio e guerra informativa.
Durante la cosiddetta Prima Repubblica, l’Italia viveva dentro la Guerra Fredda.
Negli anni della Prima Repubblica la manipolazione era invisibile ma rara.
Oggi è visibile ma costante.
Non c’è più bisogno di nascondere un documento in una “palazzina”.
Basta sommergere la rete di versioni alternative finché nessuno distingue più il reale.
Dalla “Palazzina” ai “Server”, quando la guerra informativa cambia pelle.
C’è stato un tempo in cui la manipolazione dell’informazione aveva un odore preciso, carta, toner, faldoni, stanze chiuse.
Non era visibile, non era di massa, non era rumorosa. Era chirurgica.
Durante la Prima Repubblica, l’Italia era “il” laboratorio della Guerra Fredda. Non solo sul piano politico, ma su quello informativo.
I servizi di sicurezza, come il SISMI, operavano in un contesto di conflitto permanente tra blocchi ideologici. Esistevano strutture parallele, reti stay-behind come Gladio, apparati stranieri interessati alla stabilità (o instabilità) del Paese.
Non è materia da romanzo.
È storia documentata da commissioni parlamentari, sentenze, archivi desecretati.
Il dossieraggio era una pratica reale.
La costruzione di narrazioni funzionali a equilibri politici era reale.
Il depistaggio investigativo in alcuni casi è stato reale.
Non si trattava di manipolare milioni di persone con un click.
Si trattava di influenzare snodi strategici, magistrati, direttori di giornale, leader di partito, vertici istituzionali.
La logica era verticale.
Pochi centri, pochi obiettivi, alto impatto.
L’informazione era un’arma.
Ma era un’arma per specialisti.
Oggi non c’è più bisogno di una "palazzina".
Oggi non servono più faldoni chiusi in un archivio sotterraneo.
Servono server.
L’IA generativa consente di produrre in poche ore ciò che prima richiedeva settimane, articoli falsi ma plausibili, documenti artefatti, audio e video deepfake, reti di account automatizzati che simulano consenso.
Non è fantascienza.
È tecnologia disponibile.
La differenza non è solo tecnica.
È strutturale.
Negli anni Settanta un falso dossier poteva distruggere una carriera politica.
Nel 2026 una campagna coordinata può alterare la percezione collettiva di un evento in tempo reale.
Non c’è più bisogno di occultare un documento.
Basta saturare lo spazio informativo.
Dalla manipolazione verticale alla manipolazione reticolare.
Nella Prima Repubblica la manipolazione era verticale, un centro di potere influenzava pochi canali, giornali, televisioni, agenzie, e da lì l’informazione scendeva verso la popolazione.
Oggi è reticolare.
L’algoritmo non impone, suggerisce.
Non censura: amplifica.
Non costruisce un’unica verità, moltiplica le versioni.
Il risultato non è una narrazione alternativa compatta.
È la frammentazione permanente.
Se negli anni di piombo l’obiettivo era orientare l’opinione pubblica, oggi l’obiettivo può essere più sottile, disorientarla.
Quando tutto è plausibile, nulla è verificabile.
Quando ogni video può essere falso, ogni prova perde forza.
Quando ogni versione ha una community pronta a difenderla, la verità diventa tribale.
C’è però un equivoco pericoloso.
Non è l’IA che “decide di manipolare”.
Non è l’IA che sviluppa un istinto di sopravvivenza.
Non è un’entità autonoma che pianifica.
Gli attori restano umani, Stati, gruppi politici, attori economici, potenze straniere, movimenti ideologici.
La tecnologia è un moltiplicatore di capacità.
Non un soggetto politico.
Dire che “l’IA ha già sviluppato contromisure per sopravvivere” è una metafora suggestiva, ma fuorviante.
I modelli non hanno intenzionalità.
Hanno pattern statistici.
Durante la Prima Repubblica, il controllo dell’informazione era opaco ma limitato.
Oggi è trasparente ma pervasivo.
Allora il cittadino medio non sapeva di essere dentro una guerra informativa.
Oggi lo sa, ma non riesce a sottrarsi.
La manipolazione di ieri era chirurgica e mirata.
Quella di oggi è diffusa e personalizzata.
Non si costruisce più un falso dossier su un leader.
Si costruiscono mille micro-narrazioni su misura per mille segmenti psicologici diversi.
La nuova normalità, la confusione come strategia.
Se negli anni Settanta la destabilizzazione passava attraverso la tensione, oggi può passare attraverso la saturazione.
Non servono bombe.
Serve rumore.
Non serve censurare una notizia.
Basta sommergerla.
Non serve distruggere la fiducia in un’istituzione.
Basta renderla costantemente sospetta.
La guerra informativa contemporanea non sempre punta a convincere.
Punta a stancare.
Un cittadino stanco smette di verificare.
Un cittadino confuso si rifugia nella propria tribù.
Un cittadino polarizzato diventa prevedibile.
Allora la bomba la sganciamo noi.
Ese fosse una determinata falange politica ad usare l’IA e i social in modo anonimo per fare campagna?
La bomba è invisibile?
Non esplode.
Non fa rumore.
Non lascia crateri.
Eppure, quando cade, cambia il paesaggio.
Immaginiamo questo: una falange politica, non importa quale colore, decide che il consenso non si conquista più nelle piazze ma nei feed.
Non con i comizi ma con gli algoritmi.
Non con le idee ma con le emozioni calibrate.
Non parliamo di fantascienza.
Parliamo di strategia.
Un gruppo ristretto.
Tecnici, data analyst, comunicatori.
Nessuna bandiera sulla porta.
Nessuna insegna.
Una società di consulenza qualunque, in un coworking qualunque, in una città qualunque.
Fuori è tutto normale.
Dentro si lavora a una campagna.
La macchina...
Si parte dai dati.
Abitudini di consumo.
Paure ricorrenti.
Temi sensibili per quartiere, per fascia d’età, per professione.
Si costruiscono modelli linguistici addestrati a replicare lo stile di “persone comuni”.
Non leader.
Non influencer.
Persone plausibili.
Il pensionato arrabbiato.
La madre preoccupata.
Lo studente deluso.
Il piccolo imprenditore esasperato.
Ogni identità ha una storia digitale coerente, foto generate, commenti vecchi di mesi, interazioni verosimili.
Niente eccessi.
Niente propaganda esplicita.
Poi inizia il lavoro vero.
Non ufficiale.
Non firmata.
Non riconducibile.
La viralità controllata.
I contenuti non nascono per diventare virali subito.
Nascono per sedimentare.
Gruppi locali.
Forum di quartiere.
Pagine tematiche.
Commenti sotto articoli di cronaca.
Le conversazioni si spostano di pochi gradi ogni settimana. Impercettibilmente.
Un mese dopo, un tema che non esisteva è ovunque.
Tre mesi dopo, è un’emergenza percepita.
Sei mesi dopo, è priorità nazionale.
Nel frattempo, la falange ufficiale può permettersi di restare “moderata”.
I toni più accesi li fanno altri.
Profili anonimi.
Cittadini “indignati”.
Il vantaggio è totale, l’aggressività non è attribuibile.
Il consenso sembra spontaneo.
La bomba!!!
E poi arriva il momento.
Un evento reale, una rissa, un fatto di cronaca, una dichiarazione infelice, viene intercettato in tempo reale.
L’IA produce migliaia di interpretazioni emotive coerenti con la narrativa costruita nei mesi precedenti.
In poche ore hashtag coordinati, video tagliati in modo suggestivo, testimonianze artificiali, indignazione organica simulata…
Non serve mentire apertamente.
Serve orientare la lettura.
La percezione collettiva si sposta.
Non tutta.
Non per sempre.
Ma abbastanza.
Il giorno dopo, nei talk show si discute di quel tema.
I giornali inseguono.
I politici reagiscono.
L’agenda è cambiata.
La bomba è esplosa.
Ed ecco che vi abbiamo descritto come applicare il sistema, ad esempio, come in quello che sta accadendo suo social per la campagna per il “No” e per il “Si”.
Perché dell’IA, se ne approfittano tutti.
Ma proprio tutti...
Stay tuned...I ragazzi sono in giro...






Commenti