In un contesto mediatico spesso frammentato e urlato, Canale 122 – Fatti di Nera emerge come un’isola di riflessione e serietà. Non si tratta solo di trasmettere notizie, ma di onorare la responsabilità che deriva dal raccontare la vita degli altri.
Tiziana Ciavardini, direttore di Canale 122, spiega come questa realtà stia cambiando il modo di fare giornalismo d'inchiesta.
Direttore, Canale 122 trasmette una passione genuina. Da dove nasce questa spinta costante?
"Nasce da una visione chiara: l'ascolto. Siamo consapevoli che la crescita passi attraverso il miglioramento continuo. Per questo stiamo investendo con forza nel rafforzamento della redazione, nella formazione dei nostri giovani — che rappresentano il 70% della squadra — e nell’ampliamento degli strumenti di verifica delle fonti. Il nostro obiettivo è rendere il racconto dei fatti sempre più accurato, trasparente e comprensibile. Migliorare il canale, per noi, significa alzare l’asticella della responsabilità editoriale, senza lasciarsi trascinare dal rumore di fondo o dalla sterile competizione."
Avete creato una rete capillare di inviati. Come si concilia la rapidità della diretta con il rispetto della verità?
"La nostra forza è la presenza sul campo. Abbiamo inviati su tutto il territorio nazionale, pronti a intervenire in ogni istante. Ma non vogliamo essere spettatori distanti; vogliamo essere lì, sui luoghi dove le storie accadono, per restituire la realtà con onestà. Questa dedizione alimenta il nostro canale di cronaca h24, disponibile anche sulla piattaforma Cusano Media Play. Garantiamo un giornalismo che non conosce pause, perché la sete di verità dei cittadini non si ferma mai."
Il martedì dedicate tre ore al "Caso Garlasco". Avete fatto una scelta coraggiosa contro le cosiddette “tifoserie”. Perché?
"È una scelta di civiltà. Il Caso Garlasco negli anni ha generato fazioni spesso più interessate a difendere un’idea che a interrogarsi sui fatti. Noi abbiamo deciso di restare fuori da queste dinamiche. Non esistono squadre da sostenere, né verità da difendere per appartenenza. Esistono atti, prove, il contraddittorio e il diritto di ogni cittadino a un’informazione equilibrata. Il nostro compito non è alimentare lo scontro, ma offrire uno spazio dove l’analisi prevalga sull’emotività e dove il dubbio sia considerato uno strumento di conoscenza, non una debolezza. È un impegno che portiamo avanti con esperti di ogni età e persone coinvolte direttamente nel percorso giudiziario."
"Incidente Probatorio" è il programma che vi ha fatto conoscere al grande pubblico. Qual è il segreto del suo successo?
"È la nostra missione in prima serata: analizzare la prova sotto la lente d’ingrandimento con un rigore che il pubblico ha imparato ad amare. Riceviamo quotidianamente SMS ed email; leggiamo ogni complimento e ogni critica con umiltà, perché ci aiutano a crescere. La nostra TV è un dialogo aperto: il martedì, con la diretta social, diamo voce a tutti, purché regni l’educazione e il rispetto reciproco. È un luogo di riflessione per chi crede nel valore dell’informazione autentica."
“Canale 122 – Fatti di Nera – continua il direttore – si conferma così un punto di riferimento per l’informazione libera, etica e pluralista. Il canale continuerà a garantire spazio a ogni voce, offrendo possibilità di replica e mantenendo alta l’attenzione sui temi della giustizia e dei diritti. Rinnoviamo il nostro impegno a costruire un giornalismo d’inchiesta fondato sui fatti, non sul clamore. Restare fuori dalle tifoserie è una scelta editoriale precisa: vogliamo un giornalismo che non giudichi, ma informi; che non divida, ma aiuti a comprendere profondamente la realtà che ci circonda”.
Deepfake: identità rubate e reputazioni distrutte
L’intelligenza artificiale non inventa il crimine, ma lo rende più veloce, scalabile e difficile da riconoscere, soprattutto quando si intreccia con la nostra vita digitale quotidiana.
Video, audio e immagini generati dall’AI permettono di “clonare” volti e voci con una precisione inquietante, al punto da ingannare familiari, colleghi e sistemi di sicurezza basati sul riconoscimento biometrico. I deepfake sono ormai uno strumento standard per frodi, furti di identità, estorsioni e diffamazione, con piattaforme che offrono contenuti pronti all’uso a costi bassissimi.
Da un lato, vediamo manager “ricreati” artificialmente per ordinare bonifici milionari o autorizzare pagamenti straordinari; dall’altro, personaggi pubblici e comuni cittadini impersonati in video pornografici o compromettenti, diffusi per vendetta o ricatto.
L’AI è diventata la macchina perfetta per scrivere email e messaggi di truffa credibili, grammaticalmente corretti e adattati al profilo di ogni potenziale vittima, grazie all’analisi automatica dei dati raccolti online. I cosiddetti kit di phishing guidati dall’AI sono in grado di imitare alla perfezione toni, linguaggi e formati di banche, enti pubblici e grandi aziende, aggirando perfino forme avanzate di autenticazione.
Un fronte emergente è quello dei chatbot “hackerati” o deliberatamente progettati senza filtri etici, i dark LLMs: sistemi che forniscono istruzioni per truffe, attacchi informatici, riciclaggio di denaro e altre attività criminali, venduti nell’underground digitale come strumenti chiavi in mano. Per le piccole e medie imprese, spesso prive di difese informatiche, l’AI può quindi diventare l’arma con cui criminali automatizzano campagne di frode, simulando email di fornitori, richieste di pagamento o conversazioni di assistenza clienti.
La frontiera dei crimini legati all’AI si muove così su due piani: da un lato, l’utilizzo diretto di strumenti intelligenti per commettere reati “tradizionali” in forma nuova (truffe, frodi, estorsioni, diffamazione); dall’altro, l’emergere di nuove figure di illecito legate alla progettazione, messa in commercio e mancato controllo di sistemi ad alto rischio. Le recenti rassegne sul cosiddetto AI‑crime mostrano un ecosistema criminale in rapida professionalizzazione, dove tutorial, toolkit e servizi in abbonamento abbassano drasticamente la soglia di ingresso per chi vuole delinquere.
Il paradosso è che le stesse tecnologie vengono usate anche per difendersi: algoritmi che monitorano reti in tempo reale, sistemi che riconoscono deepfake, strumenti di autenticazione
avanzata. La vera partita, oggi, non è più chiedersi se l’AI possa essere usata per commettere crimini, ma chi controllerà questi strumenti, con quali limiti e con quale equilibrio tra sicurezza, libertà e responsabilità penale.