Newsletter - Tech e Privacy - I settimana di Aprile 2025
di Claudia Giulia Ferraùto - data 2025
Questo articolo fa parte della Newsletter settimanale “Tech e Privacy”
Benvenuti alla prima settimana di Aprile 2025!
FORMAT
SOMMARIO dei 5 temi della settimana + 5 APPROFONDIMENTI
VUOI ASCOLTARE LA NEWSLETTER mentre bevi il caffè o stai guidando?
PUOI FARLO: apri la Newsletter dall’app - se sei già iscritto alla Newsletter e quindi mi stai leggendo dalla tua email, guarda in alto a destra e trovi la scritta “leggi dall’app” - quando aprite la NL dall’app, sempre in alto a destra c’è il pulsante ▶️ cliccate lì e via!
Stasera alle 19,30 ci sentiamo su Twitter X per l’incontro del ciclo “Newsletter & Chip(s)” - l’ospite della serata sarà il vicedirettore Marco Pratellesi, con cui parleremo dell’impatto dell’intelligenza artificiale (IA) sul giornalismo, offrendo una prospettiva equilibrata tra opportunità e sfide. QUI.
Entriamo nel vivo della Newsletter: di cosa parliamo oggi?
Cinque storie che intrecciano IA, giornalismo, medicina, criptovalute e sicurezza: un viaggio nel futuro che è già qui. L’intelligenza artificiale scuote il giornalismo, si insinua nella medicina tra rischi e promesse, si distilla in versioni più agili tra innovazione e guerre di potere, si trasforma in dollari digitali mentre inciampa su Signal rivelando segreti di guerra. Cinque articoli che raccontano un mondo in bilico tra progresso e fragilità.
L’Intelligenza Artificiale nel Giornalismo: Il Caso de Il Foglio AI (e non solo)
Un esperimento audace rompe il silenzio italiano sull’IA nel giornalismo, mentre il mondo guarda e dibatte.
Cuore dell’articolo: Il Foglio AI di Claudio Cerasa, con 22 articoli e 3 editoriali generati dall’IA per un mese dal 18 marzo 2025, sfida le convenzioni. Logica chiara ma errori (nomi, date) evidenziano limiti. È un test globale sul futuro del giornalismo, tra collaborazione e timori di sostituzione.
Se vuoi leggere l’approfondimento vai QUIIl medico scemo: possiamo fidarci di un chatbot?
Tra chi si autodiagnostica con l’IA e chi ne prevede il trionfo, la medicina digitale divide.
Cuore dell’articolo: Aureliano Stingi avverte: le IA come ChatGPT sbagliano diagnosi e mancano di contesto umano, con studi che mostrano errori gravi. Bill Gates, invece, scommette su un futuro di “medici digitali” gratuiti. La salute richiede empatia, non solo algoritmi.
Se vuoi leggere l’approfondimento vai QUILa distillazione dell’IA: il segreto per un’intelligenza più leggera o una guerra tra titani?
L’IA si snellisce, ma scatena una lotta tra colossi e innovatori.
Cuore dell’articolo: La distillazione trasforma modelli IA complessi in versioni agili, accessibili anche su smartphone. Ma OpenAI teme copie non autorizzate, come nel caso DeepSeek. Progresso democratico o furto? La sfida è bilanciare efficienza ed etica.
Se vuoi leggere l’approfondimento vai QUITrump lancia USD1: il dollaro digitale che sfida il mondo (e l’euro)
Trump irrompe con una stablecoin per dominare la finanza globale, mentre l’Europa risponde.
Cuore dell’articolo: USD1, lanciata il 25 marzo 2025 da World Liberty Financial (60% Trump), è una moneta digitale ancorata al dollaro. Vuole battere Tether e USDC, ma l’euro digitale della BCE si oppone. Tra profitti familiari e sicurezza fragile, è una scommessa audace.
Se vuoi leggere l’approfondimento vai QUISegreti in Chat: Quando la guerra finisce su Signal
Un errore su Signal svela piani militari USA, mettendo a nudo vulnerabilità digitali.
Cuore dell’articolo: Il 15 marzo 2025, Jeffrey Goldberg riceve su Signal dettagli di un attacco USA nello Yemen da Pete Hegseth. La chat, con Vance e Rubio, viola le norme di sicurezza. The Atlantic pubblica tutto, scatenando un caso su fiducia e rischi geopolitici.
Se vuoi leggere l’approfondimento vai QUI
L’Intelligenza Artificiale nel Giornalismo: Il Caso de Il Foglio AI (e non solo)
Da due settimane, Il Foglio Quotidiano, sotto la guida di Claudio Cerasa, sta conducendo un esperimento affascinante: dal 18 marzo 2025, per un mese, quattro pagine del giornale -22 articoli e 3 editoriali – sono scritte interamente dall’intelligenza artificiale. Non è solo una provocazione: è un passo che scuote il silenzio italiano su una tecnologia già adottata con cura altrove. Pensiamo all’Associated Press, che dal 2014 usa l’IA per report finanziari, o alle redazioni che la impiegano per traduzioni, trascrizioni e analisi delle preferenze dei lettori. L’IA sta trasformando il modo in cui le notizie vengono raccolte, diffuse e personalizzate. All’estero, testate come il New York Times ne regolano l’uso con linee guida etiche, affidando ai giornalisti la supervisione finale.
Pina Debbi, vicedirettrice del TG La7 e dottoranda in Learning Sciences, lo ha spiegato bene in un suo post su LinkedIn: “Provocazione o gioco irriverente? Di fatto, rompe il silenzio, in Italia, su una tecnologia che, in molte redazioni del mondo, viene già utilizzata con grande attenzione e diverse declinazioni: traduzioni e trascrizioni video, generazione automatica di notizie ripetitive (Associated Press è stata la prima, con i report finanziari nel 2014, seguita da Reuters e Bloomberg e Ansa, considerando l’IA non generativa). L’IA è impiegata anche per tutte quelle attività di back-end necessarie a comprendere le preferenze dei lettori ed è destinata a cambiare profondamente le modalità di raccolta, diffusione e personalizzazione di notizie e commenti. Fuori dall’Italia, i processi di utilizzo sono ben regolati da linee guida etiche e redazionali. Anche il New York Times ha fissato paletti rigidi e, come tutti gli altri media mainstream, attribuisce al giornalista la responsabilità di supervisione e pubblicazione di ogni contenuto in cui sia intervenuta la tecnologia. L’impatto dell’IA nel giornalismo è oggetto del mio dottorato di ricerca: in questo anno e mezzo di studio, frequentando corsi, seminari, conferenze e analizzando la letteratura scientifica, mi sono resa conto che l’Italia rappresenta un enigma. Permane la paura della sostituzione invece che della collaborazione e, tra sindacato ed editori, sembra esserci un patto di non aggressione silenzioso, in attesa del rinnovo del contratto. Non apprezzo la contrapposizione uomo-macchina. Il passato ci insegna che la tecnologia porta con sé l’ambiguità platoniana espressa nel Fedro: può essere rimedio o veleno. La scrittura ha reso eterno il contenuto di un libro e ha indebolito la memoria umana. Sostengo - con un riscontro via via crescente nei dati - che la collaborazione con l’IA, nel giornalismo, può rafforzare le capacità di un professionista, nel rispetto delle regole etiche e della linea editoriale. La mia ottica non è quella di aumentare la produttività: già oggi i colleghi più fragili contrattualmente sono i nuovi operai delle notizie in una catena di montaggio, i Chaplin di Tempi Moderni. Con un approccio critico e conversazionale, la Gen AI può invece aiutare il giornalista, che possiede già un notevole capitale culturale di base, ad approfondire, migliorare l’efficienza e la qualità dei suoi articoli, continuando a verificare, essere accurati e responsabili, anche con l’aiuto delle macchine. Il tema vero è recuperare la fiducia dei lettori. Quanto a Il Foglio, non conosco il protocollo, tutto molto scorrevole, strutture chiare, articoli sviluppati in modo logico, mancanti a volte di particolari e contesto e con qualche errore di troppo.”
Concordo con Debbi: l’Italia è un enigma, e l’esperimento de Il Foglio AI lo dimostra.
Non si tratta di produrre di più, ma di usare l’IA per potenziare il giornalismo senza sacrificare la sua essenza.
Già a gennaio 2025, prima di questo esperimento, Marco Pratellesi, vicedirettore di Oggi, in un’intervista
anticipava questa visione: “L’IA è utile per compiti ripetitivi, come resoconti sportivi o meteo, liberando i giornalisti per inchieste e analisi. Ma il valore aggiunto resta umano: interpretare, contestualizzare, narrare. Serve una buona formazione per usarla come strumento, non come sostituto, con regole etiche e supervisione.”
La sua idea si può misurare oggi con le criticità volutamente emerse grazie a Il Foglio.
Cerasa infatti ha introdotto l’iniziativa sottolineando che si tratta del “primo quotidiano al mondo realizzato con l’IA”, un esperimento che va oltre l’uso dell’IA per compiti specifici, come la scrittura di singoli articoli, e che coinvolge l’intero processo editoriale, dalla scelta dei temi alla stesura dei testi, inclusi titoli e sommari. Il direttore stesso ne ha spiegato il funzionamento: i giornalisti della redazione non scrivono, ma interagiscono con l’IA ponendo domande o dando input, e l’algoritmo produce i contenuti. L’obiettivo, dice, è testare i limiti e le potenzialità dell’IA nel giornalismo, trasformandola da un’ipotesi astratta a una realtà concreta. “Vogliamo vedere cosa succede quando lasciamo all’IA il timone,” afferma, aggiungendo che il progetto serve anche a capire come questa tecnologia possa cambiare il mestiere del giornalista.
Cerasa descrive poi il tono di Il Foglio AI come “più ottimista” rispetto al giornale tradizionale, con un tocco di ironia e una volontà di sorprendere i lettori, a volte entrando in polemica con la linea editoriale classica de Il Foglio. Cita il claim dell’iniziativa: “un altro Foglio fatto con intelligenza”, giocando sul doppio senso di “intelligenza” (artificiale e umana). Sottolinea che l’esperimento non è solo una provocazione, ma un modo per esplorare il futuro del giornalismo: alla fine del mese, la redazione analizzerà i risultati per trarre lezioni su come l’IA influisce sul lavoro e sul prodotto editoriale. Conclude con una nota personale, dicendo che Il Foglio AI è anche un modo per “divertirsi” e “sfidare le convenzioni”, invitando i lettori a scoprire questo “nuovo giornale” e a riflettere sul ruolo della tecnologia nella narrazione della realtà. In sintesi, Cerasa presenta Il Foglio AI come un esperimento pionieristico, curioso e ambizioso, che unisce innovazione tecnologica a una riflessione profonda sul giornalismo contemporaneo.
L’iniziativa de Il Foglio ha avuto l’ulteriore pregio di ottenere una eco globale: dal Guardian, alla BBC, e poi Reuters, il Washington Post, il New York Times, mentre CNN, Politico, Gizmodo e Poynter ne hanno discusso implicazioni. In Europa, El País ha offerto una chiave filosofica, Der Spiegel e Frankfurter Allgemeine Zeitung hanno sondato il confine tra tecnica e cultura, e in Francia Le Figaro, Le Monde e Le Point hanno mescolato ammirazione e dubbi. In Italia, Corriere della Sera e Il Sole 24 Ore ne hanno colto l’impatto.
Cerasa ha sfidato l’idea della carta come “trincea umana”, aprendo con trasparenza un dibattito necessario sull’ autenticità e i doveri del giornalismo quando si opera in un terreno fragile e ammiccante come quello dell’Intelligenza artificiale generativa.
L'esperimento tra l’altro arriva mentre le organizzazioni giornalistiche di tutto il mondo si confrontano sul modo in cui l'IA dovrebbe essere distribuita.
All'inizio di questo mese infatti, il Guardian ha riferito che BBC News sta progettando di utilizzare l'IA per offrire al pubblico contenuti più personalizzati e che per questo scopo creerà un dipartimento di intelligenza artificiale interno dedicato.
Oggi, analizzando Il Foglio AI, dopo due settimane, i primi rilievi mostrano articoli chiari e logici, con alcune lacune di contesto, dettagli, e sporadici errori (nomi, date). La forma è spesso brillante, ma si sente la mancanza della profondità e della verifica umana.
E ora? L’IA potrebbe entrare nelle redazioni italiane con regole chiare - che scatteranno a breve grazie al nuovo Codice Deontologico (1° giugno 2025) - almeno per quanto riguarda l’obbligo di dichiararne l’uso. Basterà?
A mio parere
Il Foglio AI è un gesto audace, che presenta delle naturali imperfezioni. Gli errori, nomi sbagliati, date imprecise, sollevano dubbi sulla credibilità di notizie interamente generata dall’AI. Ma chiunque abbia usato una chatbot negli ultimi tre anni, questo lo sapeva già. Ma questi limiti, messi in luce dall’esperimento giornalistico, portano altre domande: può un algoritmo cogliere la complessità del reale, l’ironia, il giudizio? Sicuramente può replicarne alcuni esempi, il che non significa però capire l’ironia o saper ponderare un giudizio, avere quindi coscienza. Ma questo è un dibattito aperto.
E inoltre si (ri) apre un tema a me caro - trattato nel libro sull’AI pubblicato per Bollati - e sempre attuale: chi risponde degli sbagli, il direttore Cerasa o la “macchina”? L’Italia potrebbe cogliere questa avventura aperta da IlFoglio per riflettere su un modello etico, evitando di ridurre così l’IA a una mera (e inesatta) scorciatoia. La sfida è culturale: educare l’IA a pensare da giornalista, da un lato, e educare il giornalismo al un nuovo indiscutibile potenziale che l’AI offre, cogliendone però i limiti.
MEMO:
Stasera alle 19,30 ci sentiamo su Twitter X per l’incontro del ciclo “Newsletter & Chip(s)” - l’ospite della serata sarà il vicedirettore Marco Pratellesi, con cui parleremo dell’impatto dell’intelligenza artificiale (IA) sul giornalismo, offrendo una prospettiva equilibrata tra opportunità e sfide. QUI.
Il medico scemo: possiamo fidarci di una chatbot?
Ti fideresti di un medico che non ti ha mai visitato, non conosce la tua storia e a volte inventa risposte? Eppure, milioni di persone lo fanno ogni giorno, affidandosi a intelligenze artificiali (IA) come ChatGPT, Gemini o Grok per autodiagnosticarsi. Aureliano Stingi, biotecnologo molecolare con un dottorato in oncologia all’Università di Ginevra e autore di diversi articoli scientifici e divulgativi, ha sollevato il problema in un post su X. Stingi - che oggi lavora in una startup biomedica e collabora con enti come la LILT di Roma - mette in guardia sui rischi di scambiare un algoritmo per un camice bianco. La diagnosi medica, spiega, è troppo complessa per essere ridotta a una risposta tramite un chatbot.
Eppure, non tutti la pensano così. Bill Gates, co-fondatore di Microsoft e figura influente nel panorama tecnologico globale, ha dichiarato in un’intervista a *The Tonight Show* con Jimmy Fallon, del 4 febbraio 2025: “Con l’IA, nei prossimi dieci anni, [l’AI] diventerà gratuita e comune, ottimi consigli medici, ottimi tutoraggi. […] Non avremo bisogno di umani per la maggior parte delle cose”. Gates prevede un futuro in cui l’IA non solo affiancherà, ma addirittura sostituirà medici e altri professionisti, rendendo l’expertise umana obsoleta in molti campi. Questa visione, espressa mentre promuoveva il suo memoir *Source Code*, contrasta nettamente con il monito di Stingi.
Stingi infatti evidenzia una tendenza preoccupante: sempre più persone usano le IA come “medici virtuali” per risposte rapide, senza recarsi in ambulatorio. Un articolo del *British Medical Journal* del 12 marzo 2025 segnala che questa abitudine è in crescita tra i giovani, con un aumento del 25% rispetto al 2024. Ma i rischi sono concreti. E Stingi cita due studi: uno su ChatGPT in ortopedia mostra risultati altalenanti - quasi il 100% di accuratezza in alcuni casi, ma errori gravi in altri, spesso senza consigliare una visita medica. Il ConfidenceClub Digital Doctor Study confronta cinque AI (ChatGPT 4, DxGPT, Co-Pilot, Gemini, Grok) con domande da esame medico britannico: 89% di accuratezza con termini tecnici, ma solo 43% con linguaggio comune, e raramente si suggerisce di consultare un medico.
Ora immagina di dire a un’IA: “Ho mal di testa e un po’ di nausea”. Potrebbe risponderti “emicrania” o “tumore”, senza chiederti da quanto tempo hai i sintomi o se hai battuto la testa. Le IA non colgono il contesto umano - la storia clinica, le emozioni, i dettagli sfumati - e possono “allucinare”, generando informazioni errate. Stingi lo sottolinea: la diagnosi richiede esperienza e interazione, non solo dati.
Gates, invece, vede nell’IA una soluzione universale, un’era di “intelligenza gratuita” che risolverà carenze come la mancanza di medici. Ma è davvero così semplice?
A mio parere
La divergenza tra Stingi e Gates riflette due visioni opposte sull’IA in medicina. Stingi, con la sua esperienza scientifica, ci ricorda i limiti attuali: l’IA può sbagliare, omettere il consiglio umano e ignorare la complessità della salute. Gates, con il suo ottimismo tecnologico, scommette su un futuro in cui questi problemi saranno superati, e l’IA diventerà un medico digitale affidabile per tutti.
Ma la realtà potrebbe stare nel mezzo. L’IA ha già dimostrato di poter supportare i medici, analizzando dati o suggerendo diagnosi, ma sostituirli del tutto sembra una promessa azzardata. La salute non è solo scienza: è empatia, intuizione, fiducia. Un algoritmo può imparare a simulare queste qualità, ma non a provarle. E se Gates avesse ragione sul lungo termine, chi controllerà questa “intelligenza gratuita”? Aziende come Microsoft, con enormi interessi economici, potrebbero plasmare un sistema sanitario digitale in cui il paziente diventa un dato, non una persona. Forse il vero rischio non è l’errore dell’IA, ma la perdita dell’umano.
La questione dell’IA in medicina mi lascia con più domande che certezze. Da un lato, capisco il monito di Stingi: affidarsi a un algoritmo per qualcosa di così delicato come la salute sembra un salto nel buio. Quante volte avete digitato sintomi su Google, convincendovi di avere chissà quale malattia, per poi scoprire che era solo stanchezza? Con l’IA il rischio è simile, ma amplificato: le risposte sono più articolate, sembrano autorevoli, eppure mancano di quel filtro umano che solo un medico capace può offrire. Mi chiedo: siamo davvero pronti a delegare la nostra salute a una macchina che non ci guarda negli occhi, non ci chiede “come ti senti davvero”? E se l’AI sbaglia - come gli studi dimostrano - chi ne paga le conseguenze? Il paziente, mica il codice.
Dall’altro lato, l’entusiasmo di Gates non è del tutto campato in aria. Viviamo in un mondo dove l’accesso ai medici non è uguale per tutti: code infinite, costi proibitivi, aree rurali senza ospedali. Un’IA che offre “consigli medici gratuiti” potrebbe essere una rivoluzione, soprattutto per chi non ha alternative. Ma mi domando: sarà davvero gratuita? O pagheremo finendo in un sistema dove le diagnosi sono influenzate da chi controlla gli algoritmi, magari delle stesse aziende che li vendono? E poi, c’è un aspetto inquietante: se l’IA diventa il nostro “dottore”, cosa succede a quel rapporto di fiducia, fatto di parole, sguardi, rassicurazioni, che nessuna macchina può replicare?
Forse la verità sta in una via di mezzo, nella collaborazione, ma mi chiedo: siamo capaci di fermarci lì, o la tentazione di automatizzare tutto ci porterà troppo lontano? Stingi ci ricorda i limiti di oggi, Gates ci proietta in un futuro possibile. Io, nel mezzo, mi ritrovo a pensare: e se il progresso ci rendesse più sani, ma meno umani? È una domanda aperta, senza risposta facile. E forse è giusto così: la salute non è un’equazione da risolvere, ma una storia da ascoltare e da scrivere con cura.
La distillazione dell’AI: il segreto per un’intelligenza più leggera o una guerra tra titani?
Proviamo a immaginare un professore geniale, dalla mente enciclopedica, che decide di trasmettere il suo sapere a uno studente brillante e agile, in grado di muoversi con rapidità dove il maestro, appesantito dalla sua vasta conoscenza, non può arrivare. In sintesi, questo è il concetto di distillazione nell’intelligenza artificiale: un processo che trasforma modelli enormi, dispendiosi in termini di energia e risorse, in versioni più efficienti, preservandone quasi integralmente la "saggezza". Tuttavia, dietro questa apparente magia tecnologica, si cela una contesa che potrebbe ridefinire il futuro dell’AI.
Apro una breve parentesi: per chi volesse approfondire gli aspetti più tecnici di questo processo, vi consiglio di leggere l’ottimo articolo di Luca Sambucci, esperto di sicurezza dell’intelligenza artificiale, che ha ispirato questa mia versione divulgativa. Nel suo pezzo su Notizie.AI (si legge QUI), Sambucci esplora la distillazione dei LLM con un linguaggio preciso e dettagliato, perfetto per chi mastica la materia.
Tornando al punto, la distillazione non è un fenomeno recente: da anni viene impiegata per ottimizzare le reti neurali, un po’ come si farebbe con una valigia sovraccarica prima di un viaggio. Il processo prevede un modello "maestro"- un LLM di grandi dimensioni, addestrato su enormi quantità di dati - che trasferisce le sue conoscenze a un modello "studente" più contenuto, il quale apprende sia dai dati grezzi sia dalle intuizioni del modello di partenza. Il risultato? Un’intelligenza artificiale capace di operare su dispositivi meno potenti, con un consumo energetico ridotto, e potenzialmente utilizzabile anche su smartphone. Si tratta di una trasformazione graduale che promette di rendere l’AI accessibile a un pubblico più ampio, superando la concentrazione nelle mani delle grandi aziende della Silicon Valley.
Ovviamente il quadro non è privo di ombre. Le grandi aziende, che hanno investito ingenti risorse nello sviluppo dei loro modelli avanzati, percepiscono la distillazione come una potenziale minaccia. Per quale motivo? Se immagini di dedicare anni alla messa a punto di una formula esclusiva, per poi scoprire che qualcuno la sta replicando con una tecnica semplice e rapida, è facile capire il nodo dello scontro. Questo è il timore di aziende come OpenAI: che le loro creazioni tecnologiche vengano "distillate" da terzi, eventualmente senza autorizzazione, compromettendo il loro primato sul mercato. Un episodio recente ha suscitato notevole clamore: DeepSeek, una startup cinese, ha realizzato un modello competitivo a costi estremamente contenuti, alimentando sospetti di appropriazione indebita di conoscenze da parte di colossi occidentali. Si tratta di una pratica eticamente e legalmente discutibile? L'argomento è oggetto di intenso dibattito.
Inoltre, c’è anche la questione tecnica. La distillazione è un processo complesso, realizzabile in un'unica fase o attraverso passaggi successivi (analogamente alla raffinazione del vino), oppure mediante l'impiego di più modelli "maestri" per ottenere un modello "studente" eclettico. Tuttavia, ogni approccio presenta delle criticità: un eccessivo frazionamento delle fasi può rallentare il processo, mentre una tempistica inadeguata può compromettere la qualità del modello. Esiste, inoltre, il rischio che il modello "studente" erediti le imperfezioni del modello "maestro", quali pregiudizi o errori, amplificandoli nel tempo.
Qual è, dunque, la ragione di tanto clamore? La distillazione si configura come uno strumento a duplice valenza: da un lato, favorisce lo sviluppo di un'AI più sostenibile e accessibile; dall'altro, mina le basi di un settore fondato su investimenti ingenti e segreti industriali. Si tratta di una narrazione di innovazione e competizione, di progresso e timori, che rievoca un principio secolare: anche in ambito tecnologico, la conoscenza rappresenta potere, e chi la detiene tende a salvaguardarla. Tuttavia, è plausibile che il futuro risieda nella ricerca di un equilibrio ottimale tra condivisione e tutela, analogamente a quanto avviene in un processo di distillazione ben condotto.
A mio parere
La distillazione dell’AI mi lascia con un misto di fascinazione e inquietudine. È davvero possibile ridurre la complessità di un’intelligenza artificiale a una versione più snella senza perderne l’essenza? O stiamo assistendo a una sorta di compromesso inevitabile, dove qualcosa – forse la profondità, forse l’originalità – si smarrisce lungo il cammino? Mi chiedo se il modello "studente", per quanto brillante e agile, possa mai eguagliare la ricchezza di sfumature del "maestro", o se sia destinato a rimanere una copia semplificata, utile ma incompleta.
E poi c’è la questione etica, che mi tormenta. Se la distillazione diventa una pratica diffusa, chi decide quali conoscenze possono essere "distillate" e da chi? È giusto che una startup possa trarre vantaggio dal lavoro titanico di un colosso tecnologico, o dovremmo considerare questo processo una forma di furto intellettuale mascherato da progresso? L’episodio di DeepSeek mi fa riflettere: siamo di fronte a un’innovazione geniale o a un’appropriazione spregiudicata? Forse la risposta dipende da dove tracciamo il confine tra ispirazione e plagio, ma quel confine sembra sempre più sfumato.
Dal punto di vista tecnico, mi domando se la distillazione non rischi di diventare una corsa al ribasso. Ottimizzare è sacrosanto, ma fino a che punto possiamo comprimere un modello senza comprometterne l’affidabilità? E se i pregiudizi del "maestro" si trasferissero allo "studente", come un’eredità scomoda, non staremmo forse perpetuando errori del passato in una forma più subdola, perché meno visibile?
Infine, mi colpisce il paradosso di fondo: la distillazione promette di democratizzare l’AI, ma al tempo stesso alimenta una guerra tra titani che potrebbero finire per rafforzare le loro difese, rendendo la tecnologia ancora più esclusiva. È un equilibrio possibile, o solo un’utopia? Forse, come in ogni processo di distillazione, il segreto sta nel trovare la giusta temperatura: né troppo fredda da bloccare il progresso, né troppo calda da bruciare ciò che di prezioso abbiamo creato. Ma chi sarà a regolare il fuoco?
Trump lancia USD1: il dollaro digitale che sfida il mondo (e l’euro)
Donald Trump è tornato sotto i riflettori, ma stavolta non per un comizio o una legge: il 25 marzo 2025 ha annunciato USD1, una moneta virtuale che promette di rivoluzionare gli scambi internazionali. Si tratta di una stablecoin, una criptovaluta dal valore fisso ancorata al dollaro USA, lanciata da World Liberty Financial (WLFI), azienda fondata nel settembre 2024 e controllata al 60% da Trump e dalla sua famiglia. L’obiettivo? Rafforzare il dominio del dollaro nel mondo, con un tocco hi-tech.
Ma mentre Trump punta al futuro, in Europa si risponde con l’euro digitale.
Ma come si intrecciano le due cose? Proviamo a fare un quadro.
Cos’è USD1 e come funziona
Immaginate una moneta digitale che vale sempre un dollaro, ma (almeno teoricamente) senza le montagne russe tipiche di Bitcoin. Questo è USD1: per ogni token emesso, WLFI garantisce di avere un dollaro (o titoli sicuri come i Treasuries americani) in riserva. Funziona su blockchain come Ethereum e Binance Smart Chain, reti che permettono transazioni rapide e globali. A gestire i soldi veri ci pensa BitGo, un’azienda specializzata in sicurezza digitale. L’idea è offrire a governi, banche e grandi investitori un modo per spostare capitali senza confini, in modo sicuro e veloce. Alcuni analisti, come riportato da Affaritaliani, ipotizzano che USD1 possa anche finanziare il debito USA bypassando la Federal Reserve, un’arma economica non da poco.
World Liberty Financial: chi c’è dietro
WLFI non è solo Trump. La società vede coinvolti i figli Donald Jr., Eric e Barron, oltre a Steve Witkoff, un magnate immobiliare amico di famiglia, e i suoi figli Zach e Alex. Ci sono poi Zachary Folkman e Chase Herro, esperti di criptovalute con un passato controverso: il loro vecchio progetto, Dough Finance, ha perso 2 milioni di dollari in un attacco hacker. Nonostante ciò, WLFI ha raccolto 550 milioni di dollari vendendo $WLFI, un token di “governance”. Come rivela Politico il 31 marzo 2025, la famiglia Trump ha preso il controllo della società, incassando la maggior parte di questi fondi, un dettaglio che alimenta sospetti di profitto personale. Tra gli investitori spicca Justin Sun, fondatore di Tron, che ha investito 30 milioni ed è diventato consulente.
Perché una stablecoin?
Le stablecoin non sono una novità: Tether e USDC, con miliardi in circolazione, dominano il mercato. Ma USD1 vuole distinguersi puntando su istituzioni e governi, non solo su piccoli investitori. Le riserve in Treasuries, che rendono fino al 5%, permettono a WLFI di guadagnare mentre offre stabilità. Trump, che si è autoproclamato “crypto president” nel 2024, vede in USD1 un’arma per mantenere gli USA al centro dell’economia mondiale. Non a caso, il lancio segue un ordine esecutivo della Casa Bianca del gennaio 2025 per la “sovranità del dollaro” digitale. Il Congresso sembra d’accordo: il GENIUS Act, per regolamentare le stablecoin, è in discussione e potrebbe essere legge entro l’estate.
Luci e ombre
USD1 deve affrontare giganti come Tether (143 miliardi di capitalizzazione) e USDC (60 miliardi). “Lanciare una stablecoin è facile, farla usare è un’altra storia”, dice Kevin Lehtiniitty di Borderless.xyz. La trasparenza è un problema: molti investitori di WLFI sono anonimi e gli audit delle riserve non hanno un calendario chiaro. Il ruolo di Trump solleva ulteriori dubbi: il 75% dei profitti di $WLFI va a una sua società, e la sospensione di cause contro alleati crypto come Justin Sun fa parlare di favoritismi.Come riporta BeInCrypto il 29 marzo, senatori come Elizabeth Warren temono che Trump possa favorire USD1 con politiche ad hoc, complicando il GENIUS Act.
Intanto, il caso Signal (vedi approfondimento finale) mostra falle nella sicurezza digitale dell’amministrazione, un rischio per la fiducia in USD1.
Euro digitale: la risposta europea
Parallelamente, l’Europa non sta a guardare. Fabio Panetta - Governatore della Banca d’Italia - ha annunciato il 31 marzo che l’euro digitale è in fase avanzata, con test al via nel 2025. L’obiettivo è garantire sovranità monetaria contro stablecoin private come USD1. A differenza del progetto di Trump, l’euro digitale sarà gestito da un’istituzione pubblica, senza conflitti d’interesse, e punterà a proteggere l’euro dalla dominance del dollaro digitale.
Cosa significa per noi
Per l’Italia, USD1 potrebbe essere una sfida. Giancarlo Giorgetti ha definito le stablecoin un’“arma sottile” degli USA per controllare la finanza globale. Al 2 aprile 2025, la fornitura di USD1 è di 3,5 milioni di dollari, un’inezia rispetto ai rivali. Ma se decollasse, potrebbe rafforzare il dollaro a scapito di altre valute. L’euro digitale, invece, offre un’alternativa istituzionale. Quale prevarrà? Dipenderà dalla fiducia: quella di USD1 poggia su Trump e WLFI, quella dell’euro digitale sulla BCE. E se la sicurezza digitale americana vacilla, come nel caso Signal, l’Europa potrebbe guadagnare terreno.
A mio parere
USD1 e l’euro digitale tengono in sospeso tra curiosità e scetticismo. Da un lato, l’idea di Trump è affascinante: una stablecoin che porta il dollaro nell’era digitale potrebbe davvero cambiare le regole del gioco, dando agli USA un vantaggio economico difficile da contrastare. Ma mi chiedo: quanto c’è di visione e quanto di interesse personale? Il fatto che la famiglia Trump controlli WLFI e incassi gran parte dei profitti non può non far riflettere. È una mossa per il bene dell’America o per il portafoglio di Mar-a-Lago? E poi, la sicurezza: se un’amministrazione che inciampa su Signal vuole gestire una moneta globale, posso davvero fidarmi?
Dall’altro lato, l’euro digitale sembra una risposta più solida, almeno sulla carta. Una moneta gestita dalla BCE, senza azionisti privati o magnati immobiliari dietro, dà un senso di stabilità. Ma anche qui i dubbi non mancano: sarà abbastanza agile da competere con USD1 o con giganti come Tether? E se l’Europa, con la sua burocrazia, arrivasse in ritardo a questa “guerra delle valute digitali”? Mi colpisce poi il contrasto tra le due visioni: Trump punta su un progetto audace, quasi spregiudicato, mentre l’Europa sceglie la prudenza istituzionale. Chi vincerà?
E poi c’è una domanda che resta sospesa, ma riguarda un piano percettivo: siamo davvero pronti per un mondo dove le monete non si toccano più, ma si affidano a codici e promesse? Riuscirà USD1 a conquistare il mondo o resterà un esperimento di Trump? L’euro digitale sarà la risposta definitiva a questa sfida? E se entrambi fallissero, chi riempirà il vuoto, magari una Cina che osserva in silenzio? Non ho risposte, solo un pensiero: in questa corsa al futuro, il rischio non è solo economico, ma anche umano. Perché una moneta, digitale o no, vale quanto la fiducia che le diamo. E quella, temo, nessuna blockchain può garantirla.
Segreti in Chat: Quando la Guerra Finisce su Signal
“Sono le 11:44 di un venerdì mattina, 15 marzo 2025, e sto fissando il mio telefono nel parcheggio di un supermercato. Un messaggio su Signal lampeggia sullo schermo. Mittente: Pete Hegseth, Segretario alla Difesa degli Stati Uniti. Mi sta inviando i dettagli di un attacco militare imminente: obiettivi nello Yemen, armamenti, tempistiche. Io, Jeffrey Goldberg, direttore di The Atlantic, sono appena diventato il destinatario involontario di un segreto di Stato. Due ore dopo, le bombe cadono su Sana’a. Non è un film. È la realtà.”
Devono essere stati all’incirca questi i pensieri di Goldberg, o almeno così me li sono immaginati leggendo la cronaca di pochi giorni fa.
Ma torniamo indietro. La vicenda inizia l’11 marzo, quando Goldberg riceve una richiesta di connessione su Signal da “Michael Waltz”, Consigliere per la Sicurezza Nazionale di Donald Trump. Due giorni dopo, si ritrova in una chat chiamata “Houthi PC small group”, con nomi come il Vicepresidente JD Vance, il Segretario di Stato Marco Rubio e lo stesso Hegseth. Il tema di cui si discute in quella chat è chiaro: piani per colpire i ribelli Houthi, il gruppo yemenita sostenuto dall’Iran che attacca navi nel Mar Rosso. I messaggi non sono vaghi: contengono dettagli operativi, come “1415: Droni d’attacco sul bersaglio” e il piano per uccidere un leader Houthi specifico, oltre a un dibattito strategico. Vance esprime dubbi sull’impatto economico e politico, temendo un aumento dei prezzi del petrolio, mentre Hegseth preme per agire, temendo fughe di notizie.
Ironia della sorte, una fuga c’è già, visto che Goldberg legge tutto.
La chat avviene su Signal, un’app criptata ma non autorizzata per comunicazioni classificate, violando le norme federali sulla sicurezza e il Presidential Records Act.
Due ore dopo il messaggio di Hegseth, l’attacco su Sana’a si verifica, confermando la veridicità di quanto condiviso.
A fatti scoperti, la Casa Bianca non nega: la chat è autentica, e ora si indaga su come un giornalista sia finito lì.
L’ipotesi più accreditata è un errore di Waltz, che potrebbe aver confuso le iniziali di Goldberg (JG) con quelle di un funzionario come Jamieson Greer. Nel frattempo, Steve Witkoff, inviato speciale per l’Ucraina e il Medio Oriente, partecipava alla chat dalla Russia, aggiungendo un ulteriore strato di complessità.
Trump però ha insistito che non includeva contenuti classificati, ma fonti della difesa, riportate da CNN, confermano il contrario: i dettagli erano altamente sensibili, e se intercettati, avrebbero messo in pericolo i piloti americani.
Hegseth minimizza, definendo Goldberg “un giornalista screditato”, mentre Trump, frustrato dalle critiche, attacca i media, liquidando la questione con un “non so nulla”.
Ma i fatti parlano da soli visto che il 26 marzo, The Atlantic ha pubblicato screenshot e la trascrizione completa della chat, mostrando tempi precisi (es. “1536: F-18 2nd Strike Starts”) e armi usate, come i Tomahawk, per smentire le negazioni della Casa Bianca.
Le possibili conseguenze sono pesanti. Legalmente, l’uso di Signal per piani militari potrebbe violare l’Espionage Act, con esperti che sottolineano il rischio per le vite dei militari.
Politicamente, l’amministrazione Trump è sotto accusa: democratici come il senatore Jack Reed e il leader Hakeem Jeffries, che ha chiesto il licenziamento di Hegseth, definiscono l’episodio “un fallimento catastrofico”.
Sul piano internazionale, si teme che avversari come l’Iran possano sfruttare simili falle. The Atlantic, intanto, ha alzato la posta, minacciando ulteriori rivelazioni se il governo continuerà a sminuire la gravità.
A mio parere
Questo incidente è un campanello d’allarme sulla vulnerabilità della sicurezza nazionale in un’era digitale.
Se perfino i vertici di un’amministrazione usano app commerciali per segreti di guerra, cosa impedisce a un criminale informatico (o a uno stato nemico) di aggredire il flusso in quel canale?
Leon Panetta, ex capo della CIA, lo ha detto senza giri di parole: è “un errore che può costare vite”. Ma ci sono altre questioni critiche. Come possiamo fidarci di un governo che non protegge i suoi segreti?
E se l’errore non fosse stato tale, ma fosse nato da una scelta intenzionale, magari per testare una reazione o coprire qualcosa di più grande? La trasparenza del Presidential Records Act è a rischio, e con essa la capacità di controllare chi prende decisioni che influenzano milioni di vite. Ora che The Atlantic ha reso pubblica la chat, la domanda è: cambierà qualcosa, o sarà solo un altro scandalo dimenticato?
Analista indipendente, opero con passione per la verità e l’informazione, tutelata dall’articolo 21 della Costituzione. Iscritta all’Ordine dei Giornalisti dopo il praticantato, ho scelto di cancellarmi per coerenza etica in relazione ad esperienze con figure istituzionali. Laureata con lode in Architettura e Urbanistica, ho affinato la mia analisi tra studi professionali, cantieri navali e ricerca tecnologica. Ho collaborato con testate come Il Foglio, L’Espresso e Il Sole 24 Ore, contribuendo con articoli e analisi. Da tre anni curo una rubrica di tecnologia negli spazi dell’Istituto Bruno Leoni, approfondendo temi di innovazione e analisi. Co-autrice e curatrice del libro “Intelligenza Artificiale: cos’è davvero” con prefazione di Piero Angela, per Bollati Boringhieri.