La critica di Peter Fleischer alla nuova direzione etica dell'AI di Google
di Claudia Giulia Ferraùto (5 marzo 2025)
Questo articolo fa parte della Newsletter settimanale “Tech e Privacy”
All’inizio di febbraio, precisamente il 4, Google ha modificato radicalmente la propria policy, aprendo la porta a collaborazioni per applicazioni militari. Una scelta che ha segnato un cambio di paradigma.
Ma il grande G non è solo in questa partita, anzi, si allinea ad altre Big Tech, tra cui Microsoft e Meta, che hanno adottato da tempo questo approccio: quale sarà il futuro dell’Intelligenza Artificiale in contesti bellici e di sorveglianza?
La decisione di ritirare il suo impegno a non utilizzare l’intelligenza artificiale per armi e sorveglianza ha suscitato una forte reazione negativa tra i dipendenti.
In molti hanno espresso preoccupazione riguardo alla direzione etica dell’azienda. I dirigenti di Google hanno giustificato il cambiamento sottolineando la necessità di collaborare con governi e aziende nel campo dell’AI per garantire che la tecnologia supporti valori democratici e la sicurezza nazionale.Resta tuttavia una mossa che ha sollevato interrogativi sulla coerenza dell’azienda con i suoi precedenti principi etici.
Questo è un tema importante, avrei voluto parlarne prima ma il mese di febbraio - link all’indice - è stato denso di avvenimenti e su questo ho preferito soprassedere perché avevo la sensazione che qualcosa di molto interessante, soggettivamente parlando, si sarebbe mosso. E così è stato.
Il 3 marzo 2025, Peter Fleischer - che per chi non lo conoscesse è l’uomo che è stato per quasi vent’anni il Global Privacy Counsel di Google, nonché uno degli ultimi membri rimasto del team originale di Google dei primi tempi - è tornato a scrivere dal suo blog, dopo ben 11 anni di silenzio (eccezion fatta per la nota "I've left Google", sollecitata dall’azienda a gennaio per comunicare pubblicamente di aver lasciato Google), ma questa volta il tono è stato ben diverso.
Nel post "Thou shalt not kill, unless thou art an autonomous AI killing machine", Fleischer lancia una critica feroce contro Google, l’azienda che ha appena lasciato.
Si scaglia contro la decisione di Google di riscrivere i suoi principi sull’intelligenza artificiale, aprendo le porte a collaborazioni con i militari di paesi “democratici” per sviluppare tecnologie letali.
Ricorda con amarezza i tempi in cui era orgoglioso dei principi etici di Google, che vietavano lo sviluppo di un’AI capace di causare danni, e si lancia con ironia pungente sul nuovo corso dell’azienda, che ora sembra inseguire opportunità di business anche a costo di mettere in discussione la propria moralità.
A un certo punto fa poi riferimento a *Robocop*, sottolineando il pericolo di lasciare a delle macchine autonome decisioni di vita o morte, e si interroga su come Google intenda gestire dettagli come: la responsabilità, dati di addestramento e affidabilità di queste tecnologie.
Un tema molto caldo nel panorama attuale
Fleischer non risparmia un pensiero per chi, come i giovani in zone di conflitto, potrebbe subirne le conseguenze più gravi.
Insomma Fleischer fa passare 11 anni prima di usare nuovamente a sua voce nel suo blog, poi un mese dopo aver annunciato il suo addio a Google - e dietro questa tempistica non escludo la valutazione di tempi tecnici e legali idonei alla scelta - critica con aperta passione le scelte dell’azienda, mostrando una precisa linea di continuità tra la sua uscita da G. e il suo dissenso. Dopo undici anni di silenzio, rianima il suo canale per esprimere un’opinione personale profonda e una riflessione etica che non può lasciare indifferenti.
A mio parere:
La collaborazione tra il settore tecnologico e i militari non è affatto una novità, anzi. Tanto che la cosa, per chi non lo sapesse, ha addirittura ha un nome: L.A.W.S., Letal Autonomous Weapon System (Sistemi di Armi Autonome Letali). L’obiettivo è l’applicazione di competenze avanzate come sorveglianza e targeting per la creazione di “macchine assassine autonome”.
Una delle questioni necessarie da porsi poi riguarda il rispetto delle leggi europee che vietano decisioni automatizzate senza supervisione umana. Qui ci sono implicazioni mica da ridere, che facciamo banniamo Google (e tutte le altre Big Tech nelle stesse condizioni) a livello europeo? Possiamo?
Google in pratica sta passando da un uso dell’intelligenza artificiale per la profilazione dei consumatori, cioè per marketing. a un suo impiego in contesti decisionali letali, con implicazioni etiche e morali. Sono virate difficili da ignorare. Questa modifica dovrebbe far riflettere ogni utente sulla fiducia che ripone nelle grandi aziende tecnologiche.
Se una compagnia come Google è disposta a partecipare a progetti così controversi, quanto possono essere sicure le nostre informazioni e il nostro benessere quando affidiamo a essi la loro gestione?
Come vengono addestrate queste intelligenze artificiali?
Su quali dati si basano per prendere decisioni?
Quanto sono affidabili?
Questi interrogativi sono cruciali, soprattutto per chi vive in zone di conflitto e può subire direttamente le conseguenze di queste tecnologie avanzate. La questione non riguarda più solo l’affidabilità tecnologica, ma la vita stessa delle persone. In particolar modo oggi, dove ci sono focolai di guerra sparsi ovunque.
Nel libro pubblicato per Bollati Boringhieri un paio d’anni prima che l’intelligenza artificiale diventasse l’hype di cui parlano tutti - il tema dell’applicazione dell’AI nelle armi autonome era stato affrontato in un capitolo dedicato ai grandi temi, proprio per mettere in guardia da quanto sta accadendo oggi (ma stava già accadendo allora, solo che in tanti ancora non lo sapevate).
Fonti: The New York Post: Google retracts promise not to use AI for weapons or surveillance - prompting employee backlash: ‘Are we the baddies?’ • Il blog di Peter Fleisher: https://peterfleischer.blogspot.com/2025/03/thou-shalt-not-kill-unless-thou-art.html• New York Post: Google retracts promise not to use AI for weapons or surveillance - prompting employee backlash: ‘Are we the baddies?’• Wired: Google Lifts a Ban on Using Its AI for Weapons and Surveillance
TUTTI I TEMI DELLA I SETTIMANA DI MARZO 2025
Crypto Strategic Reserve: il lato oscuro del lancio di Trump
La critica di Peter Fleischer alla nuova direzione etica dell'AI di Google
Starlink vs T-Mobile: la battaglia per la telecomunicazione mobile e le alternative emergenti
Il Glossario: in questo numero parliamo di “Trendsetter” e vi faccio scoprire due nomi famosi che secondo me molti di voi non conoscono!