18 Marzo 2025 2:09

L’utilizzo dell’intelligenza artificiale nel contesto bellico necessita di regolamentazioni rigorose e garanzie assolute per evitare scenari catastrofici. Questo il monito di Stuart Russell, co-direttore dell’Associazione Internazionale per un’AI sicura ed etica, intervenuto all’AI Action Summit di Parigi. L’evento, che riunisce leader politici, esperti di settore e rappresentanti di aziende, si svolge all’indomani di un significativo cambiamento di policy da parte di Google, che ora non esclude più l’impiego dell’IA per scopi militari.

Russell ha sottolineato come l’uso dell’intelligenza artificiale negli armamenti possa portare a decisioni autonome su chi e quando attaccare, spesso basandosi su istruzioni generiche e potenzialmente pericolose. “Potremmo avere sistemi che decidono di attaccare tutto ciò che si muove in una determinata area o, peggio ancora, di eliminare individui sulla base di età, sesso, etnia, affiliazione religiosa o altre caratteristiche” ha avvertito l’esperto.

Il rischio principale, secondo Russell, è che queste tecnologie possano sfuggire al controllo umano, con conseguenze devastanti. Attualmente, 75 paesi stanno sviluppando armi a controllo remoto con l’intento di renderle sempre più autonome, mentre altri 100 ne chiedono la messa al bando.

L’urgenza di un intervento globale
Di fronte a questi sviluppi, Russell ha ribadito la necessità di una regolamentazione a livello mondiale, con un intervento diretto delle Nazioni Unite. “Quando si parla di rischi esistenziali per l’umanità, come quelli posti da sistemi di intelligenza artificiale avanzati, non possiamo affidarci a semplici promesse o dichiarazioni di intenti”, ha affermato. “Occorrono garanzie assolute, supportate da prove statistiche e matematiche verificabili, per scongiurare scenari apocalittici”.

Un dibattito sempre più acceso
La questione dell’intelligenza artificiale in ambito militare si inserisce in un dibattito sempre più acceso tra chi ne vede le potenzialità per migliorare la sicurezza globale e chi invece ne teme un utilizzo fuori controllo. La recente decisione di Google di non escludere più l’impiego dell’IA per armamenti ha sollevato preoccupazioni sul futuro della guerra automatizzata e sulla necessità di un codice etico vincolante per lo sviluppo di queste tecnologie.

Mentre il mondo assiste a una corsa agli armamenti sempre più avanzata, la domanda resta aperta: sarà possibile garantire un utilizzo etico dell’intelligenza artificiale in guerra? Per Russell e molti altri esperti, la risposta sta nell’adozione di misure preventive concrete, prima che sia troppo tardi.

Approfondisci la tua conoscenza sull’intelligenza artificiale. Scarica il libro.

“Imparerai a tue spese che nel lungo tragitto della vita incontrerai tante maschere e pochi volti.”
Luigi Pirandello

Tags Cloud

AGI AI ai act AIFuture ai generativa aiweek anxiety APP coding Apple chatgpt conoscere Ai coscienza digital marketing ebook editoria evento intelligenza artificiale facebook futuro GAN Gemini Generative Adversarial Networks Google IA innovazione INPS instagram intelligenza artificiale IPhone Italia lavoro libro LISA marketing Meta metaverso Microsoft Neuralink news OpenAI PA social media Storie Tecnologia video whatsapp