di Massimiliano D’Elia
Il summit voluto la settimana scorsa dal premier inglese Sunak in Gran Bretagna sull’AI (Artificial Intelligence) ha visto la partecipazione delle più grandi aziende mondiali dell’Hi-Tech e della maggior parte dei leader mondiali. Le aziende, al termine del vertice, si sono impegnate, tramite una dichiarazione d’intenti, a riconoscere il ruolo dei governi nell’attività di verifica prima che ogni prodotto di AI venga poi commercializzato all’esterno. Scopo della partecipazione Public&Private è quello di analizzare attentamente potenziali impieghi pericolosi della AI nel campo della sicurezza nazionale o nella società.
Certo è che dagli intenti poi alla pratica la strada è ancora molto lunga e tortuosa. Infatti Sunak si è già buttato avanti dicendo: “rendere le cose obbligatorie e promulgare leggi richiede tempo, noi abbiamo bisogno di muoverci più rapidamente di adesso: è importante che i regolamenti siano basati empiricamente, prima di precisare la regolamentazione formale”.
Ogni Stato dovrà pertanto avvalersi di una struttura deputata alla verifica dei nuovi modelli di AI. In Inghilterra ci sarà l’Istituto per la Sicurezza della AI.
I rischi paventati da Sunak e anche da Elon Musk, presente al vertice, riguardano l’effetto Terminator che tale nuova ed inesplorata teconologia potrebbe avere visto che i modelli dotati di superintelligenza saranno in grado di autoevolversi, provare emozioni e potenzialmente in grado di agire autonomamente. Il timore è che un giorno, non molto lontano, possano costituire un pericolo concreto per l’esistenza dell’umanità.
Musk, al riguardo, è stato lapidario: “l’Intelligenza artificiale rappresenta uno dei più grandi rischi per l’umanità perché per la prima volta ci troviamo di fronte a qualcosa che sarà molto più intelligente di noi”.
Il Pentagono ha pubblicato la sua strategia sull’AI
Secondo un conteggio reso pubblico dal Government Accountability Office Usa, all’inizio del 2021 il Dipartimento della Difesa starebbe gestendo più di 685 progetti legati all’IA. L’Esercito è in testa con almeno 232 progetti. Il Corpo dei Marines, invece, ne starebbe gestendo almeno 33.
Il Dipartimento della Difesa degli Stati Uniti è stato costretto ad uscire allo scoperto e ha di recente pubblicato una nuova strategia sull’uso dell’analisi dei dati e dell’intelligenza artificiale, spingendo per ulteriori investimenti nell’IA, per sviluppare modelli avanzati delle tecnologie autonome, compresi i droni.
Il Pentagono intende fornire ai suoi comandanti militari sul campo nuovi strumenti in grado si supportarli nelle decisioni. Per questo motivo si chiede all’industria del settore di sviluppare nuovi modelli di AI.
Tra gli altri obiettivi delineati nella strategia vi sono infrastrutture migliorate, maggiori partnership con gruppi esterni al Dipartimento della Difesa e una riforma per quanto riguarda la burocrazia interna che spesso impedisce alla tecnologia di avanzare più velocemente di quanto il Dipartimento possa auspicare.
Con questo documento, il Pentagono stabilisce anche l’entità interna (CDAO) che dovrebbe governarla.
Il CDAO è stato istituito nel 2021 e ha inglobato il Joint Artificial Intelligence Center, il Defense Digital Service, la piattaforma dati Advana e ha assunto il ruolo di Chief Data Officer.
L’impiego dell’IA generativa in ambito militare è controverso, scrive Defense News. Il suo vantaggio principale è la capacità di semplificare compiti semplici o banali, come la ricerca di file, il reperimento di informazioni di contatto e la risposta a semplici domande. Ma la tecnologia è stata utilizzata anche per alimentare attacchi informatici, tentativi di spoofing e campagne di disinformazione.
Il Pentagono ha assicurato che gli esseri umani rimarranno responsabili dell’uso della forza letale e, come dichiarato nell’ultima revisione sulle sue armi nucleari, le stesse rimarranno sotto lo stretto controllo dell’essere umano.
Lo sviluppo e l’impiego di armi semi-autonome o completamente autonome è regolato dalla cosiddetta direttiva 3000.09, firmata originariamente un decennio fa e aggiornata lo scorso gennaio.
La direttiva ha lo scopo di ridurre i rischi dell’autonomia e della potenza di fuoco. Non si applica alla cibernetica, un campo in cui i leader sostengono sempre di più la necessità di capacità autonome.
La Task Force Lima, supervisionata dal CDAO, è stata creata all’inizio dell’anno per valutare e guidare l’applicazione dell’IA generativa per scopi di sicurezza nazionale.
Il Pentagono ha chiesto 1,4 miliardi di dollari per l’IA nel FY 2024, che inizia il 1° ottobre, mantenendo invariati i livelli di finanziamento dell’anno precedente.
Subscribe to our newsletter!