Fidest – Agenzia giornalistica/press agency

Quotidiano di informazione – Anno 33 n° 335

Linee guida per l’uso dell’intelligenza artificiale in campo militare e civile

Posted by fidest press agency su venerdì, 22 gennaio 2021

Il PE afferma che l’intelligenza artificiale deve essere soggetta al controllo umano, in modo da essere corretta o disabilitata in caso di comportamenti imprevisti.Nella risoluzione approvata mercoledì, si chiede un quadro giuridico comunitario sull’IA con definizioni e principi etici, che coprano anche il suo impiego in campo militare. I deputati chiedono, inoltre, all’UE e agli Stati membri di garantire che l’IA e le tecnologie ad essa correlate siano incentrate sull’uomo (ovvero destinate al servizio dell’umanità e del bene comune).Il testo è stato adottato con 364 voti favorevoli, 274 contrari e 52 astensioni.
I deputati sottolineano che la dignità umana e i diritti dell’uomo devono essere rispettati in tutte le attività UE nel campo della difesa. I sistemi abilitati all’IA devono permettere agli esseri umani di esercitare un controllo significativo, in modo da esserne i responsabili dell’utilizzo.L’uso di sistemi d’arma autonomi e letali (LAWS, Lethal Autonomous Weapon System) solleva questioni etiche e legali fondamentali. I deputati ribadiscono la richiesta di una strategia UE che li proibisca e la messa al bando dei cosiddetti “robot assassini”. La decisione di selezionare un bersaglio e di compiere un’azione letale utilizzando un sistema d’arma autonomo deve sempre essere presa da un essere umano con adeguato livello di controllo e giudizio, in linea con i principi di proporzionalità e necessità.
L’Unione deve inoltre assumere un ruolo guida nella creazione e nella promozione di un quadro globale che regoli l’uso militare dell’IA, a fianco dell’ONU e della comunità internazionale.L’aumento dell’uso dei sistemi di IA nei servizi pubblici, specialmente nella sanità e nella giustizia, non dovrebbe sostituire il contatto umano o generare discriminazioni. Le persone dovrebbero essere sempre informate allorché sono soggette a una decisione basata sull’IA e dovrebbero avere la possibilità di fare ricorso.Quando l’IA viene utilizzata nell’ambito della salute pubblica (ad esempio, chirurgia assistita da robot, protesi intelligenti, medicina preventiva), i dati personali dei pazienti devono essere protetti e il principio della parità di trattamento deve essere rispettato. Nel settore della giustizia, invece, l’uso delle tecnologie dell’IA può contribuire ad accelerare i procedimenti e a prendere decisioni più razionali, ma le decisioni finali dei tribunali devono essere prese da esseri umani, rigorosamente verificate da una persona e sottoposte ad un giusto processo.Il testo richiama, inoltre, l’attenzione sulle minacce ai diritti umani fondamentali e alla sovranità dello Stato derivanti dall’uso delle tecnologie di IA nella sorveglianza civile e militare di massa. Il PE chiede che alle autorità pubbliche sia vietato l’uso di “applicazioni altamente invasive di punteggio sociale” (per il monitoraggio e la valutazione dei cittadini). I deputati sono anche preoccupati dalle tecnologie di deepfake, in quanto hanno il potenziale di “destabilizzare i paesi, diffondere la disinformazione e influenzare le consultazioni elettorali”. I creatori dovrebbero essere obbligati ad etichettare tale materiale come “non originale” e si dovrebbe fare più ricerca sulle tecnologie in grado di contrastare questo fenomeno.

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google photo

Stai commentando usando il tuo account Google. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...

 
%d blogger hanno fatto clic su Mi Piace per questo: