Ci trovi qui:
Strada dei Manelli 32
12084 Mondovì CN
contatti@calviandpartners.it
Tel.: +39.327.5953695
Indietro

Ma l’intelligenza artificiale (AI) è pericolosa? E soprattutto, per chi?

Ora che l’intelligenza artificiale (AI) non è più solo uno scenario ipotetico che fa impazzire i guru della tecnologia con le sue possibilità, ma è in uso e ha un impatto sulla nostra vita quotidiana, c’è una rinnovata discussione su come questa eccitante, ma potente e potenzialmente problematica, tecnologia dovrebbe essere regolamentata. Valutando i pericoli della IA, da un lato della questione ci sono quelli che ritengono che sia prematuro iniziare la discussione, mentre dall’altra parte ci sono quelli che avvertono come sulla discussione si sia invece terribilmente indietro.

I pericoli dell’IA

Indipendentemente dalla posizione che si assume sulla questione dei pericoli della IA, possiamo tutti concordare sul fatto che l’intelligenza artificiale sia qui per restare. Quindi, nonostante sia complesso navigare nel labirinto regolatorio, è venuto il momento di iniziare seriamente a considerare cosa è necessario mettere in atto a livello nazionale e internazionale per regolamentare l’intelligenza artificiale.

Perché abbiamo bisogno di una regolamentazione dell’intelligenza artificiale?

I fautori della regolamentazione dell’IA come Stephen Hawking temono che l’IA possa distruggere l’umanità se non siamo proattivi per evitare i rischi di un’IA illimitata che ‘gestisca’ “potenti armi autonome o nuovi modi per i pochi di opprimere i molti”.

Costoro vedono la regolamentazione come chiave per consentire all’IA e all’umanità di coesistere in un futuro pacifico e produttivo. Bill Gates è anche “preoccupato per la super intelligenza” e non “capisce perché alcune persone non siano preoccupate”.

La tripletta si completa con Elon Musk,  che afferma che dovremmo regolamentare l’intelligenza artificiale “prima che sia troppo tardi”.

Nel 2015, 20.000 persone tra ricercatori di robotica e intelligenza artificiale, intellettuali, attivisti, Stephen Hawking ed Elon Musk hanno firmato una lettera aperta e l’hanno presentata alla Conferenza Internazionale sull’Intelligenza Artificiale, chiedendo alle Nazioni Unite di vietare ulteriori sviluppi dell’IA militarizzata che potrebbe agire “al di là di un controllo significativo”.

Gli esempi di pericoli della IA non mancano…

La nostra società è già influenzata dall’esplosione degli algoritmi di intelligenza artificiale che vengono utilizzati nelle istituzioni finanziarie, nei luoghi di lavoro, nei sistemi governativi, nella polizia e altrove. Questi algoritmi di intelligenza artificiale possono e effettivamente prendono decisioni che creano problemi significativi e seri nella vita delle persone.

Una insegnante, che in passato aveva ricevuto ottime recensioni sul suo lavoro, è stata licenziata dopo che il suo distretto ha implementato un algoritmo per valutare le prestazioni degli insegnanti. La scuola non è stata in grado di spiegare il motivo di ciò, se non che altri stavano “manipolando” il sistema.

Un programma di riconoscimento facciale per la lotta al terrorismo ha revocato la patente a un uomo innocente quando lo ha scambiato per un altro conducente.

L’intelligenza artificiale sta evolvendo rapidamente, mentre le decisioni governative e normative procedono a un ritmo molto lento. Ciò che Musk e altri sostengono è che è ora di iniziare a discutere di come e di che aspetto avrà la regolamentazione dell’intelligenza artificiale, in modo che non siamo troppo indietro quando verranno effettivamente adottate delle norme.

Se non altro, gli organismi di regolamentazione e le agenzie di controllo dovrebbero comunque venire costituite – anche senza una regolamentazione vigente – in modo che possano ottenere informazioni adeguate e essere pronti a prendere decisioni quando sarà necessario e quando saranno evidenti i pericoli della IA.

Perché è prematuro regolamentare l’intelligenza artificiale?

Molte persone ritengono che sia prematuro parlare di regolamentazione dell’IA perché non c’è ancora nulla di specifico che richieda una regolamentazione né si vedono specifici pericoli della IA incombenti. Anche se ci sono state enormi innovazioni dal mondo dell’IA, il campo è ancora agli inizi.
La regolamentazione potrebbe soffocare l’innovazione in un settore che sta esplodendo, mentre il co-fondatore di Trouva, Alex Loizou, ritiene che dobbiamo comprenderne il pieno potenziale prima che sia settore sia regolamentato.

Anzi, uno studio della Stanford University ha rilevato come “i tentativi di regolamentare l’IA in generale sarebbero fuorvianti, dacché non esiste nemmeno una definizione chiara di AI (cioè non è una cosa unica) e così pure i rischi e le considerazioni sembrerebbero essere molto diversi a seconda dei differenti settori”.

Come potrebbe essere la regolamentazione dell’intelligenza artificiale?

Dal 2018, la Gran Bretagna –  insieme ad altri stati europei  – sta facendo passi verso una legislazione sull’intelligenza artificiale che consente di contestare le decisioni automatizzate per anticipare i pericoli della AI

In Italia, la legge sul regolamento generale sulla protezione dei dati (GDPR) rappresenta un primo passo nel tentativo di creare leggi su come sfidare l’intelligenza artificiale e, si spera, prevenire i pericoli della profilazione, discriminazione e consentire alle persone il diritto di scoprire quale logica è stata coinvolta nel prendere decisioni contro loro noto come il “diritto alla spiegazione”.

C’è la consapevolezza che se qualsiasi tipo di standard o linea guida avrà un potere, la supervisione affinché le persone seguano le linee guida dovrà essere assegnata a un organo di governo.

Attualmente, coloro che stanno discutendo su come potrebbero essere le normative sull’IA hanno considerato alcuni dei seguenti:

  • L’intelligenza artificiale non dovrebbe essere usata come arma.
  • Dovrebbe esserci un “interruttore di spegnimento” impenetrabile che può essere dispiegato dagli umani.
  • L’intelligenza artificiale dovrebbe essere governata secondo le stesse regole degli esseri umani.
  • I produttori dovrebbero accettare di rispettare le linee guida etiche generali imposte dalla regolamentazione internazionale.
  • Dovrebbe esserci comprensione di come vengono prese la logica e le decisioni dell’IA.
  • L’IA dovrebbe essere ritenuta responsabile se qualcosa va storto?

Sono domande complesse e senza una risposta facile.

Leave a Reply

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *