Ci trovi qui:
Strada dei Manelli 32
12084 Mondovì CN
contatti@calviandpartners.it
Tel.: +39.327.5953695
Indietro

Regolamentazione dell’intelligenza artificiale: serve?

Le nuove tecnologie spesso creano ansia nel pubblico, ma l’intensità della preoccupazione per le implicazioni dei progressi nell’intelligenza artificiale (AI) è di particolare rilievo.

La complessità dell’IA: riflessioni sul futuro incerto tra dominio, distruzione ed economia

Diversi studiosi, stimati e leader nel campo tecnologico avvertono che l’IA sta progressivamente trasformando i robot in una élite dominante, che potrebbe assoggettare l’umanità, se non addirittura distruggerla. Altri esprimono preoccupazioni per il fatto che l’IA stia facilitando la produzione massiccia di armi autonome da parte dei governi – “macchine assassine” che selezioneranno autonomamente i loro bersagli, inclusi innocenti civili. Eminenti economisti, poi, enfatizzano che l’IA, a differenza delle tecnologie passate, stia eliminando molti più posti di lavoro di quanti ne generi, provocando considerevoli turbamenti economici ed invocano una regolamentazione dell’intelligenza artificiale.

Si assiste a un consenso diffuso sul fatto che l’espansione dell’IA stia accelerando. Dopo cicli di euforia seguiti da delusione, i computer sono ora riusciti a battere i campioni di scacchi, Jeopardy, Go e poker. La società e i politici rimangono colpiti dalle automobili autonome che hanno già percorso milioni di miglia. Nel mentre, le richieste di accademici e intellettuali per imporre stringenti regolamenti governativi alla ricerca e allo sviluppo (R&S) dell’IA stanno acquistando sempre più spazio. Nonostante gli sviluppi dell’IA richiedano indubbiamente una notevole attenzione, dobbiamo essere cauti e non generalizzare eccessivamente.

Condividiamo le conclusioni di un gruppo di studio istituito nell’ambito del One Hundred Year Study of Artificial Intelligence della Stanford University: “Il gruppo di studio concorda che tentare di regolamentare l’intelligenza artificiale in modo generico sarebbe fuorviante, dato che non esiste una definizione univoca di IA (non è un concetto monolitico), e i rischi e le considerazioni variano enormemente a seconda dei diversi contesti.

Verso la singolarità: l’intelligenza artificiale e il futuro imminente dell’umanità

Una definizione ben nota è: “L’intelligenza artificiale è quell’attività dedicata a rendere intelligenti le macchine, e l’intelligenza è quella qualità che consente a un’entità di funzionare in modo appropriato e con lungimiranza nel suo ambiente”. Una concezione diffusa dell’intelligenza artificiale è che consentirà a un computer di pensare come una persona. Il famoso test di Turing sostiene che l’intelligenza artificiale si ha quando una persona non è in grado di determinare se una risposta a una domanda che ha posto sia stata fatta da una persona o da un computer. Altri usano il termine per riferirsi ai computer che utilizzano algoritmi per elaborare grandi quantità di informazioni e trarre conclusioni e imparare dalle loro esperienze.

Alcuni ritengono che l’intelligenza artificiale sia sulla buona strada per produrre macchine intelligenti che saranno molto più capaci degli esseri umani. Dopo aver raggiunto questo punto di “singolarità tecnologica”, i computer continueranno ad avanzare e daranno vita a un rapido progresso tecnologico che si tradurrà in cambiamenti drammatici e imprevedibili per l’umanità. Alcuni osservatori prevedono che la singolarità potrebbe verificarsi già nel 2030.

Si potrebbe respingere queste idee come la provenienza della fantascienza, se non fosse per il fatto che queste preoccupazioni sono condivise da diversi studiosi e leader tecnologici molto rispettati. Un team dell’Università di Oxford ha avvertito: “Tali intelligenze estreme non potrebbero essere facilmente controllate (né dai gruppi che le creano, né da qualche regime normativo internazionale)… l’intelligenza sarà spinta a costruire un mondo senza esseri umani o senza caratteristiche significative dell’esistenza umana. Ciò rende le IA estremamente intelligenti un rischio unico, in quanto l’estinzione è più probabile rispetto a impatti minori”.

Elon Musk, il fondatore di Tesla, ha twittato che: “Dobbiamo stare molto attenti con l’intelligenza artificiale. Potenzialmente più pericoloso delle armi nucleari. Ha aggiunto: “Sono sempre più propenso a pensare che dovrebbe esserci una supervisione normativa [dell’IA], forse a livello nazionale e internazionale”. Il filosofo di Oxford Nick Bostrom crede che proprio come gli umani hanno superato e quasi completamente eliminato i gorilla, l’IA supererà lo sviluppo umano e alla fine dominerà.

Una legge sull’IA e una certificazione governativa per la sicurezza dei programmi

L’avvocato e giurista Matthew Scherer chiede una legge sullo sviluppo dell’intelligenza artificiale e la creazione di un’agenzia governativa per certificare la sicurezza dei programmi di intelligenza artificiale. La Casa Bianca ha organizzato quattro workshop sull’IA nel 2016. Uno degli argomenti principali: l’IA deve essere regolamentata?

La comunità dell’IA non è rimasta indifferente a queste preoccupazioni. Nel 2009, il presidente dell’Association for the Advancement of Artificial Intelligence ha nominato un gruppo di membri di spicco per esaminare “il valore della formulazione di linee guida per guidare la ricerca e di creare politiche che potrebbero limitare o influenzare i comportamenti dei sistemi autonomi e semi-autonomi così per affrontare le preoccupazioni”. Alcuni hanno chiesto una pausa, ma alla fine i ricercatori di intelligenza artificiale hanno deciso che non c’era ancora alcun motivo di preoccupazione o di interrompere la ricerca.

L’Autonomia limitata delle macchine intelligenti

Per come la vediamo, il fatto che l’intelligenza artificiale renda le macchine molto più intelligenti e capaci non le rende completamente autonome. Siamo abituati a pensare che se a una persona viene concessa maggiore autonomia – detenuti rilasciati dalle carceri, adolescenti lasciati senza sorveglianza – potrebbe sbagliare perché seguirà i suoi desideri precedentemente repressi.

Al contrario, le macchine dotate di intelligenza artificiale, per quanto intelligenti possano diventare, non hanno obiettivi o motivazioni proprie. È difficile capire, ad esempio, perché le auto senza conducente si unirebbero per marciare su Washington. E anche se un programma di intelligenza artificiale presentasse lo slogan politico più persuasivo mai creato, perché questo programma dovrebbe nominare un computer dotato di intelligenza artificiale come candidato per il prossimo presidente? Gli scrittori di fantascienza potrebbero escogitare modi in cui l’intelligenza può essere trasformata in motivazione, ma per ora tali nozioni probabilmente dovrebbero rimanere al loro posto: nei film.

La sfida di regolamentare l’IA: un genio fuori dalla bottiglia con costi e benefici

Bisogna inoltre notare che regolamentare l’IA a livello internazionale è un compito molto impegnativo, poiché il genio della ricerca e sviluppo dell’IA ha già lasciato la bottiglia. Il lavoro di intelligenza artificiale viene svolto in molti paesi da un gran numero di dipendenti governativi, uomini d’affari e accademici. Viene utilizzato in una grande varietà e numero di macchine, dagli aerei passeggeri ai motori di ricerca, dai robot industriali agli ausili infermieristici virtuali.

Soprattutto, bisogna tenere conto del fatto che è probabile che le restrizioni allo sviluppo dell’IA come campo imporranno costi umani ed economici molto elevati. I programmi di intelligenza artificiale aiutano già a rilevare il cancro, riducono il rischio di collisioni tra aerei e sono implementati nel software delle auto antiquate (cioè non autonome) che le rende molto più sicure.

In uno studio in cui a un robot ea chirurghi umani è stato affidato lo stesso compito (ricucire parte di un intestino che era stato tagliato), il robot ha superato gli umani. Sebbene i chirurghi siano intervenuti per assistere lo Smart Tissue Autonomous Robot nel 40% delle prove, il robot ha completato il compito senza alcun intervento umano il 60% delle volte e la qualità dei suoi punti di sutura è stata superiore.

Robot e algoritmi al servizio delle persone

L’intelligenza artificiale viene utilizzata nelle missioni di ricerca e soccorso. Qui gli algoritmi vengono utilizzati per esaminare le riprese aeree delle zone disastrate per identificare rapidamente dove è probabile che le persone siano bloccate e la maggiore velocità significa che c’è una migliore possibilità che le vittime vengano trovate vive.

I robot dotati di intelligenza artificiale vengono utilizzati nella cura di bambini, anziani e pazienti. Ad esempio, ci sono “animali domestici” robotici usati per ridurre lo stress per i pazienti anziani con demenza. Gli animali domestici sono programmati per imparare a comportarsi in modo diverso con ogni paziente attraverso feedback positivi e negativi da parte dei pazienti. L’intelligenza artificiale è utilizzata anche nello sviluppo di psicoterapeuti virtuali. Le persone sembrano più disposte a condividere informazioni in un’intervista al computer perché non si sentono giudicate nello stesso modo in cui potrebbero essere in presenza di una persona.

Gli assistenti personali computerizzati come Siri di Apple, Cortana di Microsoft e Alexa di Amazon utilizzano l’intelligenza artificiale per imparare dal comportamento dei loro utenti come servirli meglio. L’intelligenza artificiale viene utilizzata da tutte le principali società di carte di credito nei programmi di rilevamento delle frodi. I sistemi di sicurezza utilizzano programmi di intelligenza artificiale per sorvegliare più schermi dalle telecamere di sicurezza e rilevare elementi che spesso mancano a una guardia umana.

Bisogna soppesare le perdite in tutte queste aree e in molte altre se la ricerca sull’IA dovesse essere ostacolata come parte della copertura contro la singolarità. Ne consegue che, sebbene possano esserci alcune ragioni per osservare con attenzione i segnali che l’IA sta impazzendo, per ora, è meglio lasciare la minaccia della singolarità alle deliberazioni durante le conferenze e i seminari. La singolarità è ancora troppo speculativa per essere una ragione in questo momento per imporre controlli governativi o addirittura autoimposti per limitare o rallentare lo sviluppo dell’IA su tutta la linea.

Macchine per uccidere autonome?

Al contrario, i suggerimenti per limitare alcune applicazioni molto specifiche dell’IA sembrano meritare un esame e un’azione molto più ravvicinati. Un esempio importante è lo sviluppo di armi autonome che impiegano l’intelligenza artificiale per decidere quando sparare, con quanta forza applicare e su quali bersagli.

I suggerimenti per limitare alcune applicazioni molto specifiche dell’IA sembrano meritare un esame e un’azione molto più ravvicinati. Un esempio importante è lo sviluppo di armi autonome.

Un gruppo di ricercatori di robotica e intelligenza artificiale, insieme a intellettuali pubblici e attivisti, ha firmato una lettera aperta presentata alla Conferenza internazionale sull’intelligenza artificiale del 2015, chiedendo alle Nazioni Unite di vietare l’ulteriore sviluppo di intelligenza artificiale armata che potrebbe operare “oltre il significato controllo umano”.

La lettera ha oltre 20.000 firmatari, tra cui Stephen Hawking, Elon Musk e Noam Chomsky, oltre a molti dei principali ricercatori nei campi dell’intelligenza artificiale e della robotica. La petizione ha fatto seguito a una dichiarazione del 2013 di Christof Heyns, relatore speciale delle Nazioni Unite sulle esecuzioni extragiudiziali, sommarie o arbitrarie, che chiedeva una moratoria sui test e sul dispiegamento di robot armati. Heyns ha affermato che “la decisione di consentire il dispiegamento di macchine per uccidere esseri umani in tutto il mondo, qualunque sia l’arma che usano, merita una pausa collettiva”.

L’urgenza di un accordo globale per limitare il loro utilizzo

Una pausa nello sviluppo di macchine per uccidere fino a quando le nazioni del mondo non giungono a un accordo sulle limitazioni allo spiegamento di armi autonome sembra sensata. La maggior parte delle nazioni del mondo ha firmato il Trattato di non proliferazione delle armi nucleari, che è stato uno dei motivi principali per cui diverse nazioni, tra cui Sud Africa, Brasile e Argentina, hanno abbandonato i loro programmi per sviluppare armi nucleari e che coloro che già le possedevano ridotto i propri arsenali nucleari. Altri trattati rilevanti includono il divieto delle armi biologiche e chimiche e il divieto delle mine antiuomo.

Notiamo, tuttavia, che questi trattati trattano argomenti in cui il confine tra ciò che è proibito e ciò che non è coperto è relativamente chiaro. Quando ci si rivolge alle armi autonome, una tale linea è estremamente difficile da tracciare. Una certa misura di autonomia è incorporata in tutti i software che utilizzano algoritmi e tale software è incluso in numerosi sistemi d’arma.

A questo punto, sarebbe utile discutere tre livelli di autonomia per i sistemi d’arma. Le armi con il primo livello di autonomia, o “sistemi umani nel circuito”, sono in uso oggi e richiedono il comando umano sulla scelta del bersaglio da parte del robot e sul dispiegamento della forza. Il sistema israeliano Iron Dome è un esempio di questo livello di autonomia. Il livello successivo di armi, i “sistemi umani sul circuito”, può selezionare bersagli e dispiegare la forza senza l’assistenza umana.

Tuttavia, un essere umano può ignorare le decisioni del robot. La Corea del Sud ha posizionato un robot sentinella lungo la zona smilitarizzata adiacente alla Corea del Nord le cui capacità sono in linea con questo livello di autonomia. Infine, c’è il livello di armi completamente autonome che operano in modo del tutto indipendente dall’input umano. Sembra utile esplorare se le nazioni del mondo, tra cui Russia, Cina e Corea del Nord, possono accettare un divieto di armi almeno completamente autonome.

Guardiani IA: La chiave per un’IA responsabile e sicura nel mondo moderno

Ciò che serve è l’introduzione nel mondo dell’IA della stessa struttura di base che esiste praticamente in tutti i sistemi non digitali: un sistema decisionale a più livelli.

Suggeriamo che ciò che è necessario, inoltre, è uno sviluppo dell’IA completamente nuovo che sia applicabile a molte, se non a tutte, le cosiddette tecnologie intelligenti. Ciò che serve è l’introduzione nel mondo dell’IA della stessa struttura di base che esiste praticamente in tutti i sistemi non digitali: un sistema decisionale a più livelli. Da un lato ci sono i sistemi operativi, le api operaie che svolgono le varie missioni.

Oltre a ciò vi è una grande varietà di sistemi di supervisione che assicurano che il lavoro venga svolto entro parametri specificati. Pertanto, gli operai e gli impiegati hanno supervisori, le aziende hanno revisori e gli insegnanti hanno presidi. I sistemi IA di supervisione, li chiamiamo Guardiani IA, possono garantire che le decisioni prese dalle armi autonome rimarranno all’interno di una serie di parametri predeterminati.

Ad esempio, non sarebbero autorizzati a prendere di mira decine di obiettivi vietati dalle forze armate statunitensi, comprese moschee, scuole e dighe. Inoltre, a queste armi non dovrebbe essere consentito di fare affidamento sull’intelligence di un’unica fonte.

Per illustrare che i guardiani AI sono necessari per tutte le tecnologie intelligenti, citiamo un esempio: le auto senza conducente. Questi sono progettati come macchine per l’apprendimento che cambiano il loro comportamento sulla base della loro esperienza e di nuove informazioni. Potrebbero notare, ad esempio, che le auto antiquate non rispettano i limiti di velocità.

Quindi, anche le auto senza conducente possono decidere di accelerare. La Tesla che ha ucciso il suo passeggero in un incidente in Florida nel 2016, la prima morte nota attribuita a un’auto senza conducente, stava viaggiando a nove miglia all’ora oltre il limite di velocità, secondo gli investigatori del National Transportation Safety Board. Un sistema di supervisione garantirà che il parametro del limite di velocità non venga violato.

Gli algoritmi opachi dell’IA: la necessità di nuovi programmi di supervisione per garantire la responsabilità e la sicurezza

Si potrebbe obiettare che piuttosto che un altro livello di intelligenza artificiale, i supervisori umani potrebbero fare il lavoro. Il problema è che i sistemi di intelligenza artificiale sono una scatola nera sempre più opaca. Come osservano Viktor Mayer-Schönberger e Kenneth Cukier nel loro libro Big Data: A Revolution That Will Transform How We Live, Work, and Think , “Il codice informatico di oggi può essere aperto e ispezionato… Con l’analisi dei big data, tuttavia, questa tracciabilità diventare molto più difficile. La base delle previsioni di un algoritmo può spesso essere troppo intricata per essere compresa dalla maggior parte delle persone”. Aggiungono che “gli algoritmi e i set di dati dietro di loro diventeranno scatole nere che non ci offrono alcuna responsabilità, tracciabilità o fiducia”. J

enna Burrell della School of Information dell’Università della California, Berkeley, distingue tre modi in cui gli algoritmi diventano opachi : opacità intenzionale, dove, ad esempio, un governo o una società vuole mantenere segreti alcuni algoritmi proprietari; analfabetismo tecnico, dove la complessità e la funzione degli algoritmi è al di là della comprensione del pubblico (e, aggiungiamo, anche da parte di esperti senza l’aiuto dell’intelligenza artificiale); e scala di applicazione, dove “l’apprendimento automatico” o il numero di diversi programmatori coinvolti, o entrambi, rende un algoritmo opaco anche per i programmatori. P

ertanto, gli esseri umani avranno bisogno di nuovi programmi di supervisione dell’IA, ancora da sviluppare, per comprendere e mantenere in linea i sistemi di intelligenza artificiale operativi. Un buon punto di partenza è tenere sotto controllo le armi autonome. Inoltre, solo un sistema di supervisione AI può muoversi abbastanza velocemente da prendere una decisione in una frazione di secondo di interrompere una missione in tempo reale, ad esempio se un bambino corre nell’area bersaglio.

Chi custodirà i guardiani?

Ci si potrebbe chiedere se i sistemi di intelligenza artificiale di supervisione non siano soggetti alle stesse sfide affrontate dai sistemi di prima linea. Prima di tutto, aiuta a considerare lo scopo e il design delle diverse categorie di IA. I programmi di intelligenza artificiale di prima linea vengono creati per aumentare l’efficienza delle macchine che guidano e gli utenti li utilizzano con questo obiettivo in mente. Al contrario, i sistemi di supervisione dell’IA sono progettati e impiegati, beh, per supervisionare.

 Inoltre, proprio come gli auditor umani, vari programmi si costruiscono la reputazione di essere più o meno affidabili, e quelli che sono meno affidabili sono meno utilizzati da coloro che cercano la supervisione. E proprio come nel settore della revisione contabile, nel campo dell’intelligenza artificiale c’è spazio per un terzo livello di supervisori, che potrebbero supervisionare il sistema di supervisione di livello inferiore. Tuttavia, alla fine, l’IA non può risolvere il problema sollevato dai filosofi nell’antica Grecia, vale a dire “chi custodirà i guardiani?” In definitiva, non siamo a conoscenza di alcun modo per costruire un sistema perfetto.

La coesistenza uomo-macchina nell’era dell’IA: l’autorità umana e l’etica delle macchine da guerra

Infine, questo non intende lasciare gli umani fuori dal giro. Non solo sono loro a progettare e migliorare i sistemi IA operativi e di supervisione, ma devono rimanere l’autorità suprema, il guardiano dei Guardiani IA. Gli esseri umani dovrebbero essere in grado di spegnere i sistemi IA operativi e di supervisione, ad esempio spegnendo tutte le macchine per uccidere quando il nemico si arrende o consentendo a un’auto senza conducente di accelerare se il passeggero è gravemente malato.

Riteniamo che lo studio delle macchine per uccidere debba essere ampliato per includere la questione opposta: se sia etico utilizzare una persona in situazioni ad alto rischio quando anche un robot può svolgere la stessa missione, se non meglio. Questa domanda si applica allo sminamento di mine e IED, al trascinamento di soldati feriti fuori dalla linea di tiro e ai civili dagli edifici in fiamme e, in ultima analisi, alla guerra. Se i filosofi possono indulgere in scenari della fine del mondo progettati dall’intelligenza artificiale, allora possiamo ipotizzare un giorno in cui le nazioni invieranno solo armi non umane nelle zone di combattimento e la nazione le cui macchine vincono sarà considerata aver vinto la guerra.

Stravolgimento del mondo del lavoro?

Stranamente, l’area in cui l’IA sta già avendo un impatto significativo e si prevede che avrà importanti effetti di trasformazione a livello mondiale è più spesso discussa dagli economisti piuttosto che dagli esperti di intelligenza artificiale. Vi sono prove evidenti che la rivoluzione informatica, iniziata con l’uso su larga scala dei computer e ora accelerata dall’introduzione di un’intelligenza artificiale più forte, stia distruggendo molti posti di lavoro: prima i lavori dei colletti blu (robot sulla catena di montaggio), poi i colletti bianchi (banche che riducono il proprio personale di back office), e ora quelli professionali (p. es. ricerca legale).

egli USA, il Bureau of Labor Statistics ha rilevato che i posti di lavoro nel settore dei servizi, che attualmente impiega i due terzi di tutti i lavoratori, siano già stati “cancellati dalla tecnologia”. Dal 2000 al 2010 sono scomparsi 1,1 milioni di posti di lavoro di segreteria, così come 500.000 posti di lavoro per addetti alla contabilità e alla revisione contabile. Anche altri tipi di lavoro, come gli agenti di viaggio e gli addetti all’inserimento dati, hanno registrato un forte calo a causa dei progressi tecnologici.

Come la tecnologia sta ridefinendo il campo legale e sfida l’occupazione tradizionale

Il campo legale è stato l’ultima vittima, poiché le tecnologie di e-discovery hanno ridotto la necessità di grandi team di avvocati e para-legali per esaminare milioni di documenti. Michael Lynch, il fondatore di una società di e-discovery chiamata Autonomy, stima che il passaggio dalla scoperta di documenti umani all’e-discovery alla fine consentirà a un avvocato di svolgere il lavoro che in precedenza veniva svolto da 500 persone.

Questi sviluppi di per sé non sono la preoccupazione principale; la distruzione del lavoro è avvenuta nel corso della storia umana, dal telaio per tessitura che ha sostituito la tessitura a mano, ai battelli a vapore che hanno sostituito le barche a vela, alle auto modello T che hanno distrutto le industrie dei cavalli e dei buggy. La preoccupazione, tuttavia, è che questa volta i nuovi sviluppi tecnologici creeranno pochi nuovi posti di lavoro. Un pezzo di software, scritto da pochi programmatori, fa il lavoro che prima era svolto da diverse centinaia di migliaia di persone. Quindi, sentiamo gridare che gli Stati Uniti e in effetti il ​​mondo stanno affrontando un crollo del lavoro e persino un Armageddon economico.

Inoltre, la disoccupazione e le crescenti disparità di reddito possono comportare gravi distribuzioni sociali. Si può già vedere che i livelli costantemente elevati di disoccupazione in Europa sono un fattore importante nel fomentare i disordini, compreso un aumento della violenza, la frammentazione e la polarizzazione politica, un aumento dei sentimenti anti-immigrati, la xenofobia e l’antisemitismo.

Economisti divisi sull’impatto dell’IA sul mercato del lavoro: una chiamata per una revisione approfondita

Alcuni economisti sono meno preoccupati. Sostengono che sorgeranno nuovi posti di lavoro. Le persone svilupperanno nuovi gusti per prodotti e soprattutto servizi che nemmeno i computer intelligenti saranno in grado di fornire o produrre. Gli esempi includono una maggiore domanda di chef qualificati, agricoltori biologici e personal trainer. E questi economisti sottolineano che il tasso di disoccupazione è piuttosto basso negli Stati Uniti, a cui il gruppo allarmato risponde sottolineando che i nuovi posti di lavoro pagano molto meno, portano meno benefici e sono molto meno sicuri.

La comunità di ricerca dovrebbe essere chiamata a fornire una meta-revisione di tutte le informazioni disponibili sull’eventualità che la nazione affronti o meno un deficit occupazionale elevato e crescente.

Data l’importanza e la portata delle sfide economiche e sociali poste dall’IA nell’immediato futuro, diverse misure sembrano giustificate. La comunità di ricerca dovrebbe essere chiamata a fornire una meta-revisione di tutte le informazioni disponibili sull’eventualità che la nazione affronti o meno un deficit occupazionale elevato e crescente.

Questo è un compito per una rispettata fonte apartitica, come il Congressional Research Service o la National Academy of Sciences. Se la conclusione della meta-revisione è che devono essere intraprese azioni importanti per far fronte agli effetti collaterali dell’accelerazione della rivoluzione informatica, il presidente degli Stati Uniti dovrebbe nominare una commissione di alto livello per esaminare cosa si potrebbe fare oltre a cercare di rallentare il rivoluzione.

La Cyber ​​Age Commission che immaginiamo sarebbe simile all’influente Commissione sull’11 settembre e includerebbe rispettati ex funzionari di entrambi i partiti politici, amministratori delegati e leader sindacali selezionati ed esperti di intelligenza artificiale. Esaminerebbero risposte alternative all’incombente crisi del lavoro e ai suoi corollari.

Dall’assistenza all’adeguamento commerciale al reddito di base e oltre

Alcune possibili risposte sono state provate in passato, incluso aiutare i lavoratori a trovare nuovi posti di lavoro piuttosto che cercare di preservare i posti di lavoro delle industrie in declino. Negli Stati Uniti, ad esempio, l’assistenza all’adeguamento commerciale per i lavoratori fornisce formazione e assicurazione contro la disoccupazione per i lavoratori sfollati. Un’altra opzione sarebbero gli sforzi del governo per creare posti di lavoro attraverso grandi investimenti nel puntellare l’infrastruttura nazionale, o stimolando la crescita economica stampando più denaro, come sta attualmente tentando il Giappone.

Altre opzioni non testate includono garantire a tutti un reddito di base (in effetti, un’importante estensione dell’attuale credito d’imposta sul reddito guadagnato); settimane di lavoro più brevi (come ha fatto la Francia ma ora se ne pente); una giornata lavorativa di sei ore (che molti luoghi di lavoro in Svezia hanno introdotto con grande successo); e le tasse sugli straordinari, da distribuire a tutto il lavoro rimasto. Nel suggerire al Congresso e alla Casa Bianca cosa si potrebbe fare, la commissione dovrà tener conto del fatto che ciascuna di queste risposte affronta sfide importanti da convinzioni profondamente radicate e potenti interessi acquisiti.

Nel prossimo futuro, le società potrebbero aver bisogno di adattarsi a un mondo in cui i robot diventeranno la principale classe lavoratrice e le persone trascorreranno più tempo con i propri figli e le famiglie, gli amici e i vicini, nelle attività della comunità e nelle attività spirituali e culturali. inseguimenti.

Verso un futuro di robot lavoratori: riconsiderando il lavoro e la distribuzione del redditi

La risposta alla rivoluzione informatica potrebbe dover essere molto più trasformativa delle varie politiche citate finora, o anche di tutte insieme. Nel prossimo futuro, le società potrebbero aver bisogno di adattarsi a un mondo in cui i robot diventeranno la principale classe lavoratrice e le persone trascorreranno più tempo con i propri figli e le famiglie, gli amici e i vicini, nelle attività della comunità e nelle attività spirituali e culturali. inseguimenti. Questa trasformazione richiederebbe una combinazione di due grandi cambiamenti.

La prima sarebbe che le persone trarrebbero gran parte della loro soddisfazione da attività che costano meno e quindi richiedono solo un reddito relativamente modesto. Un tale cambiamento, tra l’altro, è molto più rispettoso dell’ambiente rispetto all’attuale spinta a raggiungere livelli sempre più elevati di consumo di beni materiali. Il secondo cambiamento sarebbe che il reddito generato dalle tecnologie guidate dall’intelligenza artificiale sarà distribuito in modo più equo attraverso l’introduzione di un’imposta progressiva sul valore aggiunto o una tassa sul carbonio, o entrambe, e un prelievo molto ridotto su tutte le transazioni finanziarie a breve termine.

Il servizio più importante che la Cyber ​​Age Commission potrebbe fornire, attraverso audizioni pubbliche, sarebbe quello di aiutare a lanciare e coltivare un dialogo pubblico a livello nazionale su quale corso la gente della nazione preferisce, o può arrivare a favorire. Se hanno ragione coloro che sostengono che le maggiori sfide dell’IA sono nel campo economico e sociale, molti cuori e menti dovranno essere cambiati prima che la nazione possa adottare le misure politiche e i cambiamenti culturali che saranno necessari per negoziare l’imminente trasformazione in un mondo ricco di intelligenza artificiale.

Leave a Reply

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *