Intelligenza artificiale: opportunità o minaccia? Considerazioni e questioni etiche


Due miliardi di anni fa, i nostri antenati erano microbi; mezzo miliardo di anni fa, pesci; cento milioni di anni fa, qualcosa di simile a topi; dieci milioni di anni fa, scimmie arboricole; un milione di anni fa, protoumani che si chiedevano come addomesticare il fuoco. La nostra linea evolutiva è contrassegnata dalla capacità di dominare il cambiamento. Nella nostra epoca, il ritmo si sta facendo più rapido.” (Carl Sagan)

Le parole sopra citate sono di Carl Sagan, un astronomo, divulgatore scientifico e autore di fantascienza statunitense. Scomparso prematuramente nel 1996, l’astronomo sarebbe stato sicuramente colpito dal carattere profetico delle sue stesse parole se ne avesse visto la completa realizzazione che è oggi sotto i nostri occhi. Gli ultimi vent’anni sono infatti stati caratterizzati da una vera e propria impennata dei progressi tecnologici nel campo della genetica, della nanotecnologia e della robotica.

Le parole di Sagan sono riportate in apertura del secondo capitolo del libro La singolarità è vicina, di Ray Kurzweil (lo trovi qui) L’inventore e informatico statunitense sostiene, nel suo saggio, che siamo molto vicini ad un punto in cui la tecnologia si svilupperà in un processo esponenziale dalle conseguenze difficilmente prevedibili.

singolarità intelligenza artificiale.png

Si va dunque verso l’evoluzione dell’uomo ad un nuovo livello che oggi non possiamo ancora immaginare?

Per evitare inutili allarmismi abbiamo chiesto il parere di un esperto, Luigi Scopelliti, dottore in Fisica intervenuto allo Speech Cocktail di Sistema Critico incentrato sulla tematica dell’Intelligenza Artificiale.

Cos’è l’Intelligenza Artificiale?

Se l’intelligenza può essere definita come la capacità di apprendere con l’esperienza, attribuendo un significato a ciò che ci circonda e pianificando di conseguenza le azioni da intraprendere, sarà simile la definizione di intelligenza artificiale. Con questa espressione ci riferiamo infatti a macchine in grado di automatizzare azioni che associamo al pensiero umano: prendere decisioni, risolvere problemi e imparare.

Ciò che una macchina deve saper fare per poter essere considerata un’Intelligenza Artificiale è:

  1. comunicare tramite il linguaggio;
  2. rappresentare la conoscenza per immagazzinare ciò conosce e ascolta;
  3. ragionare automaticamente per usare le informazioni immagazzinate, rispondere a domande e trarre nuove conclusioni;
  4. imparare per adattarsi a nuove circostanze.

Macchine che imparano

La vera rivoluzione alla base dell’intelligenza artificiale, dunque, non è nella natura dei programmi avanzati che vengono caricati su una macchina e la rendono intelligente. Ciò che differenzia le moderne tecnologie è la capacità delle macchine di imparare attraverso la lettura di file. Le moderne intelligenze artificiali estrapolano informazioni dall’osservazione dei dati e in molti casi trovano addirittura soluzioni innovative rispetto agli esperti che hanno caricato i file. È il caso di DeepMind, l’intelligenza artificiale targata Google, che dopo soli 240 minuti di osservazione delle dinamiche di gioco del videogame Atari Breakout ha appreso la migliore tattica possibile per vincere, rendendosi di fatto imbattibile.

Come si insegna ad una macchina? Dopo aver studiato la struttura del cervello umano, gli esperti di robotica hanno ricavato un modello progettato in modo che la macchina imiti le reti cerebrali (reti neurali) e crei vere e proprie associazioni mentali.

La questione etica

Chi decide cosa è giusto quando si crea un programma che dovrà prendere decisioni a carattere etico? Ad esempio, nei programmi di intelligenza artificiale che sono alla base delle macchine a guida autonoma, in caso di collisione quali sono i principi che spingono il robot a scegliere tra il salvare la vita del guidatore o salvare la vita della persona che sta per essere investita? Una questione spinosa e dalla difficile soluzione.

Il dottor Scopelliti fa una considerazione: per il paradosso del re Mida si può programmare una macchina perché compia la migliore scelta possibile, ma si rischia comunque di creare danni irreparabili. Se diamo un compito ad una macchina, infatti, questa lo eseguirà in ogni caso, anche se ne risultassero danneggiati alcuni dei soggetti coinvolti.

Le possibili soluzioni

Per essere certi che le macchine non danneggino l’uomo nel prendere decisioni autonome, al momento l’unica strada percorribile sarebbe quella di caricare nel programma tutta la gamma di casi possibili con le relative azioni da intraprendere. Questo, però, minerebbe alla base l’idea di intelligenza, perché la macchina non si dimostrerebbe in grado di decidere in base ad un sistema di valori.

Si potrebbe quindi pensare di insegnare alla macchina i valori in base ai quali prendere decisioni eticamente accettabili. Questo sarà possibile solo dopo aver riscontrato, con un ragionevole grado di certezza, la presenza nelle macchine di una coscienza. Insieme alla coscienza si dovrà poi misurare la capacità della macchina di farne un buon uso. Si parla quindi di evoluzioni future e ancora difficilmente prevedibili.

La proposta del Future of Life Institute

L’organizzazione di ricerca e sensibilizzazione di Boston, attenta al rischio esistenziale nascosto nelle pieghe degli sviluppi dell’Intelligenza Artificiale, propone un sistema di valori etici da insegnare alle macchine (le modalità, come suggerisce il dottor Scopelliti, sono ancora in fase di definizione):

  1. Sicurezza: I sistemi di IA devono essere sicuri per la durata della loro azione. La verifica della loro sicurezza deve essere sempre possibile.
  2. Trasparenza nel guasto: se un Sistema IA causa dei danni, se ne deve poter accertare la causa.
  3. Trasparenza nelle decisioni: chiunque coinvolga un sistema autonomo nel prendere decisioni, deve fornire una spiegazione soddisfacente e verificabile da una autorità umana competente.
  4. Responsabilità: i progettisti e produttori di IA sono responsabili delle implicazioni morali delle decisioni delle macchine, del loro uso corretto o non corretto e devono intraprendere azioni per definire queste implicazioni.
  5. Aderenza ai Valori: sistemi dotati di intelligenza artificiale altamente autonomi dovranno essere progettati affinché i loro obiettivi e i loro comportamenti siano in linea con i valori umani nell’intero corso della loro azione
  6. Valori Umani: i sistemi IA debbono essere progettati e devono operare in modo da essere compatibili con gli ideali di dignità umana, diritto, libertà e diversità culturale.
  7. Privacy e Libertà: l’applicazione della IA ai dati personali non deve limitare senza ragione la libertà personale reale o percepita. 8.Condivisione dei benefici: le IA devono portare benefici e favorire la crescita di quanta più gente possibile.
  8. Condivisione della prosperità: la prosperità economica creata da IA deve essere condivisa ed andare a beneficio dell’intera umanità.
  9. Controllo Umano: gli umani devono poter scegliere come e se delegare le decisioni a sistemi IA che siano in accordo con gli obiettivi degli umani stessi.

Pubblicato in Scienza e tecnologia il 04 ottobre 2019 alle 12:30

Commenti


Devi accedere per poter postare un commento.

PRIVACY POLICY E INFORMATIVA SULL’USO DEI COOKIE

Gentile Utente, 

i tuoi dati personali (nome/cognome, email) e qualsiasi altra informazione che potrai fornirci volontariamente via email e attraverso il form di contatto del sito https://www.sigmaconsulting.biz (“Sito”) saranno trattati per le finalità di seguito illustrate:

• evasione delle richieste di informazioni che ci hai inoltrato;

• svolgimento di studi e ricerche su base anonima inerenti alle visite e alla navigazione del Sito;

• invio di informazioni sulle nostre attività.  


I dati personali sono forniti su base volontaria e per il loro trattamento viene richiesto il tuo consenso. In caso di mancato conferimento del consenso non potremmo dare corso alle richieste inoltrate attraverso il form di contatto.


Il trattamento dei dati sarà effettuato in Italia da parte di nostri dipendenti, collaboratori e soggetti incaricati per attività di aggiornamento e manutenzione del Sito. I tuoi dati non saranno diffusi, né trasferiti verso Paesi extra UE.


I dati saranno trattati per il periodo necessario ad evadere la richiesta e fino a tua revoca per quanto riguarda l’invio di informazioni sulla nostra attività.


Relativamente ai dati personali, in ogni momento mediante semplice richiesta scritta indirizzata al Titolare, anche a mezzo email o tramite soggetto delegato, potrai (i) ottenere l'accesso ai dati personali per conoscere origine dei dati, finalità del trattamento, logica applicata al trattamento con uso di strumenti elettronici, categorie di dati, destinatari (o categorie di destinatari) ai quali gli stessi saranno comunicati, periodo di conservazione, e la loro comunicazione in una forma intellegibile; (ii) ottenere la rettifica, l’integrazione, la cancellazione dei dati o la limitazione del trattamento; (iii) opporti al trattamento dei tuoi dati personali; (iv) ottenere la portabilità dei dati, ove pertinente; (v) revocare il consenso in qualsiasi momento; (vi) proporre reclamo ad un'autorità di controllo.

Il sito fa utilizzo dei seguenti cookie:

Nome: october_session
Dominio: www.sigmaconsulting.biz
Durata: sessione
Finalità: cookie tecnico di sessione per la gestione degli accessi alle varie sezioni del sito

Nome: _gat_gtag_UA_98725341_1
Dominio: .sigmaconsulting.biz
Durata: sessione
Finalità: cookie tecnico di sessione per il monitoraggio anonimizzato degli accessi via Google Analytics alle varie sezioni del sito. Nessun dato raccolto è ceduto a terzi.

Nome: _gid
Dominio: .sigmaconsulting.biz
Durata: 1 anno
Finalità: cookie tecnico di sessione per il monitoraggio anonimizzato degli accessi via Google Analytics alle varie sezioni del sito. Nessun dato raccolto è ceduto a terzi.

Nome: _ga
Dominio: .sigmaconsulting.biz
Durata: 2 anni
Finalità: cookie tecnico di sessione per il monitoraggio anonimizzato degli accessi via Google Analytics alle varie sezioni del sito. Nessun dato raccolto è ceduto a terzi.

Come rimuovere i cookies da Google Chrome: https://support.google.com/chrome/answer/95647
Come rimuovere i cookies da Firefox: https://support.mozilla.org/it/kb/Eliminare%20i%20cookie
Come rimuovere i cookies da Internet Explorer: https://support.microsoft.com/it-it/help/17442/windows-internet-explorer-delete-manage-cookies
Come rimuovere i cookies da Opera: https://help.opera.com/en/latest/web-preferences/#cookies

Titolare del trattamento:

Sigma  Consulting S.r.l.s., sede legale Pesaro (PU), Via del Cinema n. 5,  c.a.p. 61122; Tel.: 0721.415210, Fax: 0721.1622038, e-mail: info@sigmaconsulting.biz, P.E.C.: sigmaconsulting@gigapec.it;

Responsabile della Protezione dei Dati (DPO):

Avv. Silvia Dalle Nogare con domicilio in Via Battaglione Val Chiese, 10 - 36100 Vicenza c/o Pacta Avvocati Associati; Tel. 0444 564365, Fax 0444 280296, e-mail: silvia.dallenogare@pactavvocati.it, P.E.C.: silvia.dallenogare@ordineavvocativicenza.it.