Dai primi romanzi futuristici alle prime sperimentazioni, l’essere umano ha immediatamente compreso la necessità di approcciarsi ai sistemi informatici intelligenti sviluppando una riflessione etica che oggi, in modo particolare, verte sulle potenzialità ma anche sui possibili rischi e limiti nell’applicazione dell’Intelligenza artificiale.

La necessità di comprendere, consapevolmente, la portata dei cambiamenti prodotti nell’era delle macchine intelligenti ha così prodotto un vastissimo campo di riflessione culturale cui hanno contribuito – e continuano a contribuire –  filosofi, sociologi, antropologi e studiosi di tutto il mondo.

L’Intelligenza artificiale tra sviluppo ed etica

Quali confini non dovranno essere superati nell’Intelligenza artificiale? Che valori devono sottintendere la ricerca scientifica? Quali campi di applicazione dovrebbero essere evitati, o comunque attenzionati? Come garantire la protezione dei diritti e la centralità stessa dell’esistenza umana ?

La necessità di rispondere a questi quesiti e di formalizzare una serie di principi in grado di orientare il lavoro di tutti gli attori coinvolti nello sviluppo dell’IA – non solo ricercatori, ma anche aziende, policy makers e istituzioni –  ha così portato,  nel 2017, alla prima “messa nero su bianco” di 23 principi sullo sviluppo dell’Intelligenza artificiale.

Questi principi – noti come principi di Asilomar – sono stati sviluppati durante la Beneficial AI 2017 conference organizzata da Future of Life Institute, con l’obiettivo di contribuire allo sviluppo tecnologico affinché questo possa migliorare – e mai impattare negativamente – sul futuro dell’umanità.

Quali sono i principi di Asilomar sull’Intelligenza artificiale

Vediamo allora quali sono i 23 principi di Asilomar sull’Intelligenza artificiale distinti in tre diverse aree: Problemi di ricerca, Etica e Valori e Problemi di lungo termine.

Problemi di ricerca

  1. Obiettivo di ricerca: L’obiettivo della ricerca sull’IA non dovrebbe essere quello di creare un’intelligenza senza scopo, ma quello di creare un’intelligenza vantaggiosa.
  2. Finanziamento della ricerca: Gli investimenti in IA dovrebbero essere accompagnati da finanziamenti per la ricerca che assicurino il suo uso benefico includendo questioni spinose relative all’informatica, all’economia, al diritto, all’etica e agli studi sociali, come ad esempio:
    –  Come possiamo rendere i futuri sistemi di IA altamente robusti, in modo che facciano ciò che vogliamo senza malfunzionamenti o violazioni informatiche?
    – In che modo si può aumentare la prosperità attraverso l’automazione, mantenenendo al contempo risorse e obiettivi delle persone?
    – Come possiamo aggiornare i nostri sistemi legali per renderli più giusti, efficienti e al passo con l’IA, gestendo i rischi associati alla stessa?
    – A quale sistema di valori l’Intelligenza artificiale dovrebbe essere allineata e quale status legale ed etico dovrebbe avere?
  3. Collegamento Scienza-Politica: Tra i ricercatori di IA e i decisori politici dovrebbe esserci uno scambio costruttivo e sano.
  4. Cultura della ricerca: Tra i ricercatori e gli sviluppatori di IA dovrebbe essere promossa una cultura di cooperazione, fiducia e trasparenza.
  5. Prevenzione della cultura della «corsa»: I team che sviluppano sistemi di IA dovrebbero cooperare attivamente per evitare che avvengano risparmi sugli standard di sicurezza.

Etica e Valori dell’Intelligenza artificiale definiti nei principi di Asilomar

  1. Sicurezza: Per tutta la loro durata operativa, i sistemi di IA dovrebbero essere sicuri e protetti in modo verificabile ove applicabile e fattibile.
  2. Trasparenza sugli errori: Se un sistema di IA causa danni, dovrebbe essere possibile accertarne le cause.
  3. Trasparenza giudiziaria: Qualsiasi coinvolgimento di un sistema autonomo in un processo giudiziario dovrebbe fornire una spiegazione soddisfacente e verificabile da un’autorità umana competente.
  4. Responsabilità: I progettisti e i costruttori di sistemi di IA avanzati sono soggetti interessati dalle implicazioni morali dell’utilizzo, degli abusi e azioni dell’IA, con la responsabilità e l’opportunità di plasmare queste implicazioni.
  5. Condivisione di lavori: I sistemi altamente autonomi di IA dovrebbero essere progettati assicurando che i loro obiettivi e il loro comportamento siano allineati con i valori umani.
  6. Valori umani: I sistemi di AI dovrebbero essere progettati e dovrebbero operare in modo da essere compatibili con gli ideali della dignità umana, dei diritti, della libertà e della diversità culturale.
  7. Privacy personale: Le persone dovrebbero avere il diritto di accedere, gestire e controllare i dati che generano, considerata la capacità dei sistemi di IA di analizzare e utilizzare tali dati.
  8. Libertà e privacy: L’applicazione dell’IA ai dati personali non deve irragionevolmente ridurre la libertà reale o percepita delle persone.
  9. Beneficio condiviso: Le tecnologie IA dovrebbero giovare ed emancipare il più ampio numero possibile di persone.
  10. Prosperità condivisa: La prosperità economica creata dall’IA dovrebbe essere ampiamente condivisa a beneficio di tutta l’umanità.
  11. Controllo umano: Gli esseri umani dovrebbero scegliere se e come delegare le decisioni ai sistemi di IA per raggiungere obiettivi individuati .
  12. Non-sovversione: Il potere derivante dal controllo dei sistemi di IA altamente avanzati dovrebbe rispettare e migliorare, piuttosto che sovvertire, i processi sociali e civili da cui dipende la salute della società.
  13. Corsa agli armamenti IA: Si deve evitare una corsa agli armamenti nelle armi autonome letali.


Problemi a lungo termine definiti nei principi di Asilomar

  1. Prudenza sulla capacità: Non essendoci consenso, dovremmo evitare rigide ipotesi riguardo ai limiti delle future capacità dell’IA.
  2. Importanza: L’IA avanzata potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra . Per questo dovrebbe essere pianificata e gestita con risorse e cura proporzionate.
  3. Rischi: I rischi posti dai sistemi di IA, in particolare quelli catastrofici o esistenziali, devono essere oggetto di pianificazione e sforzi di mitigazione proporzionati all’impatto previsto.
  4. Auto-miglioramento ricorsivo: I sistemi di IA progettati per auto-migliorarsi o auto-replicarsi in modo tale da poter portare a un rapido aumento in qualità o quantità devono essere soggetti a rigorose misure di sicurezza e controllo.
  5. Bene comune: La super-intelligenza dovrebbe essere sviluppata solo al servizio di ideali etici condivisi e a beneficio di tutta l’umanità, piuttosto che di un solo Stato o di un’organizzazione.