Linkedin

Facebook

Twitter

Instagram

Intelligenze Artificiali: le sfide etiche

I recenti sviluppi della robotica e dell’Intelligenza Artificiale prefigurano rapide e diffuse innovazioni nel rapporto tra gli esseri umani e le macchine, aprendo nuove questioni etiche a riguardo. I percorsi da intraprendere saranno due: da un lato sarà necessario assicurarsi che le Intelligenze Artificiali non risultino rovinose per gli esseri umani; dall’altro bisognerà riflettere sulla morale delle macchine.

La morale delle macchine: buone o cattive?

Le intelligenze artificiali, di per sé, non sono né buone né cattive, è il loro utilizzo a renderle tali. Infatti, ogni tecnologia, porta con sé potenziali benefici e rischi. Questi ultimi potranno essere evitati se i programmatori prenderanno in considerazione tutte le possibili conseguenze derivanti da una scelta fatta dalle macchine in un determinato contesto, cercando di prevedere i casi in cui le Intelligenze Artificiali potrebbero comportarsi in modo sbagliato dal punto di vista etico.

Le Intelligenze Artificiali possono discriminare?

Come spiegato, sono i programmatori ad influenzare i processi decisionali delle macchine che realizzano e se venisse realizzata un’Intelligenza Artificiale razzista e sessista sarebbe molto dannoso. Un’équipe di ricercatori dell’Università di Princeton, nello studio “Semantics derived automatically from language corpora contain human-like biases” pubblicato nel 2017 sulla rivista Science, sostiene che le macchine replicano i nostri stereotipi e pregiudizi linguistici. Tuttavia, questo non deve preoccupare perché l’intento è quello di creare un sistema aggiornato e riprogrammato di Intelligenze Artificiali che si sviluppi affianco alla cultura, spiega Joanna Bryson, scienziato informatico a Princeton e alla Bath University e tra gli autori dello studio.

La debolezza delle Tre Leggi di Asimov

Agli inizi degli anni Quaranta, lo scrittore di fantascienza Isaac Asimov, immaginò le “Tre leggi della Robotica” pensate per regolare il comportamento delle macchine.

  1. Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
  2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
  3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.

Tuttavia Asimov nei suoi racconti dimostrò le debolezze di queste leggi, anticipando un’ulteriore questione etica: cosa accade se un robot fa qualcosa di sbagliato perché non riesce a comprendere il contesto in cui è inserito? La risposta a questa domanda è facilmente desumibile dall’idea stessa di Asimov, ovvero che se una macchina è progettata bene non presenta alcun rischio.

In conclusione, sviluppare Intelligenze Artificiali in maniera etica e sostenibile è la vera sfida ed è fondamentale ricordarsi che deve essere sempre l’intelligenza umana a governare le macchine, perché è intorno all’innovazione che si giocherà la lotta per l’egemonia futura.

WordPress Lightbox