Intelligenza artificiale: profili di responsabilità giuridica, tra diritto e fantascienza

Intelligenza artificiale: riflessioni su profili di responsabilità giuridica, a confine tra diritto e fantascienza. La Commissione europea studia lo status giuridico dei robot.

Intelligenza artificiale: profili di responsabilità giuridica, tra diritto e fantascienza

Allo studio della Commissione europea una bozza in materia di norme civilistiche da adottare in relazione a robot ed AI, dallo status giuridico dei robot alla Carta sulla robotica: la nuova rivoluzione industriale

La tecnologia, ormai, rappresenta una parte integrante della nostra quotidianità, in modo talmente pervasivo che non è lontano il giorno in cui le operazioni mediche saranno completamente automatizzate (robotica biomedica) o i mezzi pubblici verranno teleguidati o ancora i lavori usuranti saranno eseguiti da macchine (robotica industriale). Sinora, ipotesi così estreme erano state raggiunte solo in ambito militare, si pensi agli aeromobili a pilotaggio remoto (APR)1. I droni, infatti, inizialmente furono studiati a scopo bellico, per essere dotati di armamenti o di sensori di ripresa (robotica militare). È stato proprio tramite un drone che l’esercito U.S.A. ha potuto controllare – a distanza – il terrorista Osama Bin Laden nel torno di tempo precedente alla sua uccisione.
Più recentemente, si è parlato di auto automatiche come Tesla o la più nota Google Car. Si tratta di auto a pilota automatico in grado di far sterzare la macchina tenendola in carreggiata, effettuare sorpassi, frenare o accelerare a seconda del traffico. In buona sostanza, in modo estremamente atecnico, si può dire che la Google Car sia una macchina completamente automatica, condotta da un’intelligenza artificiale, una vera e propria auto senza pilota, mentre Tesla rappresenta una “semi-automatica”.
Ebbene, nel maggio del 2016, in Florida, proprio con una Tesla, si è verificato un incidente mortale, mentre sul veicolo era stata inserita la modalità “auto-pilot”. La macchina si è scontrata frontalmente con un camion ed il pilota-passeggero non ha avuto scampo. Non è il primo incidente che si verifica con questi innovativi mezzi. Sempre in America, ad esempio, una Google Car si è scontrata contro un pullman; mentre in Cina, come riporta Sky TG24, «un’ammaccatura ha costretto l'azienda a rimuovere la dicitura “pilota automatico” dal suo sito web cinese».
Per quanto perfetti, i mezzi auto-pilotati possono produrre incidenti di diversa gravità e per questo si pongono questioni di profilo giuridico. A titolo esemplificativo, ci si domanda a chi ascrivere la responsabilità civile in caso di danni; oppure, nelle fattispecie più gravi di lesioni o morte, come valutare la responsabilità penale.

Su questo e su innumerevoli altri quesiti si sta interrogando “RoboLaw (regulating emerging robotic technologies in Europe: Robotics facing law and ethics), trattasi di un progetto2 finanziato dalla Commissione europea, al fine di valutare le conseguenze etiche e giuridiche delle nuove tecnologie robotiche e considerare, altresì, l’adeguatezza del sistema normativo esistente, oltre alle implicazioni sociali che ne derivano. Il progetto deve anche occuparsi di definire un quadro normativo entro cui sia considerato lecito sviluppare robot ed intelligenze artificiali.
In questo senso, si segnala che molteplici sono le aziende interessate allo sviluppo dell’intelligenza artificiale; tra di essere spicca Google. Ebbene, la casa di Mountain View ha realizzato un “pentalogo”, ossia cinque punti da seguire per rendere sicuro l’impiego della nuova tecnologia e la conseguente evoluzione del settore3. In buona sostanza, si tratta di indicazioni di massima che tutti gli sviluppatori dovrebbero osservare, una sorta di standardizzazione che detti criteri comuni a cui tutti gli Stati dovrebbero attenersi; questo scenario non può non evocare agli appassionati di fantascienza le tre leggi della robotica di asimoviana memoria4.

Un primo intervento strettamente normativo, in materia di auto a pilotaggio automatico, è rappresentato dalla proposta di modifica alla Convenzione internazionale sulla circolazione stradale siglata a Vienna l’otto novembre del 19685. Tale documento era stato sottoscritto dagli stati aderenti nell’intento di facilitare la circolazione stradale internazionale e di accrescere la sicurezza nelle strade mediante l’adozione di regole uniformi di circolazione. Ebbene, l’art. 8 della citato trattato, sotto la rubrica “conducenti”, dispone che ciascun veicolo debba essere dotato di un autista (comma 1) e che il guidatore non debba mai perdere il controllo del veicolo (comma 5)6. Una disposizione siffatta mal si adatta a mezzi come la Google Car, che si gestisce da sé. È stato avanzato un emendamento in virtù del quale sia ammissibile la guida automatica purché il pilota, in ogni momento, possa riassumere il controllo del mezzo.

Oltre alle auto-automatiche, questioni giuridiche involgono anche l’uso dell’intelligenza artificiale. Un’applicazione di essa comunemente in uso nella vita quotidiana - e spesso sottovalutata - è rappresentata dagli assistenti virtuali come Siri (di Apple), Cortana (di Microsoft) e Google Now. Si tratta di programmi che, mercé una serie di algoritmi, sono in grado di realizzare un “apprendimento automatico”, migliorabile nel tempo grazie all’interazione con l’utente finale. Invero, secondo i puristi dell’AI, i sistemi informatici succitati non integrano una vera e propria forma di intelligenza autonoma, giacché si limitano ad essere enormi database, incapaci di auto-apprendimento. Nondimeno non v’è chi non veda che tra l’uno e l’altro il passo sia breve.
Un altro ambito di sviluppo delle intelligenze artificiali, come si accennava nell’incipit, è quello dei robot, ad esempio i robot domestici, capaci di svolgere mansioni e lavori complessi. Uno dei primi androidi italiani è stato progettato a Genova: iCub7. Si tratta di un progetto di robotica umanoide teso, cioè, allo sviluppo di robot dall’aspetto umano. Tra gli androidi simili si segnalano, altresì, CoRa che sta per Condominium Robot Assistant (robot assistente di condominio) e DoRA vale a dire Domestic Robot Assistant (robot assistente domestico) realizzati dalla Co-Robotics della Scuola Superiore Sant’Anna di Pisa.8
Discettare su androidi, robot umanoidi ed intelligenze artificiali riporta alla mente temi trattati solo dai romanzi di fantascienza, da Asimov a Dick, sino alle immaginifiche e distopiche ricostruzioni cinematografiche di Matrix. Un’intelligenza artificiale è molto diversa dalla “betrizzazione”9 immaginata da Stanislaw Lem nel suo “Ritorno dall’universo”, parlando di AI, infatti, si abbandona l’uomo e si fa riferimento alla creazione di una macchina dotata di capacità valutative, ma pur sempre una macchina. Dunque il rischio sotteso alla diffusione dell’intelligenza artificiale consiste nel fatto che l’autoapprendimento si sviluppi a tal punto da ritorcersi contro il proprio ideatore giungendo al dominio delle macchine preconizzato in molteplici romanzi e pellicole. Al fine di evitare una deriva tecnologica che conduca la civiltà umana verso la sua fine è necessario dotarsi di una disciplina, assai stringente, che detti regole adeguate su rischi che non sono solo immaginari ma quanto mai concreti. La contrapposizione uomo-macchina, a ben vedere, ha caratterizzato l’evoluzione tecnologica in tutta la sua storia, si pensi al luddismo, il movimento operaio ottocentesco sorto contro l’introduzione nelle industrie tessili dei telai meccanici.

Torniamo, ora, al piano giuridico.
Sotto il profilo della responsabilità civile, in relazione ai possibili danni provocati da un’auto a guida automatica o da un robot, occorre individuare il soggetto a cui ascriverla. Potrebbe parlarsi di responsabilità del produttore, come accade con i comuni elettrodomestici, o di responsabilità dell’utilizzatore. Attualmente, il produttore risponde per i danni cagionati dai difetti del suo prodotto10. L’utilizzatore non è tenuto a dimostrare la colpa del produttore, il quale può sottrarsi alla responsabilità solo dimostrando la mancanza di nesso eziologico.
Si ricorda che la ratio sottesa a questa forma di responsabilità discende dall’intrinseca pericolosità di talune attività, la cui potenzialità dannosa non può essere vinta da alcuna cautela; pertanto si pone la necessità di tutelare l’utente finale. Nondimeno la normativa attuale esclude la responsabilità nel caso del cosiddetto “rischio di sviluppo” (art. 118 lett. b) d. lgs. 6 settembre 2005 n. 206), vale a dire, l’ipotesi in cui lo stato delle conoscenze scientifiche esistenti al momento della produzione non permetteva di considerare l’oggetto difettoso. A ben vedere, una siffatta esclusione di responsabilità, in un campo sperimentale come la robotica o l’AI, finirebbe per spostare il rischio sui terzi e questo non è tollerabile.
Naturalmente, uno strumento per attenuare la succitata eventualità potrebbe consistere nel rendere obbligatoria la sottoscrizione di un’assicurazione al fine di tenere indenni i terzi dai potenziali danni.
La questione penalistica è più delicata. Infatti, mentre in ambito civile, è ammissibile una forma, seppur mitigata, di responsabilità oggettiva11, così non è nel settore penale. La responsabilità penale è personale, pertanto, nel caso della morte cagionata dall’auto Tesla (vedi supra) non potrebbe incriminarsi il produttore.
È di tutta evidenza che il quadro normativo esistente vada adattato alle nuove tecnologie considerando diverse forme e profili di responsabilità ed individuando adeguate modalità di tutela e di ristoro per gli eventuali danneggiati.
In tale direzione si è mossa recentemente la Commissione europea, alla quale è stata presentata una bozza12 in materia di norme civilistiche da adottare in relazione a robotica ed intelligenza artificiale. Come si accennava poco sopra, l’intento perseguito consiste nel raggiungimento di una uniformità normativa e tecnologica tra gli Stati. Si mira a creare un quadro etico comune onde evitare derive pericolose nello sviluppo delle intelligenze artificiali. Nel documento citato, ci si è spinti sino a domandare uno status giuridico13 ad hoc per i robot dotati di capacità cognitive; quindi, in un futuro non troppo lontano, tra i soggetti di diritto potrebbe annoverarsi un tertium genus oltre a persone fisiche e persone giuridiche: quello degli umanoidi.
In particolare, il documento allo studio della Commissione, dopo una digressione che passa da Karel Capek (ideatore del lessema “robot”) a Mary Shelley (autrice di “Frankestein”) alle tre leggi di Asimov, giunge a preconizzare una nuova rivoluzione industriale. Stante l’alta diffusione dei robot14, infatti, si auspica la creazione di una sorta di anagrafe loro dedicata, previa classificazione degli stessi. Si propone, altresì, la costituzione di un’agenzia europea per la robotica, istituita al fine di fornire «competenze tecniche, etiche e normative necessarie per sostenere gli attori pubblici pertinenti, a livello sia di UE che di Stati membri, nei loro sforzi volti a garantire una risposta tempestiva e ben informata alle nuove opportunità e sfide derivanti dallo sviluppo tecnologico della robotica». La proposta si occupa di auto a pilota automatico, di droni, di robot medici e domestici, senza tralasciare alcun aspetto. In tema di responsabilità civile, si consiglia l’applicazione del regime di responsabilità oggettiva, richiedendo una semplice prova del danno avvenuto e l'individuazione di un nesso di causalità tra il comportamento lesivo del robot e il danno subito dalla parte lesa15.
Sotto il profilo etico, invece, si richiede che l’ordinamento sia ispirato ai «principi di beneficenza, non maleficenza e autonomia, nonché sui principi sanciti nella Carta dei diritti fondamentali dell'UE – quali la dignità umana e i diritti umani, l’uguaglianza, la giustizia e l'equità, la non discriminazione e la non stigmatizzazione, l'autonomia e la responsabilità individuale, il consenso informato, il rispetto della vita privata e la responsabilità sociale – e sui metodi e codici etici esistenti». Viene, altresì, proposta l’adozione di una Carta sulla robotica, in buona sostanza un «codice etico-deontologico che getterà le basi per l'identificazione, il controllo e il rispetto di principi etici fondamentali dalla fase di progettazione e di sviluppo».

 

Avv. Marcella Ferrari
Avvocato del Foro di Savona

-----------------------------

2 A tale progetto partecipa anche la Scuola Superiore Sant’Anna di Pisa, recentemente premiata con il “World Technology Award”, un riconoscimento illustre in ambito scientifico-tecnologico.

3 Fonte: HDBlog.it, sezione Android, “Google fissa 5 regole per rendere sicuro lo sviluppo dell’intelligenza artificiale”, 23 giugno 2016, articolo di STEFANO BONTEMPI (http://android.hdblog.it/2016/06/23/Google-5-regole-sicuro-sviluppo-AI/)

4 Le tre leggi della robotica sono contenute nei romanzi di Isac Asimov e, secondo l’autore, ad esse devono obbedire i robot positronici. Si trovano, ad esempio, nella raccolta di racconti “Io Robot”, 1950.

«1.Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.

2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.

3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge».

5 A tale documento è seguito l’accordo europeo completante la convenzione.

6 Versione originaria dell’art. 8 «Conducenti»:

1. Ogni veicolo in movimento o ogni complesso di veicoli in movimento deve avere un conducente.

2. Si raccomanda che le legislazioni nazionali prevedano che gli animali da carico, gli animali da traino o da sella e, salvo eventualmente nelle zone particolarmente segnalate all’entrata, il bestiame isolato o in greggi debbano avere un conducente.

3. Ogni conducente deve possedere le qualità fisiche e psichiche necessarie ad essere in stato fisico e mentale atto a condurre.

4. Ogni conducente di veicolo a motore deve avere le cognizioni e l’abilità necessarie per la guida del veicolo; questa disposizione non è tuttavia di ostacolo all’apprendimento della guida secondo la legislazione nazionale.

5. Ogni conducente deve avere costantemente il controllo del proprio veicolo o deve poter guidare i propri animali

7 Per un approfondimento si rinvia alla pagina di Wikipedia dedicata all’androide ligure: https://it.wikipedia.org/wiki/ICub

8 Fonte: Corriere della sera, sezione "La lettura", Robot intelligenti (ma non troppo), l’Europa vota un codice per le regole, 7 agosto 2016, di ALESSIA RASTELLI, http://www.corriere.it/la-lettura/16_agosto_04/robot-pisa-sant-anna-leggi-8a870db2-5a50-11e6-bfed-33aa6b5e1635.shtml

9 La betrizzazione immaginata dallo scrittore è un procedimento di carattere organico accompagnato da un indottrinamento mentale che impedisce agli uomini di coltivare cattivi sentimenti come, del resto, qualsiasi altra forma di passione. Gli uomini, i nuovi uomini, i betrizzati, sono incapaci di slanci emotivi, di passione, di ira, di tutto ciò che rende l'uomo tale. Insomma, quasi delle macchine. (StanisÅ‚aw Lem, Ritorno dall'Universo, 1961)

10 Codice del Consumo, d. lgs. 6 settembre 2005 n. 206, artt. 114 ss.

11 Ipotesi di responsabilità oggettiva, in campo civile, sono rappresentate dall’art. 2049 c.c. (responsabilità dei padroni e dei committenti); art. 2053 c.c. (responsabilità per rovina di edificio dovuta a vizi di costruzione); art. 2054 c.c. (responsabilità per vizi di costruzione di veicoli senza guida di rotaie); responsabilità per danni nucleari (legge 31 dicembre 1962 n. 1860 art. 15). Per un elenco esaustivo vedasi A. TORRENTE – P. SCHLESINGER, Manuale di diritto privato, Milano, Giuffrè, 2014, 871 ss.

13 Punto 8, pagina 5 della bozza

14 Tra il 2010 e il 2014 la crescita media delle vendite di robot era stabile al 17% annuo e nel 2014 è aumentata al 29%, il più considerevole aumento annuo mai registrato.

15 Punto 27, pagina 11 della bozza

 

Commenta per primo

Vuoi Lasciare Un Commento?

Possono inserire commenti solo gli Utenti Registrati