Persone elettroniche, almeno così le ha definite l’Unione Europea che ha recentemente licenziato una serie di norme volte a disciplinare automi e intelligenza artificiale, macchine senzienti elettroniche, in grado di pensare e agire. Insomma, per la prima volta si è voluto produrre una cornice legislativa che regoli la robotica, i suoi utilizzi e le sue finalità. E se la preoccupazione principale è quella della sicurezza, non mancano più ampie riflessioni etiche poiché ai legislatori europei non sfugge come “in pochi decenni” i robot potranno “imparare da soli, comunicare fra loro e scambiarsi informazioni senza che gli esseri umani se ne accorgano” esercitando “un forte impatto sulla dignità umana”. Quella che bussa alla porta del nostro futuro prossimo è una macchina sofisticata, dotata di emozioni, in grado di imparare dai suoi errori. Una macchina sempre più simile a noi.
Il linguaggio delle oche
“Aspetta aspetta, costui entrò finalmente. Gli faceva compagnia un ometto pallido e stecchito, che moveva ad angoli retti le gambe e le braccia e in vece di voce faceva sentire un certo suono gutturale che assomigliava al linguaggio delle oche”. Così, nella Storia filosofica dei secoli futuri (1860), un insospettabile Ippolito Nievo, frugando nell’avvenire, trovò questi “omuncoli”, come ebbe a chiamarli, o più propriamente “automi”, i quali avrebbero permesso all’umanità di svagarsi in ozio e agiatezza eterni, finalmente liberi dall’angheria del lavoro. La misconosciuta opera di Nievo si inserisce in un lungo filone letterario – già i greci antichi immaginavano che il dio dei metalli, Vulcano, si ingegnasse a inventare aiutanti meccanici – e precede di larga misura quella che, giusto un secolo fa, diede i natali al termine che oggi conosciamo, robot appunto, usato per la prima volta dal drammaturgo boemo Karel Čapek nel 1920.
In realtà Karel Čapek non fu il vero inventore della parola, la quale gli venne suggerita dal fratello Josef, pittore cubista, il quale aveva già affrontato il tema in Opilec (L’ubriacone), racconto del 1917. Il termine, come si sa, indica il lavoro pesante e veniva utilizzato nella lingua cèca significando quel “servizio della gleba” che gli slavi dell’impero asburgico erano tenuti per legge ad eseguire. Presente in quasi tutte le lingue slave, la parola deriva dalla radice protoslava rab* nel significato di “fare”, e negli ultimi cent’anni questi robot hanno davvero fatto un po’ di tutto, animando gli incubi metropolitani di Fritz Lang, deformando le angosce sovietiche di Asimov, facendosi infine troppo umani tra le amfetamine di Philip Dick. Alla fine questi fantascientifici robot hanno fatto l’unica cosa che gli mancava: esistere. Un’esistenza resa possibile da sempre più complessi linguaggi di programmazione che ne determinano il comportamento. Un moderno linguaggio delle oche.
Persone elettroniche?
La sempre maggiore complessità dei moderni robot e i costanti progressi dell’ingegneria robotica hanno spinto il Parlamento Europeo a produrre, nel febbraio 2017, una risoluzione attraverso cui regolare il settore e indicare norme deontologiche, invocando la creazione di un’apposita agenzia europea. In gioco infatti ci sono la nostra sicurezza e la nostra privacy: chi ci assicura che un giorno questi automi sempre più sofisticati, sempre più capaci di prendere decisioni autonome, sempre più intelligenti, non decideranno di farci del male? Chi ci assicura che non vengano utilizzati contro di noi? La fantascienza è già qui.
Lo dimostra il caso di iCub, il primo robot in grado di apprendere autonomamente adattandosi al contesto e imparando dagli errori: un miracolo dell’ingegneria ideato da Giorgio Metta, ricercatore al MIT di Boston con la specializzazione in robotica umanoide, e costruito all’IIT di Genova. A differenza dei robot convenzionali, iCub non è programmato per eseguire una serie specifica di azioni o attività ma acquisisce competenze naturalmente utilizzando il suo corpo per esplorare il mondo e raccogliere dati sulla sua relazione con gli oggetti e con le persone, tanto quanto un bambino di due anni impara interagendo con il proprio ambiente. Attraverso la sua capacità di dirigere lo sguardo, afferrare e manipolare oggetti, e “leggere” i gesti, iCub può imparare le parole e le competenze e sviluppare strategie cooperative. Con il tempo e la pratica, iCub può essere in grado di sviluppare abilità cognitive più sofisticate, come ad esempio la capacità di immaginare gli stati mentali degli altri.
Ancora più eclatante è stato il caso di Sophia, robot umanoide creato a Hong Kong dalla Hanson Robotic in collaborazione con Alphabet, azienda controllata da Google. Sophia ha fatto il giro del mondo apparendo in molti talk show televisivi e stupendo il pubblico con la sua capacità di ragionamento. Anche Sophia, come iCub, è una macchina capace di apprendere dall’ambiente circostante adattandosi e modificandosi nel tempo. Non sfugge che il suo nome, dal greco “sapienza“, sottolinei le capacità cognitive dell’androide spingendosi, simbolicamente, un po’ oltre: la sapienza, un tempo solo divina, è oggi artificiale? O forse è l’artificiale una nuova divinità? Al netto di queste suggestioni, è un fatto che Sophia non è una macchina come le altre: dopo aver ottenuto la cittadinanza saudita – primo robot al mondo ad aver ottenuto un simile diritto, e quindi anche i diritti connessi di voto o matrimonio – Sophia è stata nominata ambasciatore dell’ONU per lo sviluppo elettronico nel sud-est asiatico. Una persona elettronica, insomma. E tali persone che diritti e doveri hanno? E come possiamo evitare che facciano del male all’uomo?
Asimov al parlamento
Per rispondere a queste domande, il Parlamento Europeo ha elaborato un codice etico che si basa sulle leggi di Asimov, le famose leggi sulla robotica, ricordando che “le leggi di Asimov devono essere considerate come rivolte ai progettisti, ai fabbricanti e agli utilizzatori di robot, compresi i robot con capacità di autonomia e di autoapprendimento integrate, dal momento che tali leggi non possono essere convertite in codice macchina”. Il testo specifica poi i quattro principi – tutti asimoviani – che ingegneri e progettisti dovranno rispettare:
- beneficenza: i robot devono agire nell’interesse degli esseri umani;
- non-malvagità: “primum, non nocere”, i robot non devono fare del male a un essere umano;
- autonomia: ovvero i robot non devono condizionare l’agire umano:
- giustizia: tutti gli esseri umani devono poter godere dei benefici associati alla robotica (soprattutto nei casi di assistenza a domicilio e cure mediche).
Se ci rubano il lavoro?
Ma questi principi non bastano a garantire che i robot non soppiantino la forza lavoro umana, lasciandoci tutti in mezzo a una strada. “Dobbiamo fare in modo che i nostri cittadini e le nostre imprese sfruttino al meglio i benefici, ma al tempo stesso risolvere gli aspetti etici, legali e socio-economici” ha dichiarato Andrus Ansip, ex premier estone, attuale vicepresidente della Commissione UE che si occupa di dare forma al mercato unico digitale. Parole che non tranquillizzano se oggi il 74% dei cittadini europei è convinto che i robot “rubino il lavoro” (dati Eurobarometro). Che fare? Abbandonarsi a un luddismo sfrenato prendendo a colpi di chiave inglese i robot? E’ evidente che i vantaggi della robotica e dell’automazione sono notevoli, specialmente in campo biomedico. Il problema è che, rispetto al secolo scorso, l’impatto della tecnologia coinvolge aspetti etici e sociali del tutto nuovi e se è vero che le moderne tecnologie valorizzano chi ha competenze molto alte, è altrettanto vero che penalizzano chi le ha basse. Una disuguaglianza che si tradurrà in una sempre maggiore polarizzazione della ricchezza. Come fare per redistribuirla? Bill Gates ha proposto una tassa sui robot. L’Unione Europea ha chiesto che almeno il 90% della forza lavoro delle aziende sia umana. Basterà?
Dai diritti umani ai diritti robotici?
Una risoluzione è un atto non vincolante e, per quanto a Strasburgo si cerchi di guardare con lungimiranza alla questione, cercando di salvaguardare interessi economici, crescita industriale, etica e diritti dei cittadini, niente ci mette al riparo dai rischi che lo sviluppo della robotica porta con sé. Rischi anzitutto di ordine sociale specie se i vantaggi, in termini economici, saranno solo per pochi. Al momento i parlamenti europei sono perlopiù interessati a regolamentare aspetti legati alla proprietà dei robot, alle responsabilità in caso di malfunzionamento, alle applicazioni nei vari settori, con norme che stanno portando a una sorta di diritto robotico. L’importante è che i diritti robotici non soppiantino quelli umani, e ciò sarà possibile solo in una società in cui diritti del lavoro, redistribuzione della ricchezza e rispetto della dignità umana siano garantiti. Ci si chiede se presto non dovremo garantire uguale dignità anche agli androidi, se macchine come Sophia – oggi impegnata a difendere i diritti delle donne – non pretenderanno eguaglianza sociale e giuridica. Ma questa è materia per racconti di fantascienza, anche se forse ancora per poco.