La “roboetica”, l’etica dei robot, i confini entro cui utilizzarli per non perdere il controllo, erano già impliciti nei principi della robotica di Asimoov, il grande romanziere di fantascienza che ne scriveva negli anni Cinquanta: i robot potevano esistere solo al servizio delle persone. Ma sarà sempre così?

Rischiamo una nuova bomba atomica, questa volta “ world wide web”?

A leggere i titoli degli incontri più recenti su etica e intelligenza artificiale il sospetto viene. «Quale umano per il terzo millennio? La condizione tecno-umana: orizzonti e limiti» recitava il dibattito nell’Eremo di Montegiove alla presenza di frati esperti di nuove tecnologie.

“Lavoro, economia, digitale. Con o contro l’economia dei robot?” titolava, invece, il sesto seminario per l’accoglienza della Fondazione LavoroperlaPersona a Offida. La minaccia arriva forte e chiara dalle macchine e ci rimanda a tanta fantascienza che, di fantascienza, sembra non avere più molto. Potrebbe sembrare la solita resistenza alla tecnologica e al progresso, se non fosse che l’urgenza di una riflessione su come useremo Big Data e Intelligenza Artificiale arriva dagli stessi costruttori di software.

Le dichiarazioni di intenti dei player tecnologici

Non siamo ancora arrivati al decalogo, ma Sap rende pubblico in sette punti il suo manifesto etico, il suo perimetro d’azione e la disponibilità ad affrontare con una comunità più estesa le sfide emergenti sul lavoro e sulla redistribuzione della ricchezza.

Così, ha costituito un panel di esperti aperto ai contributi esterni e un comitato etico interno per far rispettare i suoi principi guida, assicurando che le funzionalità di Sap Leonardo Machine Learning saranno utilizzate per garantire integrità e affidabilità in tutte le soluzioni.

«Sap considera l’uso etico dei dati un valore fondamentale», afferma Luka Mucic, Chieffinancial officer e membro dell’Executive Board di Sap. «Vogliamo creare un software che abiliti l’impresa intelligente e migliori davvero la vita delle persone. Questi principi serviranno come base per rendere l’Intelligenza Artificiale una tecnologia per far crescere il talento umano». Le linee guida di Sap riflettono il suo impegno nel rispettare i più elevati standard etici, nel superare i pregiudizi nel business, nel mantenere trasparenza e integrità e nel sostenere qualità e sicurezza.

Anche Microsoft all’annuncio di Ambizione Italia, un progetto con un impegno da 100 milioni di euro per aumentare le competenze digitali del Paese, ha indicato l’etica digitale come una delle linee d’azione per “promuovere un’innovazione responsabile”.

«Da sempre Microsoft finalizza lo sviluppo dei propri software al benessere delle persone, all’espressione del loro potenziale, all’accessibilità globale. Così, oggi, nel pieno della rivoluzione digitale ribadisce la propria posizione e si impegna nell’utilizzo “buono”, etico delle tecnologie, che tengano conto delle persone. In particolare, poi, anche grazie all’impegno nel sostenere la trasformazione digitale del Paese, vorremmo contribuire al lavoro che sta portando avanti il Ministero per lo Sviluppo Economico nel diffondere la consapevolezza delle opportunità e delle aree di attenzione per le persone e le aziende riguardo all’Intelligenza Artificiale», commenta Carlo Mauceli, National Digital Officer di Microsoft Italia.

Il Gruppo ha appena lanciato il progetto “AI for Humanitarian Action”, un programma quinquennale da 40 milioni di dollari per valorizzare le potenzialità dell’AI (Artificial Intelligence) nelle emergenze, in difesa di bambini, dei rifugiati e degli sfollati. Il programma fa parte di “AI for Good”, campagna lanciata lo scorso anno. Microsoft è anche attenta a privacy e protezione dei dati:

«Stringiamo contratti chiari con i nostri clienti, a noi non interessano i loro dati, vendiamo servizi e rispettiamo la riservatezza delle informazioni. Gli stessi nostri software sono progettati per non violarli», assicura Mauceli.

Tra affidabilità del dato e coscienza

Etica e responsabilità, quindi, due concetti diversi che stanno convergendo verso uno stesso punto: la consapevolezza delle azioni che compiamo in risposta agli eventi e alle situazioni, indirizzandole verso il bene comune. Siamo in una situazione senza precedenti, in un mondo iperconnesso dove i confini tra vita privata e vita pubblica sfumano e dove macchine sempre più intelligenti, capaci cioè di apprendere dalla storicità dei dati e dalle ricorrenze e di restituire informazioni capaci di prendere decisioni più precise e “affidabili” di quanto possa fare la stessa mente umana, con più informazioni a disposizione processabili a una velocità impensabile.

Ma quando ci si sofferma sulla “affidabilità” di queste decisioni qualche dubbio sorge: affidabilità solo rispetto a quello che dicono i dati, o anche rispetto a un senso di coscienza, di umanità, diciamo rispetto a un sistema valoriale quantomeno condiviso in una determinata cultura? Sarà possibile nel tempo sviluppare algoritmi che includano la dimensione del rispetto e la dignità della vita, tradotti, se traducibili, in parametri misurabili? O alla fine dovrà sempre essere in capo all’uomo la decisione finale, con un ridimensionamento del potere autonomo delle macchine? Questa è forse la responsabilità più grande richiesta all’uomo perché non sfuggano di mano le decisioni negli indirizzi da dare al business, alla società, alla politica. A quale prezzo affidarsi alle in- finite potenzialità dell’intelligenza artificiale? Che limite dare, come darlo?

Fino a dove spingere l’autonomia della macchina

«Di risposte assolute oggi non ne abbiamo, ma servono le domande giuste, sapersi porre degli interrogativi che facciano maturare anche degli impegni a più livelli, in uno sforzo corale a contenere le possibili e incontrollabili implicazioni di macchine sempre più intelligenti», risponde Massimo Folador, docente di Business Ethics all’Università Liuc di Castellanza, autore di numerosi libri sull’etica applicata al business e titolare della rubrica su Avvenire “Che bella impresa”.

«Intendiamoci, in tanti casi già ora le macchine possono offrire scenari e livelli di decisione molto più precisi e completi di quello che può fare l’uomo, nella diagnostica clinica per esempio. Ma poi sorge la domanda fin dove far spingere l’autonomia di decisione della macchina, per ragioni squisitamente di coscienza. Un esempio è l’automobile a guida autonoma, sui cui costruttori stanno già frenando dopo i primi incidenti. Di fronte a un ostacolo “umano”, cosa sceglie l’auto guidata da un software? Gli va contro o sterza e si schianta contro un muro? O di fronte a gruppi diversi, per numero, età, etnia, razza, classe sociale, cosa fa? Distingue o va davvero oltre i pregiudizi, i cosiddetti “bias”? Tutto questo, infatti, dipende anche dalle informazioni che noi decidiamo di inserire nel software».

La riflessione crea nuovi scenari

La “roboetica”, l’etica dei robot, i confini entro cui utilizzarli per non perdere il controllo, erano già impliciti nei principi della robotica di Asimoov, il grande romanziere di fantascienza che ne scriveva negli anni Cinquanta: i robot potevano esistere solo al servizio delle persone. Ma sarà sempre così? Ci mette in guardia un esperto di interfacce uomo-macchina, Sebastiano Bagnara, docente di Human Factors alla Facoltà di Design dell’Università di San Marino e presidente di Bsd – Strategy by Design che, dal 1990, si occupa di interazione uomo-macchina.

«La trasparenza raramente esiste. Nella realtà, la trasparenza è un mito: gli algoritmi sono molto spesso costruiti apposta per non essere trasparenti. Secondo Shoshana Zuboff il nuovo capitalismo, “di sorveglianza” come lo definisce lei, sfrutta le nostre informazioni personali e i nostri comportamenti per creare una nuova ricchezza che non è controllata da chi ha fornito i dati. Anzi! Bisogna avere consapevolezza di quanto sta accadendo e delle nuove forme di manipolazione.

Quello che possiamo fare però non è tanto resistere al sistema e uscire dai social media, ma recuperare la dimensione riflessiva del pensiero, non accettare acriticamente ciò che accade e coltivare il dibattito su come vogliamo usare questi software e per quali scopi. Perché esercitare il pensiero aiuta a proiettare anche nuove realtà, possibili».

Liberare nuove energie per i lavori di cura

Come è di carattere etico la risposta che l’umanità, i Paesi e le organizzazioni daranno a queste domande, così lo è il dilemma sul futuro del lavoro. Si parla tanto di nuove competenze digitali, si stima che almeno il 60% dei lavori del futuro ancora non esista, ma di fatto i posti di lavoro saranno in gran parte erosi dall’attività delle macchine.

E allora come gestire questa concentrazione di ricchezza, nelle mani di pochi detentori di piattaforme ad alta produttività, perché non ci saranno neanche più tanti costi fissi?

Gabriele Gabrielli, professore di Organizzazione e Gestione delle Risorse Umane all’Università Luiss di Roma e presidente della Fondazione Lavoroperlapersona, che ha appena organizzato tre giorni di conversazioni e riflessioni su come affrontare il lavoro di domani, coltiva una sua visione personale per riequilibrare le forze in gioco: «Mi piace pensare a un reddito universale finanziato, almeno in parte, dalla redistribuzione della enorme ricchezza prodotta da dati, software e macchine intelligenti. Una garanzia per tutti da un lato, e dall’altro, immaginare di occupare il tempo liberato in tanti nuovi lavori per dare un contributo alla società, con quella dimensione di cura che oggi trascuriamo perché non abbiamo tempo. Così accanto a ingegneri, sviluppatori software e hardware, educatori e psicologi, svilupperemo gli spazi di cura, di gioco e di crescita per i bambini, gli adulti stessi e gli anziani. Il lavoro è importante, perché l’uomo si esprime e si realizza in esso». In pratica, un lavoro che gratifichi senza aver bisogno di lavorare.

(GAIA FIERTLER da INDUSTRIE 4.0 – n.4, novembre 2018)


© Copyright - OFFIDA.info
Copy Protected by Chetan's WP-Copyprotect.