Tecnologia, lavoro, società nell’epoca della trasformazione digitale secondo Enrico Sassoon
Viviamo oggi, più intensamente del solito, tempi di cambiamento. Basta guardare agli anni passati, anche recenti, per vedere come la nostra vita è cambiata. È un cambiamento favorito e sollecitato da quella che è una vera e propria rivoluzione industriale, la quarta, se la poniamo a seguito delle precedenti, caratterizzate da:
- La macchina a vapore (tra ‘700 e ‘800)
- Elettricità – Chimica – Petrolio (1870 - 1970)
- Elettronica - ICT (Tecnologia dell’informazione e della Comunicazione) (1970 - 1990)
Quella che stiamo vivendo è l’epoca della trasformazione digitale. E come tutte le precedenti produce e produrrà profondi cambiamenti nella società in tutti i suoi aspetti, il lavoro, i prodotti, la vita sociale. Che cosa la rende possibile? Intanto il progresso tecnologico che rende i supporti (hardware) per l’elaborazione e la memorizzazione dei dati sempre più piccoli e sempre più potenti (e meno costosi), poi la facilità di connessione alle reti di comunicazione mondiali, e, attraverso di queste, l’accesso ad una grande quantità di dati e applicazioni che riguardano tutto lo scibile umano. Nel 2018 si calcola che su una popolazione mondiale di 7,6 miliardi di persone ci siano 4 miliardi di utenti Internet (53%) e 3,2 miliardi di utenti attivi sui social media (42%) mentre gli utenti Mobile sono 5,1 miliardi (68%). Si può dire perciò che si sta passando dall’individuo “digitale” all’individuo “connesso e mobile”.
Come ogni progresso questo comporta dei rischi: esiste sempre la possibilità che individui od organizzazioni possano accedere a dati sensibili di interesse nazionale o di privacy personale con intenti criminali. Pertanto grande è la responsabilità dei Big Data, le aziende come Facebook e Google che raccolgono e gestiscono i dati (di qualsiasi tipo) raccolti in rete.
Se ne è parlato nel corso di un incontro organizzato da Novaluna lo scorso 14 marzo a Monza, nel quale Enrico Sassoon, economista, imprenditore, scrittore e giornalista, ha fornito un quadro della situazione attuale e delle tendenze (Macrotrends) per l’immediato futuro.
Introducendo subito la necessità di un cambio di paradigma: non più “imparare dal passato” ma “prepararsi al presente apprendendo dal futuro” e citando a questo proposito previsioni sbagliatissime, basate sul primo paradigma, di autorevoli e competenti personaggi dell’industria e del mondo scientifico del ‘900. Primo elemento da considerare è che la trasformazione digitale è caratterizzata da crescita esponenziale (cioè i prossimi due anni di sviluppo potrebbero valere come i precedenti 50).
Elementi e concetti (le parole chiave) che caratterizzano la trasformazione digitale:
- Le tecnologie digitali, sempre più performanti e miniaturizzate, sono la base di tutto.
- L’Intelligenza Artificiale, una nuova divisione di compiti tra uomo e macchine.
- La robotica, disciplina dell'ingegneria che studia e sviluppa metodi che permettono a un robot di eseguire dei compiti specifici riproducendo in modo automatico il lavoro umano.
- La singolarità tecnologica, un punto o momento nella sviluppo di una civiltà in cui il progresso tecnologico accelera oltre la capacità di comprendere e prevedere degli esseri umani.
- Il Genoma (studio de), l'insieme del patrimonio genetico che caratterizza ogni organismo vivente. Le informazioni genetiche risiedono nella sequenza del DNA
- E poi energia solare, accumulatori di energia, nanotecnologie, nuovi materiali, conoscenza del cosmo etc
Tra tutti è stata l’intelligenza artificiale (IA), argomento tanto affascinante quanto inquietante, ad occupare il maggior spazio dell’incontro.
Nel secolo scorso i calcolatori erano utilizzati per svolgere delle funzioni di logica e di calcolo secondo precise istruzioni ricevute da un esperto attraverso un’interfaccia uomo – macchina come un linguaggio di programmazione. Il calcolatore era cioè un mero esecutore. Con l’intelligenza artificiale si vuole dotare una macchina delle capacità di apprendimento e di decisione. Anche qui servirà un computer con i suoi microcircuiti e i dispositivi per l’interscambio di dati e, per il dialogo uomo macchina un programma (software) un po’ più complicato di quello che serviva per un elaboratore solo esecutore.
Ci sono già molte realizzazioni di IA, ma bastano due esempi per capirne la potenziale portata: le auto senza pilota e i motori di ricerca. Il primo progetto è ormai in fase sperimentale e quindi vedremo in tempi più o meno lunghi questi veicoli circolare nelle nostre strade. Per il secondo basta vedere come Google risponda in pochi secondi alle richieste di informazioni con poche parole chiave avendo consultato milioni di documenti su server di tutto il mondo.
Un po’ di storia.
Tra gli anni ’50 e ’60 del secolo scorso un piccolo gruppo di esperti americani di informatica, animati dallo spirito di Ulisse, si mise insieme per mettere le basi di un nuovo sistema di elaborazione, un sistema che non si limitasse ad eseguire le istruzioni fornite dall’esterno, ma fosse in grado di prendere decisioni autonome e di apprendere dall’esperienza, insomma due fondamentali proprietà del cervello umano. Ispiratore era stato il matematico inglese Turing, creatore del famoso Enigma.
Il processo fu lungo e difficile. Solo negli anni ’80 ci furono le prime semplici realizzazioni.
L’argomento, benché confinato in ambito scientifico-industriale, non mancò di sensibilizzare altre aree di cultura. E’ del 1968 (1968!) il film di Kubrik 2001 Odissea nello spazio che vede tra i protagonisti il computer Hal. Hal, nel corso della missione si ammutina e tenta di eliminare tutti i componenti dell’equipaggio e viene reso inoffensivo attraverso l’asportazione dei blocchi della sua memoria. A riprova del suo interesse per l’argomento e con la visione del futuro che solo un artista sa immaginare, nel 2001 Kubrik inizierà a girare Intelligenza Artificiale con storie di robot programmati per relazioni “umane”, ciascuno con un ruolo e una funzione precisa. Con la morte di Kubrik durante le riprese la regia passerà a Spielberg che lascerà anche la sua personale impronta sul film.
Tornando ai nostri tempi, si va delineando una suddivisione delle attività tra uomo e macchina che prevede attività solo umane (management, empatia, creatività, giudizio), attività solo macchina (transazioni, iterazioni, predittività (in medicina ad es.), adattività) e attività ibride uomo-macchina. In termini di prodotti e tecnologie si parla di realtà virtuale (simulazione realistica di una realtà che non esise) e realtà aumentata, di chatbots (assistente virtuale), di veicoli autonomi e droni, di imaging – computer vision (per es. nella diagnostica), di machine learning (o apprendimento automatico da parte di una macchina), di traduzione (di lingue) e di robotica. Tutti questi prodotti e tecnologie trovano applicazione in tutti i settori d’industria e la loro introduzione può provocare impatti sull’occupazione diversi a seconda del settore. Secondo analisi di previsione i settori più colpiti saranno ospitalità e ristorazione, manufacturing e trasporti, mentre meno impattate saranno le funzioni di management, delle professioni, dell’informazione e della sanità e assistenza.
Come si può pensare gli argomenti presentati da Sassoon hanno suscitato un ampio dibattito. Non è mancato un accenno al software indiziato come responsabile del recente incidente del Boeing in Etiopia, ma si è soprattutto parlato di etica nella trasformazione digitale, del rischio di “scivolamento” nella realtà virtuale, e del bilancio del lavoro (tra quelli che nascono e quelli che si perdono), del meccanismo di autoapprendimento delle macchine e infine della criticità di un mondo dove tutte le attività (economiche, finanziarie, industriali, culturali etc) poggiano su supporti vulnerabili.
Da un punto di vista dell’etica, Sassoon ha riconosciuto che l’utilizzo e la diffusione dei dati, vedi Facebook, dovrebbe essere regolamentata, così come si dovrebbe provvedere a contrastare il fenomeno delle fake news, che sono utilizzate anche per condizionare eventi decisivi per la vita dei cittadini. Stima inoltre le conseguenze sul lavoro meno drammatiche di quel che si poteva prevedere.
Le figure professionali che saranno più richieste nei prossimi anni sono collocate nell’Information Technology, nella gestione risorse umane e nel contatto/gestione clienti. Va detto però che un buon numero di tipologie di lavori che saranno svolti nei prossimi anni non si conoscono ancora.
Sull’apprendimento delle macchine ha spiegato che questo avviene sempre sulla base di impostazioni introdotte dall’uomo e infine un cenno di geopolitica: gli Stati Uniti sono i maggiori investitori e utilizzatori delle tecnologie e dei prodotti della trasformazione digitale. Ma la Cina è al secondo posto e cresce più rapidamente: questo spiega la malcelata ostilità verso la Cina dell’attuale amministrazione USA?
Le illustrazionei sono di Alessandro "Shout" Gottardo per Internazionale