THE END OF AN ERA?

Non sono molti gli indici e i valori che in ambito finanziario rivestono un ruolo importante come quello del LIBOR, caposaldo del mondo bancario, con il quale tutti prima o poi nella vita, direttamente o non, ci ritroviamo ad avere a che fare. Il LIBOR (London InterBank Offered Rate), nelle sue numerose varianti di durata e valuta, da decenni riveste fondamentale importanza quale sottostante in molteplici strumenti finanziari, per un valore complessivo che si aggira attorno ai 350 miliardi US$, oltre ad essere un riferimento molto comune nel calcolo degli interessi di finanziamento di ogni genere. Nato dalla mente geniale di un banchiere greco nella City di Londra, alla ricerca di un metodo sicuro per poter finanziare dei progetti di sviluppo in Iran (essendo il Paese soggetto già da allora ad un elevato rischio di insolvenza) “the Greek banker” risolse la situazione limitando l’esposizione dei singoli prestatori con un finanziamento erogato parzialmente da diversi istituti bancari, con un tasso di interesse variabile che riflettesse le mutevoli condizioni di mercato, determinato a scadenze prefissate dalle banche prestatrici. Una formula semplice che nel suo piccolo ha cambiato il mondo. Sorge allora spontaneo chiedersi il perché dell’annuncio di Andrew Bailey, CEO dell’Autorità di Condotta Finanziaria, in merito al definitivo pensionamento nel 2021 del LIBOR, ancor più insolita a prima vista in ragione della diffusione di contratti derivati e prestiti basati tutt’oggi su tale indice. Nessuno in realtà si è sorpreso nell’ambiente e anzi molti auspicavano in un intervento così radicale e decisivo. Ma per capire il motivo di questa scelta dobbiamo fare un passo indietro, capendo come questo tasso viene determinato oggi.

La gestione del LIBOR relativamente ad una data divisa (sterline, US$…) è affidata in poche parole ad un pool di grandi banche, esattamente come avveniva nel famoso prestito iraniano. Barclays, UBS, JP Morgan e molti tra i principali market maker del settore, comunicano alla British Banker Association (BBA) a Londra le stime del valore del possibile tasso di interesse, del costo, di un eventuale prestito interbancario a determinate scadenze, sulla base delle attuali e reali condizioni di mercato. Successivamente la BBA si occupa della raccolta dei dati, determinando una media con taglio dei valori estremi (qualche “furbetto” infatti potrebbe decidere di utilizzare un tasso più elevato, attraverso un valore “estremo” che vada a falsare la reale situazione).

Tutto sembra andare per il meglio fino a quando, a seguito di intercettazioni e indiscrezioni di “pentiti” emerge la scomoda verità: il sistema così collaudato presenta in realtà grosse falle, portando alla luce accordi segreti tra banche per alzare artificiosamente i valori dei tassi a loro piacimento, in base alle loro esigenze, o agendo nel senso opposto, andando a comunicare tassi di interesse più bassi, esibendo verso l’esterno una situazione di solvibilità migliore di quella effettiva. Tutto ciò si riflette sull’innalzamento e ribassamento del costo del denaro, nonché nei valori di swap e altri strumenti finanziari, con conseguenze anche sul piano dell’economia reale delle famiglie e delle imprese che vedono erodere da questo meccanismo pilotato i propri risparmi. Il LIBOR infatti viene spesso, nelle sue diverse articolazioni, utilizzato da banche ed istituti di credito proprio come valore di riferimento (usualmente LIBOR + spread deciso dalla banca in base al soggetto richiedente) per il calcolo degli interessi su prestiti e finanziamenti di ogni genere, ed inevitabilmente un suo innalzamento provoca un inasprimento generale del costo del debito per le imprese e per le famiglie.

Tra processi e multe milionarie, il problema viene portato alla luce, mostrando tutte le problematiche che questo sistema presenta alle stesse fondamenta. Spesso alcuni di questi tassi risultavano quasi totalmente distaccati dalla realtà, dal momento che potevano passare dei giorni prima che un determinato tipo di prestito venisse effettivamente richiesto a livello interbancario da un operatore finanziario. Numerose sono le intercettazioni dove alcuni trader di queste banche si accordano telefonicamente o via mail per cercare di aggiustare i tassi in modo da rendere profittevoli le loro posizioni, andando a falsare le medie della BBA con comunicazioni pilotate di comune accordo verso l’ente.

Ma come fare se questo sistema chiaramente non funziona? Tra le molte ipotesi che circolavano, alla fine ogni dubbio è stato risolto dall’annuncio del pensionamento del LIBOR. Il dubbio è su chi cadrà il pesante lascito: sempre più concreta si fa strada l’ipotesi dell’adozione del SOFR (Secured Overnight Financing Rate), un tasso di interesse utilizzato nel Treasury Repurchase Market, immenso mercato (Repo Market) dove banche ed investitori prestano o ricevono degli asset impegnandosi a riacquistarli ad un prezzo più elevato in seguito (includendo in questo modo una sorta di interesse implicito nella transazione). Di fatto la robustezza è comprovata, dato l’immenso traffico di scambi, per un valore stimato pari a circa 800 miliardi US$ ogni giorno. Già alcuni operatori si stanno convertendo al nuovo riferimento per i loro strumenti derivati, anche se meno delle aspettative: trovare infatti sul mercato derivati aventi come sottostante il SOFR non è così comune, in quanto ancora oggi si tende a prezzare utilizzando il LIBOR come benchmark; lo stesso si può dire di prestiti e finanziamenti. Il che comporta un grosso problema, che al momento non è ancora del tutto chiaro come verrà risolto: cosa accadrà ai contratti redatti sul LIBOR come riferimento? Come verrà gestito il passaggio al nuovo indice, non essendoci in molti dei contratti pendenti ancora nessuna indicazione in merito a questo inevitabile passaggio? I mesi che seguiranno delineeranno il nuovo contesto nel quale ci si troverà ad operare, con l’auspicio di andare incontro ad un mercato per quanto possibile libero da distorsioni fraudolente, come nell’idea che ha dato vita al LIBOR decenni orsono.

 

 

Matteo Mamprin

Carlo Cottarelli: chi è e come la pensa sull’economia

Carlo Cottarelli, 64 anni, economista, si è laureato a Siena e ha conseguito un master in Economia alla London School of Economics. Ha iniziato a lavorare nel Servizio Studi della Banca d’Italia e nel 1988, dopo un anno all’Eni, è diventato il direttore degli affari fiscali del Fondo Monetario Internazionale, lavorando a Washington per ben 25 anni. In Italia Cottarelli è tornato a pieno ritmo nel 2013, chiamato dall’allora premier Enrico Letta a ricoprire il delicato ruolo di Commissario straordinario per la revisione della spesa pubblica. L’incarico, che gli ha fatto guadagnare il soprannome di Mister Forbici per il rigido controllo sulla spesa pubblica (il conto dei tagli possibili per l’economista ammontava infatti a 32 miliardi), è stato svolto fino al 2014, anno in cui il subentrante premier Matteo Renzi lo ha designato come direttore esecutivo del Fondo Monetario Internazionale. Pensionato dal Fmi all’età di 60 anni, non ha cessato il suo amore per il rigore dei conti, ed è oggi direttore del nuovo Osservatorio conti pubblici italiani dell’Università Cattolica di Milano e Visiting Professor all’Università Bocconi. Continui i suoi articoli e saggi accademici sulla necessità di ridurre il debito pubblico, “altrimenti rimarremo schiavi dei mercati” ha affermato di recente. Andiamo a scoprire, dunque, il suo pensiero politico ed economico.

 

Come la pensa sull’economia italiana

Nel suo ultimo libro intitolato “I sette peccati capitali dell’economia italiana” Cottarelli scrive: “L’economia italiana è cresciuta poco negli ultimi vent’anni. Ha accelerato un po’ nel 2017, ma hanno accelerato anche tutti gli altri paesi. Se fosse una corsa ciclistica, sarebbe come rallegrarsi di andare più veloci senza accorgersi di avere iniziato un tratto in discesa”. Ma in realtà, anche in discesa il distacco dal gruppo sta aumentando. Si stima, infatti, che nel 2017 l’Italia è cresciuta dell’1,5 per cento, mentre il resto dell’area euro è cresciuto del 2,3 per cento, confermando così la nostra crescita stagnante.

 

Perché l’economia italiana non riesce a recuperare?

Secondo Carlo Cottarelli esistono alcuni ostacoli che danneggiano l’economia italiana, tenendola in un limbo di bassa crescita e di competitività calante. Sono i sette peccati capitali dell’economia italiana, ossia: l’evasione fiscale, la corruzione, la troppa burocrazia, la lentezza della giustizia, il crollo demografico, il divario tra Nord e Sud e la difficoltà a convivere con l’euro. Insieme spiegano perché il reddito pro capite di un tedesco, che nel 1999 era solo del 5% più alto di quello di un italiano, oggi lo è del 25%.

Mentre i primi sei peccati riflettono problemi nati nel passato, in quanto non possono, di per sé, essere la causa della stagnazione del Pil degli ultimi due decenni, l’ultimo è relativamente più recente. La difficoltà dell’economia italiana di adattarsi all’euro e alle regole che derivavano dall’appartenenza al club europeo ha causato, infatti, il peggioramento della nostra performance economica negli ultimi vent’anni. È questo, quindi, il fattore determinante per spiegare la crisi dell’ultimo ventennio: l’incapacità di stare al passo con gli altri paesi una volta adottata la stessa moneta.

 

Ci sono segnali di miglioramento e speranza per il futuro?

“La via d’uscita non può essere la fuga dall’euro, sarebbe un po’ come andare a giocare in serie Bperchénon si riesce a vincere in A”, spiega l’economista. Un’uscita dall’euro, infatti, oltre a comportare altissimi costi di aggiustamento, rischierebbe di mandare in bancarotta molte famiglie e imprese. La soluzione per superare le attuali difficoltà, secondo Cottarelli, resta dunque quella di risolvere i problemi di lungo periodo in precedenza accennati, per recuperare produttività e competitività senza dover lasciare la moneta unica e l’Europa. A tutt’oggi i segnali di miglioramento sono ancora parziali e resta moltissimo da fare, ma a nostro favore gioca il fatto che esiste una stretta interrelazione tra i diversi problemi: risolverne uno permette di risolverne altri. Quel che dobbiamo fare è quindi invertire i circoli viziosi rendendoli virtuosi e per farlo l’economista suggerisce: “Occorre una forte accelerazione nel processo di riforma dell’economia italiana, che richiederà probabilmente un ripensamento del ruolo dello Stato nell’economia. Non è possibile continuare a considerare lo Stato come la soluzione di tutti i problemi personali e sociali, come il risolutore di prima istanza, invece che di ultima”.

 

 

 

Exchange Traded Funds

In meno di 25 anni, gli Exchange Traded Funds (ETF) sono diventati uno dei più popolari veicoli di investimento passivo fra gli investitori professionali e quelliretail grazie ai loro bassi costi di transazione e alla liquidità quotidiana che essi garantiscono. Questa tendenza viene confermata dal seguente grafico: come si vede, gli investitori retail e quelli professionalisono i maggiori detentori di ETF, a cui seguono le banche private ed i brokers con percentuali più ridotte.

Evoluzione degli investitori in ETF

Dalla loro prima entrata in scena nel 1990, con il primo ETF introdotto dalla Toronto Stock Exchange, gli ETF sono stati protagonisti di una crescita spettacolare, alla fine del 2016 rappresentavano oltre il 10% della capitalizzazione di mercato dei titoli negoziati sulle borse statunitensi e oltre il 30% del volume complessivo degli scambi giornalieri.

Questo articolo ha come obiettivo quello di fornire, nella prima parte, una breve panoramica su cosa sono gli ETF e nella seconda parte invece, verranno riportate le ragioni di questa crescita e le cifre di questa tipologia di fondi.

 

page1image1833856

Fonte: Deutsche Bank ETF Research, Bloomberg Finance LP, FactSet.

 

Cosa sono gli ETF

Prima di fotografare la situazione degli ETF a livello globale, è necessario capire cosa sono. ETF è l’acronimo di Exchange Traded Fund, un termine con il quale si identifica una particolare tipologia di fondo d’investimento con due principali caratteristiche:

–  è negoziato in Borsa come un’azione;

– ha come unico obiettivo d’investimento quello di replicare l’indice alquale si riferisce, il cosiddetto benchmark, attraverso una tipologia di gestione passiva.Un ETF riassume in sé le caratteristiche proprie di un fondo e di un’azione, consentendo agli investitori di sfruttare i punti di forza di entrambi gli strumenti ovvero:

–  diversificazione e riduzione del rischio proprio dei fondi;

–  flessibilità e trasparenza informativa della negoziazione in tempo reale delle azioni.Di conseguenza, l’ETF consente di:

– prendere posizione in tempo reale sul mercato target con una sola

operazione di acquisto;
– realizzare l’identica performance dell’indice benchmark: l’ETF

cons ente di ottenere un rendimento pari a quello del benchmark di riferimento in virtù di una “gestione totalmente passiva”, ad esempio, replicando al suointerno esattamente la composizione ed i pesi dell’indice al quale si riferisce.

– avere un prezzo di mercato costantemente allineato al NAV (Net AssetValue);

– ottenere un’ampia diversificazione, infatti investire in un ETF significa prendere facilmente posizione su un intero indice di mercato, che facendo riferimento ad un paniere ampio di titoli, diversifica e diminuisce i l rischio dell’investimento.

– ridurre il costo del proprio portafoglio: gli ETF presentano una commissione totale annua ridotta e applicata automaticamente in proporzione

al periodo di detenzione, non sono previste altre commissioni a caricodell’investitore.

– beneficiare di proventi periodici (i dividendi o gli interessi che l’ETFincassa a fronte delle azioni/obbligazioni detenute nel proprio patrimonio possono essere distribuiti periodicamente agli investitori o capitalizzatistabilmente nelpatrimoniodell’ETF stesso)1.

I fattori che hanno favorito la crescita degli ETF

Una volta spiegato il meccanismo che sta dietro a questo veicolo di investimento, l’obiettivo è ora quello di descrivere la crescita dell’investimento passivo che, anche grazie ad una maggiore efficienza dei mercati finanziari, negli ultimi anni ha registrato dei flussi positivi, a differenze di quello attivo che invece s i trova sempre più in difficoltà.

page3image3814528

Fonte: Borsa Italiana

 

 

Il numero di ETF resta certamente ancora molto basso rispetto a quello dei fondi comuni tradizionali, ma la loro crescita rappresenta qualcosa di mai visto, così come la rapida nascita di tipologie di ETF con nuove caratteristiche e strategie di investimento. Grazie alla loro struttura, essi offrono agli investitori nuove opportunità e opzioni che prima non erano disponibili.

La diffusione degli Exchange Traded Funds è dovuta soprattutto alla riduzione dei costi di gestione; essi offrono infatti a chiunque la possibilità di eseguire una diversificazione ottimale del portafoglio a costi molto più bassi di quelli che i fondi tradizionali hanno richiesto per anni.

In un contesto caratterizzato da bassi rendimenti, il fattore costo viene considerato unodei driverprincipaliperottenere degli extra rendimenti rispetto alla media nel lungo periodo. Questo viene evidenziato da Vanguard che, in una recente ricerca, evidenzia quanto sia importante per un investitore l’impatto deicosti sul risultato finale. Il concetto centrale dello studio, da cui deriva la preferenza teorica che un investitore dovrebbe avere nei confronti degli Exchange Traded Funds, rispetto alle gestioni attive, risiede nella constatazione che il mercato può essere considerato come un gioco a somma zero. Dove in ogni istante il mercato è rappresentato dalla somma cumulata di ogni posizione mantenuta dagli investitori; ne consegue che il rendimento di mercato a livello aggregato è la somma dei rendimenti ponderati di ogni partecipante al mercato.

Riassumendo: per ogni singola posizione che per qualche ragione sovra performa l’indice di mercato, ci deve essere qualche altra posizione che lo sotto performa, in modo che la somma del gioco sia pari a zero, e dove la media, utilizzata per misurare le performance, è rappresentata dal rendimento dell’indice di mercato.

Ipotizzando la distribuzione dei rendimenti di mercato come una gaussiana nella quale il valore centrale è rappresentato proprio dal rendimento dell’indice eintroducendo i costi di transazione e tutte le voci di costo associabili ad un investimento, come ad esempio i costi di gestione e amministrazione, si ottiene uno slittamento verso sinistra di tale curva. Di conseguenza maggiori sono i costiche vengono applicati, maggiore sarà la riduzione di rendimento per l’investitoree la performance aggregata per gli investitori non sarà più a somma zero.

page5image3819680

Fonte: The Vanguard Group Inc.

 

Questo consente di evidenziare quanto i costi incidano in modo determinante: un investitore che intende minimizzare la possibilità di sotto performare il benchmark, potrebbe semplicemente limitarsi ad abbattere il più possibile i costi.

Con gli ETF che rappresentano il 3% dei costi totali e i fondi passivi, nel loro complesso, che registrano soltanto il 6% dei costi totali dell’intera industria, questa tipologia di prodotti di investimento sono destinati ad avere la meglio dato che dal punto di vista dei costi non hanno rivali.

Spese di gestione per ciascuna categoria

page5image3818784

Fonte: Boston Consulting Group 2018. Financial Times

 

L’industria degli ETF in cifre

Come riporta il provider di dati, ETFGI, le masse globali investite in fondi passivi superano i 5100 miliardi di dollari a fine luglio 2018, con un incremento degli asset del 5,9%, registrando da 4 anni e mezzo un periodo di nuovi apporti cons ecutivi.

A livello europeo invece, le masse di raccolta salgono a 827 miliardi di dollari (luglio 2018), con una crescita del 3,17% da inizio anno, con il tasso di crescita a 10 anni che si attesta appena sotto il 20% annuo. Come dimostra il grafico di seguito, dal 2008, c’è stata una crescita senza precedenti.

Fonte: ETFGI Dati inizio 2018.

Per quanto riguarda l’Italia, l’offerta è di 850 tipologie di ETF, con un patrimonio totale di circa 68 miliardi di dollari e una crescita costante negli ultimi anni; secondo gli operatori del settore, nel 2019 questa sarà ancora più rilevante.

Nell’industria mondiale i maggiori provider, in base ai dati di pubblicati daFactSet, s ono:

– BlackRock (iShares) con 1,4 trilioni di dollari di AuM (asset under management);

–  Vanguard con 918 miliardi di dollari di AuM;

–  State Street Global Advisors con 637 miliardi di dollari di AuM.

page6image3819456

Fonte: ETFGI Dati inizio 2018.

 

Di recente ha fatto molto discutere l’entrata come provider di J.P. Morganche, dopo anni in cui è rimasta fuori dal mercato degli ETF, ha iniziato a giocare unruolo da protagonista. Dall’inizio dell’anno il business degli ETF di J.P. Morgan è cresciuto dai 6,2 miliardi di dollari fino a 14,6 miliardi di dollari, una cifra irrisoria rispetto agli oltre 2 trilioni di dollari di AuM, che però consente di capire il cambio di strategia da parte di una delle maggiori banche a livello mondiale.

Non sono passati inosservati in particolare i tre ETF quotati da J.P. Morgan che hanno superato il miliardo di dollari in poco tempo dopo la loro quotazione. In particolare, due, gli ETF (JPMorgan Beta Builders Japan ETF (BBJP) e JPMorgan BetaBuilders Canada ETF (BBCA)), sono diventati i più veloci della storia a raggiungere una capitalizzazione pari al miliardo di dollari.

Conclusione

Dal primo decennio di questo secolo, gli ETF sono sicuramente protagonistidel grande cambiamento avvenuto nell’industria dell’asset management.

La semplicità ed i bassi costi hanno sicuramente avvantaggiato questa crescita rispetto ai fondi a gestione attiva. Secondo le stime di BlackRock, questa industria è destinata a crescere ancora nei prossimi anni, si stimano addirittura 12 trilioni di dollari investiti negli ETF nel 2023.

page7image3826176

Fonte: BlackRock, Global Business Intelligence, Aprile 2018.

Senza dubbio in futuro questi strumenti saranno oggetto di discussione sia peri regolatori che per gli esperti del settore visto che anche nei prossimi anni saranno fra gli strumenti di investimento più gettonati.

Blockchain: Rivoluzione in atto

Mai come oggi la tecnologia della “catena dei blocchi” sembra aver acquistato interesse e centralità.

Giorno per giorno le analisi di mercato esaltano la diffusione degli investimenti in tecnologie Blockchain indicando trend impressionanti.

Tra i report più recenti IDC (International Data Corporation) prevede per il 2018 una spesa mondiale pari a 2,1 miliardi di Dollari: più del doppio rispetto al miliardo sfiorato nel 2017, con una prospettiva di crescita media oltre l’80% annuo. E il World Economic Forum sostiene addirittura che il 10% del PIL mondiale sarà presto basato sulla tecnologia blockchain.

Le potenzialità di questa nuova tecnologia sono enormi, in gran parte ancora da sperimentare. È cruciale, dunque, esplorare le caratteristiche e le opportunità di una tecnologia che potrebbe essere il fattore chiave per arrivare al cosiddetto “Internet of value”, ossia a un mondo interconnesso che consente l’ottimizzazione in tempo reale di processi produttivi e attività economiche.

 

Cosa significa blockchain?

 

La Blockchain, della famiglia dei Distributed Ledger (i sistemi che permettono ai nodi di una rete di raggiungere il consenso sulle modifiche di un registro distribuito in assenza di un ente centrale), è una tecnologia che permette la creazione e la gestione di un grande database distribuito per la gestione di transazioni condivisibili tra più nodi di una rete.

Le informazioni dei database utilizzati in azienda sono tipicamente accentrate in un unico punto di accesso (e di vulnerabilità). Con la tecnologia blockchain la base di dati è invece distribuita in un insieme di nodi di una rete, tutti concatenati tra loro. Ciascun nodo ha il compito di vedere, controllare e approvare tutte le transazioni e ogni record viene memorizzato in modo tale da includere una quota di informazioni che fanno capo ad altri dati già immagazzinati in precedenza. Questo rende possibile la creazione di una rete che permette la tracciabilità di tutte le transazioni che, proprio per essere presenti su tutti i nodi della rete, sono immodificabili (se non attraverso la riproposizione degli stessi a tutta la rete) e immutabili. E la manomissione delle informazioni diventa così virtualmente impossibile.

 

La blockchain è, oltre a quanto è stato appena detto, la tecnologia alla base del Bitcoin, il re delle criptovalute, ossia le monete virtuali decentralizzate che utilizzano alcuni principi della criptografia per rendere sicuri gli scambi tra utenti: a differenza delle valute tradizionali, il governo non ha alcun controllo sulle cryptocurrencies e le regole di scambio sono indicate in un software open-source pubblicamente controllabile.

 

L’evoluzione della blockchain

 

Da gennaio 2009, data del debutto di Bitcoin, il mondo della blockchain ha conosciuto una profonda crescita ed evoluzione. Ciò che una volta era associato al mercato illegale e considerato solamente una moda, ha conosciuto una progressiva crescita di interesse, modificando l’approccio comune dei regolatori.

Successivamente sono nate altre piattaforme basate sugli stessi principi del Bitcoin: nel 2012 Ripple, per i pagamenti interbancari; nel 2014 Ethereum, per i contratti intelligenti; e nel 2015 Hyperledger per lo sviluppo collaborativo del registro distribuito.

Con l’inizio della moda blockchain, è cresciuta freneticamente la capitalizzazione del Bitcoin e delle altre valute e sono iniziate numerose sperimentazioni. Oggi, infatti, qualsiasi settore può beneficiare dall’applicazione di soluzioni blockchain.

 

L’espansione della blockchain

 

Secondo i dati dell’Osservatorio Blockchain & Distributed Ledger della School of Management del Politecnico di Milano, sono 331 i progetti basati sulla blockchain censiti a livello internazionale da gennaio 2016 ad oggi.

I principali campi di applicazione della tecnologia sono il tracciamento e supply chain, la gestione dati e documenti e i processi nei sistemi di pagamento e sei progetti su dieci riguardano il settore finanziario.

Ma la tecnologia si sta diffondendo in numerosi altri ambiti applicativi ed è in piena espansione: nel 2017 le sperimentazioni della blockchain avviate o in fase di “Proof of concept” nelle imprese sono cresciute del 73% rispetto all’anno precedente e gli annunci si sono spinti fino al 273% in più. In particolare, le applicazioni della blockchain hanno riguardato, oltre che alla finanza, anche l’attività di governo (il 9%), della logistica (7,2%), delle utility (3,9%), dell’agrifood (3%), delle assicurazioni (2,7%), fino ai media (1,8%) e alle telecomunicazioni (1,2%).

Il 2017, secondo IDC, è stato l’anno per sperimentare la Blockchain negli ambiti più diversi, ma sarà proprio il 2018 l’anno del passaggio delle sperimentazioni limitate alle implementazioni complete. Governi e banche centrali di tutto il mondo hanno già iniziato a studiare il fenomeno blockchain e a oggi si contano più di 30 progetti con l’obiettivo di rendere più efficienti monete e sistemi di pagamento.

Tra i più interessanti c’è sicuramente quello riguardante gli “smart contracts”, ovvero contratti intelligenti espressi in codice in cui il modello transazionale criptato serve ad accertare automaticamente la realizzazione di tutti gli adempimenti previsti. Un’incredibile opportunità per le parti di portare avanti i loro affari, facendo a meno di notai, giudici e pubblici ufficiali e affidandosi a un trust di fiducia distribuito che assicura la legittimità e la correttezza delle operazioni.

 

Blockchain in Italia

 

I Paesi dove la blockchain e i bitcoin si stanno diffondendo sono sempre più numerosi e l’Europa gioca un ruolo importante nello sviluppo di queste tecnologie. Ad oggi la Commissione europea ha, infatti, investito più di 80 milioni di euro per lo sviluppo della blockchain e ne sono previsti circa altri 300 milioni entro il 2020. L’Italia, malgrado la presenza di una solida comunità di sviluppatori, è tra i Paesi più indietro su questo fronte ed è stata, fino ad oggi, una delle grandi escluse dell’accordo europeo sulla blockchain. Il ministro del Lavoro e dello Sviluppo economico Luigi Di Maio ha, però, siglato poche settimane fa l’adesione dell’Italia alla “European Blockchain Partnership”, una iniziativa tra gli Stati membri che punta a favorire lo scambio di competenze e di expertise, in campo tecnico e normativo, al fine di aiutare a creare nuove opportunità di business.

Questa nuovo accordo può, quindi, essere l’occasione per promuovere iniziative e progetti riguardanti blockchain, intelligenza artificiale e Internet of things in Italia. Un aspetto molto rilevante per le aziende italiane, visto che quest’ultime sono spesso un’eccellenza sui temi dell’innovazione e come spiega Valeria Portale, direttrice dell’Osservatorio Blockchain del Politecnico di Milano, “la blockchain potrebbe avere un impatto notevole per il made in Italy in termini di tracciabilità e di anticontraffazione: è necessario non rimanere fermi per evitare un gap di competenze difficile da colmare.”

 

Andrea Pellizzer

 

Fundraising europeo a quota 91.9 miliardi: è il livello più alto dal 2006

I settori del private equity e del venture capital in Europa sono decisamente in crescita, con 8000 fondi di investimento e 250 000 operazioni tracciate nel 2017; a dirlo sono Invest Europe e Private Equity Monitor, i principali report sul mercato degli investimenti in capitale di rischio.

 

 

Il totale raccolto attraverso l’attività di fundraising nel 2017 ha raggiunto la più alta cifra dal 2006 pari a 91.9 miliardi di euro, con un incremento del 12% annuo; il numero di fondi che raccolgono nuovi capitali è aumentato del 15%, raggiungendo le 542 unità.

Il 29% di tutto il capitale raccolto è stato fornito dai fondi pensione; seguono i funds of funds con una quota pari al 20%, i family offices & private individuals con il 15%, i fondi sovrani che contribuiscono per il 9% e le compagnie di assicurazione per l’8%.

Gli investitori istituzionali non europei hanno contribuito per più del 40%, con gli investitori asiatici che hanno conferito una quota pari al 15% del totale, rappresentando ad oggi i soggetti maggiormente interessati all’attività.

 

Anche il Venture capital europeo è cresciuto del 34% raggiungendo la notevole cifra di 6.4 miliardi di euro e superando il picco del 2008 di oltre il 13%, con più di 3800 imprese che ne hanno beneficiato.

Sono cresciute, inoltre, le dimensioni medie dei fondi venture capital, con 100 milioni di final closing e con un conseguente aumento dei round di investimento e del numero di “unicorni” europei, ossia delle aziende che, nell’arco del breve periodo, sono riuscite a conquistare un patrimonio capitale di oltre un miliardo di euro.

 

La situazione in Italia

In Italia gli investimenti in capitale di rischio sono ancora in fase embrionale. Secondo il report AIFI (Associazione Italiana del private equity, venture capital e private debt) nel 2017 sono stati raccolti quasi 5 miliardi di Euro (ovvero il 5% del totale europeo), con una decrescita degli investimenti del 40% rispetto all’anno precedente.

Sebbene nel 2017 l’ammontare investito nel mercato italiano del private equity e del venture capital sia stato il terzo valore più alto raggiunto negli ultimi dieci anni (dopo quanto conseguito dall’Italia nel 2016 e nel 2008), il risultato è stato raggiunto poiché tre fondi (F2i Sgr, QuattroR Sgr e Fondo italiano d’Investimento Sgr) hanno investito da soli un importo superiore a oltre 4 miliardi di Euro, pari all’82% della raccolta complessiva italiana. In totale è diminuito del 3%  anche il numero delle operazioni, passando a 311. Il 2016 aveva contato 322 operazioni per un totale di 8.2 miliardi di Euro di investimenti, un record assoluto, trainato, però, da 17 large e mega-deal.

 

 

In aggiunta, nel 2017, c’è stata una diminuzione degli investimenti iniziali in nuove startup del 38%, con 57 investimenti contro i 92 del 2016. Le ragioni di tale decrescita sono legate al fatto che alcuni operatori internazionali nel 2017 erano ancora in fase di fundraising, e quindi non hanno chiuso i loro investimenti.  In secondo luogo, diversi operatori hanno concentrato le proprie attività dell’anno scorso in operazioni di “follow on”, ovvero negli investimenti dedicati ai round successivi al primo, che sono passati nel 2017 a 21, rispetto ai 10 dell’anno precedente.

Anna Gervasoni, che presiede il Comitato Scientifico del Venture Capital Monitor, però afferma: “Il 2017 vede una crescita dei follow on, segno che l’attività del fondo di venture capital non si limita a un semplice investimento iniziale, ma è l’avvio di un percorso che vede l’affiancamento dell’operazione al progetto”.

Tale attività, secondo Gervasoni, potrà quindi permettere alle società di affermarsi nel proprio mercato di riferimento.

Da sottolineare invece come sia cresciuto il numero di operazioni di disinvestimento, toccando il suo massimo storico nel 2017 (202 operazioni) per un controvalore di 3.7 miliardi di Euro.

 

Conclusione

Il panorama del foundraising europeo cresce nei singoli paesi, ad eccezione dell’Italia dove lo scenario risulta essere decisamente scoraggiante, con una raccolta fondi pari ad appena il 5% del totale europeo.

L’attività di private equity è ancora limitata rispetto alla dimensione economica del nostro paese e il bisogno di capitale di rischio risulta essere sempre più evidente a causa della necessità delle nostre aziende di crescere e di investire in un mercato sempre più competitivo.

Il Fondo Europeo degli Investimenti e la Commissione Europea hanno da poco lanciato una nuova eccellente iniziativa di sistema, con lo scopo di rafforzare gli investimenti nell’innovazione e nel capitale di rischio, arrivando a mobilitare fino a 6.5 miliardi di Euro. Secondo Innocenzo Cipolletta, il presedente di AIFI, la piattaforma di ITAtech, realizzata da Cassa Depositi e Prestiti per supportare i processi di cambiamento tecnologico, l’iniziativa “permetterà il moltiplicarsi di progetti che riceveranno fondi e potranno quindi affermarsi nel mercato internazionale”.

Ecco quindi un nuovo fiorire di brillanti iniziative, anche nel nostro Paese, da cui ripartire per scendere in campo e correre assieme alle grandi d’Europa.

 

Andrea Pellizzer

Cosa significa realmente fare Startup?

Nel mondo, nove startup su dieci non sopravvivono ai primi tre anni di attività.

Delle tante startup che non ce l’hanno fatta, soprattutto in un una società come la nostra dove il fallimento è visto negativamente, non rimane traccia e queste chiudono i battenti nel silenzio generale. Ciò accade perché la nostra mentalità, influenzata forse da un eccessivo ottimismo, vede il fallito come un perdente e molto difficilmente gli concede una seconda possibilità, ripartendo dai propri insuccessi e imparando dagli errori commessi.

 

Nella cultura americana, l’approccio al fallimento viene invece considerato positivamente, un po’ come una lezione dalla quale imparare e ripartire. Ciò significa che se non ci si è riusciti, si può sempre riprovare fino ad arrivare all’obiettivo. La chiave del successo dei grandi imprenditori digitali della Silicon Valley si basa proprio sul mantra degli startupper “Try again. Fail again. Fail better”, che incarna l’obiettivo di avvicinarsi al risultato desiderato facendo tesoro delle sconfitte.

Un fallimento, infatti, non deve mai essere considerato come la fine di un percorso, ma piuttosto un incipit per cogliere nuove opportunità, sfruttando i propri errori e considerandoli occasione di crescita. Come ci insegnano molte storie di uomini di successo, bisogna non arrendersi anche quando nessuno crede più nel tuo talento. Il creatore di “Topolino” e di “Alice nel paese delle meraviglie”, Walt Disney, fu licenziato nel corso del suo primo impiego come disegnatore di fumetti perché dimostrava “mancanza di idee e di immaginazione”. Ma anche Charles Darwin, lo scienziato che avrebbe svelato la teoria dell’evoluzione, era considerato dalla famiglia e dai suoi compagni come un fannullone che sognava ad occhi aperti. Oggi nessuno metterebbe in discussione le capacità di questi uomini che hanno influenzato fortemente le vite di tutti noi, ma un tempo così non è stato. Loro però, hanno saputo resistere alle difficoltà, non si sono persi d’animo e hanno capito che era giunto il momento di cambiare e ripartire.

 

Il coraggio, la motivazione e la convinzione che spinge ad operare sono anche i principali fattori che alimentano il successo di una startup.

Nella fase di avvio della stessa non ci sono certezze di ritorno sull’investimento: sacrificare i propri risparmi, il proprio tempo e la propria vita privata potrebbe non ricompensare gli sforzi fatti. Inoltre, ottenere dei finanziamenti non è facile. Secondo i dati di StartupItalia! nel 2017 nel contesto nazionale a fronte di un incremento del numero di startup (arrivato a 8300), c’è stata una caduta degli investimenti del 23 per cento (pari a 41 milioni di euro) rispetto al 2016. In tutto questo c’è da considerare che la startup dei pagamenti online, Satispay, che ad agosto 2017 ha chiuso il round più significativo dell’anno (pari a €18 milioni), raccogliendo quanto tutte le altre hanno ricevuto nello stesso trimestre. In ogni caso, i finanziamenti non mettono le startup al riparo dai fallimenti: Juicero, Beepi e Quixey sono solo alcuni casi di realtà che, pur avendo ricevuto finanziamenti di milioni da banche e venture capitalist, hanno dovuto comunque chiudere i battenti.

Una startup però, può anche essere autofinanziata, passo dopo passo, con i propri mezzi, creando risultati duraturi. Se l’obiettivo invece è quello di ottenere risultati in fretta è molto probabile che ciò non accada, perché ambire a tale scopo tralascia quello che è il vero successo di un’azienda: produrre valore.

 

Secondo alcune statistiche nei prossimi dieci anni l’indice azionario Standard & Poor’s 500, l’indice che segue l’andamento delle 500 aziende statunitensi a maggiore capitalizzazione, la metà di esse, oggi leader nel mercato, scomparirà e verrà sostituita da nuove realtà.  Questo perché viviamo in un mondo che cambia alla velocità della luce e il progresso tecnologico, che impatta sui processi aziendali delle imprese, permette alle stesse di entrare nel mercato ad una velocità maggiore. Le nuove startup dovranno dunque essere in grado di creare una cultura aziendale orientata all’innovazione e alla ricerca, virando su nuovi prodotti, nuovi servizi e nuove curve di valore.

 

Andrea  Pellizzer

UN BULL MARKET DA RECORD

Fonte: MacroTrends; Yardeni Research; Thomson Reuters 

 

Il 22 agosto 2018 il mercato azionario statunitense, misurato dall’indice S&P 500, ha raggiunto un traguardo storico: 3453 giorni senza subire dei cali pari o superiori al 20% che lo avrebbero associato ad un mercato ribassista (bear market).

 

Dai minimi di 666 punti raggiunti il 9 marzo del 2009 il mercato è stato quindi un bull marketper il periodo più lungo della storia superando il precedente record che duro dal 1990 fino al 24 marzo 2000 e che registrò un rialzo del 417% in 113 mesi.

 

L’ultima maratona di Wall Street ha portato l’indice dello S&P 500 a un incremento del 324,6%, creando oltre 18 trilioni di dollari. Su base annua questo si traduce in un guadagno del 16,5% circa, contro una media storica del 22% per i mercati rialzisti. Solo il rallyavvenuto dopo la Grande Depressione durante gli anni tra il 1932 e il 1937 si distingue su tutti registrando un aumento record del 35,5%.

 

A contribuire come protagonista a questo exploit è stato il settore tecnologico, che ha contribuito per un ampio 22% ai guadagni registrati durante il periodo di bull market. In particolare, sono le cosiddette FAANG (Facebook, Amazon, Apple, Netflix e Alphabet/Google), ad aver contribuito in maniera consistente alla performance da record. Di seguito si allega un grafico che illustra l’enorme crescita delle FAANG negli ultimi anni.

 

 

Fonte: Financial Times

 

Tra i fattori che hanno favorito questa espansione vi sono sicuramente l’aumento costante degli utili societari, l’espansione monetariae il cosiddetto buyback.

 

Gli utilisocietarihanno trainato il mercato azionario con una crescita continua per nove anni e mezzo; costantemente rivisti al rialzo, non hanno mai fatto registrare segnali di avvicinamento alla fine del ciclo: nei 35 trimestri totali, 30 sono stati caratterizzati da un incremento.

 

La ripresa del mercato azionario corrisponde parallelamente a un periodo di espansione monetaria senza precedenti, ottenuta grazie alle misure operate dalla Federal Reserve. Mantenendo bassi i tassi d’interesse, la Fed ha dato ampio spazio di manovra alle aziende, favorendo così le acquisizioni e la possibilità di reinvestire nella ricerca e sviluppo.

 

Un altro fattore rilevante nella crescita del mercato statunitense è da ritrovarsi nel riacquisto delle proprie azioni da parte delle aziende, il cosiddetto fenomeno del buyback. L’enorme liquidità affluita sui mercati borsistici e i bassi tassi di interesse hanno favorito questo tipo di operazione, che supporta la quotazione dei titoli sostenendone la domanda sul mercato.

Il grafico seguente illustra i volumi di buyback registrati dalle aziende, evidenziando l’incremento notevole avvenuto negli ultimi anni.

 Fonte: Financial Times

 

La parte finale di questo mercato rialzista è stata favorita e alimentata anche dalla riforma fiscale approvata dal presidente Trump alla fine del 2017.

 

In pochi avrebbero scommesso che alla peggiore crisi finanziaria dopo quella della Grande Depressione degli anni ’30, sarebbe seguita una corsa record del mercato azionario. Gli scettici che prevedevano un freno alla corsa dell’azionario evidenziando il rallentamento della crescita cinese, l’aumento dei tassi di interesse statunitensi e le maggiori tensioni commerciali, si sono dovuti ricredere.

 Ora ci si domanda se e quando una nuova recessione arriverà. Secondo Bank of America Merryl Lynch, con la riduzione degli asset comprati dalle banche centrali che rispettivamente erano di 1,6 mila miliardi di dollari nel 2016, 2,3 mila miliardi nel 2017 e 0,16 mila miliardi nel 2018, ci sarà una transizione dal Quantitative Easing al Populist easing. Una serie di politiche keynesiane volte a redistribuzione e protezionismo. E questo tipo di transizione sarà poco favorevole agli asset finanziari.

 

Alin Pascu

 

LA BCE DETTA LE NUOVE REGOLE DI VALUTAZIONE DEGLI NPLs

Articolo di Andrea Tosatto
 

Il legislatore europeo sta aggiornando i parametri di valorizzazione dei crediti in bilancio per le banche europee rendendoli più stringenti. Le linee guida della BCE sulla gestione degli NPL prevedono la necessità di predisporre adeguati accantonamenti e riduzioni per le esposizioni deteriorate in tempi brevi con l’obiettivo di rendere i bilanci bancari più solidi e di permettere alle banche di erogare maggiore credito.

L’Addendum predisposto da BCE si pone come fine quello di integrare queste linee guida sugli NPL, rendendole come detto più stringenti e stimando dei livelli minimi prudenziali di accantonamento per le esposizioni deteriorate. Le stime per gli accantonamenti tengono ora conto anche dell’ammontare di tempo per cui un’esposizione è definita deteriorata dall’istituto, distinguendo tra quelle garantite e quelle non garantite. L’Addendum predisposto dalla Banca Centrale Europea prevede quindi delle svalutazioni più elevate per quei crediti considerati dalle banche come deteriorati da un certo numero di anni e non garantiti. Quest’ulteriore regolamentazione è stata introdotta per evitare che elevati importi di NPL con scarse garanzie rimanessero iscritti nei bilanci bancari per un numero eccessivo di anni; si ritiene infatti che i crediti deteriorati debbano essere aggregati in modo tempestivo per via dei loro effetti dannosi sull’economia. Le regole aggiuntive dettate nell’Addendum sugli NPL si applicano a tutte le banche significative sottoposte a vigilanza diretta da parte della BCE; queste non intendono sostituire le regole dettate dalle linee guida e dalle altre disposizioni e non sono vincolanti per le banche che devono però motivare la mancata applicazione e il mancato raggiungimento dei requisiti minimi richiesti.

La disciplina definita nell’Addendum in un certo senso rivoluziona il trattamento degli NPL, prevedendo che, a partire dall’1 aprile 2018, tutti i crediti in bonis che verranno riclassificati come deteriorati saranno considerati Non Performing Loans e, per questo, soggetti a vigilanza prudenziale. Queste disposizioni non sono vincolanti per le banche ma rientrano nelle aspettative della BCE; dal punto di vista quantitativo, queste regole prevedono che, per le esposizioni non garantite, dopo due anni dalla riclassificazione a NPLs sia prevista un accantonamento del 100%. Per quanto riguarda invece gli NPL garantiti l’Addendum segue un approccio più graduale a partire dal terzo fino al settimo anno (si veda la tabella in calce per lacopertura delle esposizioni deteriorate proposta nell’Addendum sugli NPL e l’immagine per il funzionamento del meccanismo previsto dall’Addendum). Le disposizioni previste dall’Addendum della BCE non prevedono però degli automatismi nell’applicazione delle regole sopra esposte bensì delle valutazioni caso per caso sulle diverse situazioni; le banche europee soggette alla disciplina dell’Addendum avranno un periodo tempo per adeguarsi alle aspettative delineate dalla BCE, la disciplina sarà infatti applicata da aprile 2018 ma la vigilanza in materia scatterà dal 2021.

 

Le regole definite nell’Addendum saranno applicate come detto in uguale misura in tutte le banche significative dell’UE, anche a quelle italiane. Si rende quindi necessario comprendere e definire quale sarà l’impatto dell’Addendum anche per le nostre banche; secondo recenti stime il costo per le banche significative italiane sarà al massimo di circa 4.5 miliardi di Euro. L’effetto è sicuramente minore rispetto a quello stimato appena dopo l’introduzione delle regole dettate nell’Addendum; merito sicuramente di alcuni fattori che hanno contribuito a ridurre gli accantonamenti inizialmente previsti. Innanzitutto il lavoro fatto dalle banche italiane sui loro bilanci che hanno proceduto preventivamente a ridurre in questi mesi le esposizioni deteriorate ha portato a ridurre gli accantonamenti inizialmente stimati. Il miglioramento generale delle condizioni economiche in Italia, l’applicazione dei nuovi principi di valutazione contabile definiti dall’IFRS 9 e la riduzione del flusso di nuovi NPL hanno contribuito a raggiungere questo risultato.

 

È quindi in una situazione di redditività discendente e volatile e in cui è però molto difficile per gli istituti implementare delle possibili soluzioni e innovazioni che si può contestualizzare il sistema bancario italiano dei nostri giorni. La nota positiva è che nel complesso il sistema bancario ha retto alla crisi economica e gli stress test europei lo confermano, anche se permangono le difficoltà nella gestione degli NPLs.

Views of the future: Impact of technology on employment and human life

It is clear that one of the main and most important discussion issues nowadays, is the impact of technology in our life. Not only talking about the people involved in science or technology, but the daily life of the common of the people. Weather we talk about smartphones, computers or software; it seems that technology has come to every aspects of our lives, and it will stay for good.

While we are getting used to the newest technology in the market, another version or a replacing technology emerges at the time, and the speed of improving doesn’t seem to slow down. In fact, it is more likely that the speed of new technology creation augments instead of slowing down, and this is because with the help of more and more technology it becomes easier to create more. It is more or less like having better tools, to create better results.

And one of the crucial issues on the matter is the rising of Artificial Intelligence, or AI as it will be referred. AI is very sophisticated software or device, which has the capability of reprograming itself for better achieving the results for which it was created for. And this is why it is said that it is capable to “learn”, because through experimentation it is capable to improve itself.

The rise of AI is of particular importance, because it is said to have the capabilities to reshape the world where we live. It is that important, that the World Economic Forum has called it the 4th industrial revolution, which it is going to be characterized by the presence of these super intelligent machines in the productive sector. And every aspect of human life is said to be involved. As far as today, AI devices are capable of producing their own art, such as music and paintings. AI from Google and Facebook are said to have produce their own language. In the finance sector, AI is used to stock trading.

And this is, because with more and more reliability in machines, the role of human being in the productive sector is reduced, or replaced. Many of the current professions are said to disappear, or to be replaced. First, mechanical or relatively easy jobs, and later on more complex professions, such as professors, lawyers or even doctors or engineers. Of course, this is not going to happen immediately, and the timing for it to happen depends on many forthcoming factors.

All of these suppositions have a strong impact on the job market, and in the general view of the future from the part of the population. And the big question is, is it fair to replace human beings with machines? If a machine, robot or software is able to fulfill a task in a better, faster and with less cost, is it bad to replace human beings in the productive field? In fact, recently there was a scandal because certain CEO’s of fast food chains have publicly said that they were happily to replace the human workers for robots. But isn’t it the job of the firm to look for their own interests?

We are not worried per se about losing our jobs; we are worried about income and relevance uncertainty. Because most of the tasks that can be replaced by machines are considerate as “work”, job or effort, and human nature is in a constant search for reducing the effort that needs a task to be fulfilled. In fact, one of the main differences to differentiate the leisure time from the working time is the same that we human beings have in comparison to machines: is the capability to enjoy. A task is considerate as a job if it takes effort, otherwise if we enjoy it is leisure time. One of the ways of defining work is the trade of time, effort and abilities for a wage, and thus exchanging time that could be used as leisure, or achieving different kind of goals. Because the machines don’t have the capability to enjoy things, the difference in the exchange of leisure and working time does not apply to them.

In the first half of the 20th century, John Maynard Keynes, considerated one of the greatest minds in the economical science, had a very particular vision of the working week of the future. He believed, that with the help of the machines, we would only have to work very reduced times, such as 15 hours per week. Human basic needs, as well as resources would be easily fulfilled with the help of the machines, and humanity would could focus on the

development of human spirit, occupying our times with arts, sports or basically anything that we want to do to heighten our human condition.
Was Keynesian view of the future wrong, or should we still have to aim for it with the help of AI? And most important, are these wishes for society still relevant?

But current views of the future does not seem that positive, and instead of thinking in a world with less effort and more of free time, we tend to look at the future as a place with the need of more skills in order to be able to perform in the next job market. Humanity is not worried about losing the jobs per se, is worried about losing the relevance in the productive field, and thus losing the income. In this technological world, the owners of the technology would be the ones who get the profits. In this technological world, inequality would become bigger and bigger, because it would be harder to compete against more and more sophisticated technology. And the owners of this technology would be the ones to take profits out of it, being mainly big companies.

And this is what we are seeing in the modern world with the big companies such as google, apple and Microsoft. Because of the wealth belongs to the ones who own the production means, it would be harder to compete against this technology.

Inequality is as well one of the main topics in the global agenda nowadays. Inequality comes with a wide range of consequences, some of them good some of them bad. For example, historically seen many of the causes of the revolutions have its causes on inequality, such as the French and Russian revolution. Inequality fosters the crime, violence and competitiveness in a society, but as well inequality is considerate to have a positive impact in the economic growth of a society. After a Credit Suisse study, the 1% of the population holds the 48% of the global wealth in the world.

Because of the tight link between the welfare of society, politics and government, one of the main tasks of the public sector is to maximize social welfare. And this includes the state position regarding inequality of the population, applying or not measures to control it, which is again one of the main discussions in the public economic sector.

Is it fair to apply taxes to those who produce more to help the ones who have the less? Why should we help to those who do not make an effort? Isn’t it the very objective of human work, to have a reward because of our own effort?

All of this are hypothetical situations, but if technology continues with its exponential growth soon we are not going to be dealing with technological issues, but instead with social and ethical issues regarding employment, and inequality. Our problems are not going to be related about the production of resources, but rather their distribution.
A right or wrong answer to this kind of issues does not exist. We can only think of a better implementation of the public policies, and this are going to be the ones who favorites the most of individual of a given society, and at the same time help to grow the economic growth. Because of the nature of these social issues, the main dilemma remains an ethical one, and the best way to produce a better response is with a better understanding of current circumstances. And most important of all, is by not forgetting that the ultimate goal of economics is to improve people’s everyday life.

 

Abraham Anchondo
Ca Foscari Student, QEM Master Program

Future’s Work: Threats and Opportunities

THE FUTURE TECHNOLOGIES AND THE BIG OF THE SILICON VALLEY

Our lives are changing faster and faster, every day there are new types of technologies and it is nearly impossible to assimilate all the information regarding these topics.

Following the evolution of technologies has become essential and not doing so would mean to be excluded from the society in which we live.

From today to the next 5 years, the hot topics will be: Hyperloop, self-driving car, mind sharing, helpful home, sharing economy, self-tracking, quantified self, nano architectures, apple pay, cinematic reality, car-to-car communication, project loon, liquid biopsy, brain organoids, superhuman photosynthesis, large-scale desalination, DNA internet, neuro-hacking, quantum, nanotechnology, darker networks, universal translators, avatars, robots, fuel cell vehicles, thermosetting recyclable plastic, genetic engineering, additive manufacturing, distributed production, drone “sense and avoid “, neuromorphic technology, digital genome, digital assistants, free internet for all, quantum computers, space vacations, ultra-reality, disease prevention, x-ray, big date and pollution control.

These are just some of the topics we’ll have to deal with, many of them, although they have been developing for some years, may be still unknown to most readers.

Getting informed has become essential in order to adapt ourselves in the best way.

We are faced with an unprecedented technological revolution: in order to stay updated it is necessary to follow people that are doing the future right now. Silicon Valley’s Big 9 are Peter Shankman (founder of Haro), James Altucher (entrepreneur, podcast and author), Alec Cross (former senior consultant of Hilary Clinton and author), Mariam Naficy (Minted.com CEO and board member of Yelp), Chamath Palihapitiya (Chief Financial Officer), Kevin Rose (Hodinkee’s CEO and Digg’s co-founder), Sam Rosen (CEO of MakerSpace), Andrew Torba (AutomateAds.com) and Tim O’Reilly (founder and CEO of O’Reilly Media).

TECHNOLOGY AND THE WORLD OF WORK

Surely, one of the most disruptive technology on the working world will be robotics. The ONU has even launched an alarm bell: according to the most reliable estimates, about 66% of professions will be replaced by machines.

Nevertheless, it is not said that man must necessarily be afraid of evolution, what distinguishes us from any other being is our cortical bark.

The cerebral cortex is a continuous laminar layer that represents the most outer part of the telencephalons in vertebrates. Formed by neurons and nerve fibres with a thickness of about 2-4 mm, the human brain cortex plays a central role in complex cognitive mental functions such as thought, awareness, memory, attention, and language.

The cerebral cortex is considered to be the most evolved and complex structure of all living systems and is precisely what allowed our species to survive.

According to different analyses, this will not be about job destruction, but transformation of professionalism.

The ONU, through the Unctad Report (United Nations Conference on Trade And Development) “Robot and Industrialization in Developing Countries”, reported that robotics will replace half of the jobs, in particular in Asia, Africa and Latin America.

In addition, according to the World Economic Forum, the evolution of work will result in the creation of 2 million new jobs, but at the same time 7 million jobs will disappear.

Despite these analyses, however, the opposite is widespread, that job losses are only a transitory drawback and that in the long run there will be many benefits.

According to Klaus Schwab, founder and executive of the World Economic Forum, robots and artificial intelligence will not replace human beings but will free them and give them more time to do other works, much more rewarding.

The real danger is that the drop in employment will be faster than the creation of new job roles. This can be avoided through a careful planning of our economies.

Another interesting point of view can be represented by Uber’s response to Sharan Burrow, Secretary General of the International Trade Union Confederation, following the accusations received.

Uber’s founders do not believe that they are destroying taxi drivers job market, but that they are making people free from slavery to work from 8 am to the evenings and not to have the possibility to manage their time freely.

A NEW WORKING CONCEPT

John Maynard Keynes already at the beginning of the twentieth century talked about “technological unemployment”, arguing that automation would progressively remove man from the labour market by replacing them with more efficient machines.

The direct consequence of this phenomenon is an increase in real income (net of inflation), which leads to an increase in demand in new sectors by opening up new occupational spaces. If until now “technological unemployment” is still a concern, the fear that from here to a near future what was predicted long time ago by Keynes could really happen is approaching.

The range of activities the machines can accomplish today is very wide and with time these will expand with cops, shopkeepers, barman, co-workers, attorneys, carers, bureaucrats and journalists for example.

In Hong Kong, a venture capital company, Deep Knowledge, has named in its board of directors an artificial technology called Vital, giving it the same voting right as all other components. This technology allows them to calculate the best investments.

The relationship between man and machine will completely change the concept of work.

One of the most positive performers will be the re-shoring phenomenon, which reverses the tendency of outsourcing to markets at a lower cost of labour.

Advanced technology automation is helping this change by allowing companies to remain competitive in terms of cost and to maintain production in their own country.

The Institute of the Future of Palo Alto (California, USA), a research institute specialized in long-term and quantitative research on the future, predicts that in a globalized and more and more computer-based world, phenomena such as automation, growth of online work and sharing economy are redesigning the job.

In an age of growing instability and uncertainty over the future of professions and works, it becomes increasingly important to acquire, develop and upgrade the skills needed to move flexibly and effectively through constantly changing contexts and working conditions.

Most likely the worst jobs will disappear, while those requiring soft skills and cross-skills will be the most demanding.

SKILLS FOR COMPETITIVE RETURNING

Researchers at Phoenix University have highlighted in a forward-looking research the new work-skills that will allow employee to remain competitive and that will have a growing weight in the future.

Here is a brief list:

  1. Social intelligence: includes communicative and relational skills, leadership, negotiation and conflict management;
  2. Adaptive thinking: ability to identify solutions beyond the predefined reference frames;
  3. Cross-cultural competence: ability to relate to multicultural contexts;
  4. Computational mentality: Flexible mentality with computational skills, i.e. the ability to organize abstract concepts from large amounts of data;
  5. New Media Skills: Media Capabilities and Persuasive Content Production.
  6. Transdisciplinary: ability to understand, integrate and apply aspects of different disciplines to your work;
  7. Design-oriented mentality: ability to graphically represent objectives and processes that are implemented to achieve them.
  8. Ability to collaborate in virtual environments: group work extended to virtual teams.
  9. Cognitive Load Management: Ability to filter, select and organize information appropriately (implies the ability to keep attention and concentration, as well as to shift the focus of attention in a functional way).
  10. Sense making: ability to “give meaning” to information and situations, grasping its profound meaning.

More and more important will be the management of your time, which will be recognized as a valuable asset of value. This will enable you to achieve and maintain a stable working situation while at the same time letting you to spend part of your time on private life.

 

Matteo Spiller