Exchange Traded Funds

In meno di 25 anni, gli Exchange Traded Funds (ETF) sono diventati uno dei più popolari veicoli di investimento passivo fra gli investitori professionali e quelliretail grazie ai loro bassi costi di transazione e alla liquidità quotidiana che essi garantiscono. Questa tendenza viene confermata dal seguente grafico: come si vede, gli investitori retail e quelli professionalisono i maggiori detentori di ETF, a cui seguono le banche private ed i brokers con percentuali più ridotte.

Evoluzione degli investitori in ETF

Dalla loro prima entrata in scena nel 1990, con il primo ETF introdotto dalla Toronto Stock Exchange, gli ETF sono stati protagonisti di una crescita spettacolare, alla fine del 2016 rappresentavano oltre il 10% della capitalizzazione di mercato dei titoli negoziati sulle borse statunitensi e oltre il 30% del volume complessivo degli scambi giornalieri.

Questo articolo ha come obiettivo quello di fornire, nella prima parte, una breve panoramica su cosa sono gli ETF e nella seconda parte invece, verranno riportate le ragioni di questa crescita e le cifre di questa tipologia di fondi.

 

page1image1833856

Fonte: Deutsche Bank ETF Research, Bloomberg Finance LP, FactSet.

 

Cosa sono gli ETF

Prima di fotografare la situazione degli ETF a livello globale, è necessario capire cosa sono. ETF è l’acronimo di Exchange Traded Fund, un termine con il quale si identifica una particolare tipologia di fondo d’investimento con due principali caratteristiche:

–  è negoziato in Borsa come un’azione;

– ha come unico obiettivo d’investimento quello di replicare l’indice alquale si riferisce, il cosiddetto benchmark, attraverso una tipologia di gestione passiva.Un ETF riassume in sé le caratteristiche proprie di un fondo e di un’azione, consentendo agli investitori di sfruttare i punti di forza di entrambi gli strumenti ovvero:

–  diversificazione e riduzione del rischio proprio dei fondi;

–  flessibilità e trasparenza informativa della negoziazione in tempo reale delle azioni.Di conseguenza, l’ETF consente di:

– prendere posizione in tempo reale sul mercato target con una sola

operazione di acquisto;
– realizzare l’identica performance dell’indice benchmark: l’ETF

cons ente di ottenere un rendimento pari a quello del benchmark di riferimento in virtù di una “gestione totalmente passiva”, ad esempio, replicando al suointerno esattamente la composizione ed i pesi dell’indice al quale si riferisce.

– avere un prezzo di mercato costantemente allineato al NAV (Net AssetValue);

– ottenere un’ampia diversificazione, infatti investire in un ETF significa prendere facilmente posizione su un intero indice di mercato, che facendo riferimento ad un paniere ampio di titoli, diversifica e diminuisce i l rischio dell’investimento.

– ridurre il costo del proprio portafoglio: gli ETF presentano una commissione totale annua ridotta e applicata automaticamente in proporzione

al periodo di detenzione, non sono previste altre commissioni a caricodell’investitore.

– beneficiare di proventi periodici (i dividendi o gli interessi che l’ETFincassa a fronte delle azioni/obbligazioni detenute nel proprio patrimonio possono essere distribuiti periodicamente agli investitori o capitalizzatistabilmente nelpatrimoniodell’ETF stesso)1.

I fattori che hanno favorito la crescita degli ETF

Una volta spiegato il meccanismo che sta dietro a questo veicolo di investimento, l’obiettivo è ora quello di descrivere la crescita dell’investimento passivo che, anche grazie ad una maggiore efficienza dei mercati finanziari, negli ultimi anni ha registrato dei flussi positivi, a differenze di quello attivo che invece s i trova sempre più in difficoltà.

page3image3814528

Fonte: Borsa Italiana

 

 

Il numero di ETF resta certamente ancora molto basso rispetto a quello dei fondi comuni tradizionali, ma la loro crescita rappresenta qualcosa di mai visto, così come la rapida nascita di tipologie di ETF con nuove caratteristiche e strategie di investimento. Grazie alla loro struttura, essi offrono agli investitori nuove opportunità e opzioni che prima non erano disponibili.

La diffusione degli Exchange Traded Funds è dovuta soprattutto alla riduzione dei costi di gestione; essi offrono infatti a chiunque la possibilità di eseguire una diversificazione ottimale del portafoglio a costi molto più bassi di quelli che i fondi tradizionali hanno richiesto per anni.

In un contesto caratterizzato da bassi rendimenti, il fattore costo viene considerato unodei driverprincipaliperottenere degli extra rendimenti rispetto alla media nel lungo periodo. Questo viene evidenziato da Vanguard che, in una recente ricerca, evidenzia quanto sia importante per un investitore l’impatto deicosti sul risultato finale. Il concetto centrale dello studio, da cui deriva la preferenza teorica che un investitore dovrebbe avere nei confronti degli Exchange Traded Funds, rispetto alle gestioni attive, risiede nella constatazione che il mercato può essere considerato come un gioco a somma zero. Dove in ogni istante il mercato è rappresentato dalla somma cumulata di ogni posizione mantenuta dagli investitori; ne consegue che il rendimento di mercato a livello aggregato è la somma dei rendimenti ponderati di ogni partecipante al mercato.

Riassumendo: per ogni singola posizione che per qualche ragione sovra performa l’indice di mercato, ci deve essere qualche altra posizione che lo sotto performa, in modo che la somma del gioco sia pari a zero, e dove la media, utilizzata per misurare le performance, è rappresentata dal rendimento dell’indice di mercato.

Ipotizzando la distribuzione dei rendimenti di mercato come una gaussiana nella quale il valore centrale è rappresentato proprio dal rendimento dell’indice eintroducendo i costi di transazione e tutte le voci di costo associabili ad un investimento, come ad esempio i costi di gestione e amministrazione, si ottiene uno slittamento verso sinistra di tale curva. Di conseguenza maggiori sono i costiche vengono applicati, maggiore sarà la riduzione di rendimento per l’investitoree la performance aggregata per gli investitori non sarà più a somma zero.

page5image3819680

Fonte: The Vanguard Group Inc.

 

Questo consente di evidenziare quanto i costi incidano in modo determinante: un investitore che intende minimizzare la possibilità di sotto performare il benchmark, potrebbe semplicemente limitarsi ad abbattere il più possibile i costi.

Con gli ETF che rappresentano il 3% dei costi totali e i fondi passivi, nel loro complesso, che registrano soltanto il 6% dei costi totali dell’intera industria, questa tipologia di prodotti di investimento sono destinati ad avere la meglio dato che dal punto di vista dei costi non hanno rivali.

Spese di gestione per ciascuna categoria

page5image3818784

Fonte: Boston Consulting Group 2018. Financial Times

 

L’industria degli ETF in cifre

Come riporta il provider di dati, ETFGI, le masse globali investite in fondi passivi superano i 5100 miliardi di dollari a fine luglio 2018, con un incremento degli asset del 5,9%, registrando da 4 anni e mezzo un periodo di nuovi apporti cons ecutivi.

A livello europeo invece, le masse di raccolta salgono a 827 miliardi di dollari (luglio 2018), con una crescita del 3,17% da inizio anno, con il tasso di crescita a 10 anni che si attesta appena sotto il 20% annuo. Come dimostra il grafico di seguito, dal 2008, c’è stata una crescita senza precedenti.

Fonte: ETFGI Dati inizio 2018.

Per quanto riguarda l’Italia, l’offerta è di 850 tipologie di ETF, con un patrimonio totale di circa 68 miliardi di dollari e una crescita costante negli ultimi anni; secondo gli operatori del settore, nel 2019 questa sarà ancora più rilevante.

Nell’industria mondiale i maggiori provider, in base ai dati di pubblicati daFactSet, s ono:

– BlackRock (iShares) con 1,4 trilioni di dollari di AuM (asset under management);

–  Vanguard con 918 miliardi di dollari di AuM;

–  State Street Global Advisors con 637 miliardi di dollari di AuM.

page6image3819456

Fonte: ETFGI Dati inizio 2018.

 

Di recente ha fatto molto discutere l’entrata come provider di J.P. Morganche, dopo anni in cui è rimasta fuori dal mercato degli ETF, ha iniziato a giocare unruolo da protagonista. Dall’inizio dell’anno il business degli ETF di J.P. Morgan è cresciuto dai 6,2 miliardi di dollari fino a 14,6 miliardi di dollari, una cifra irrisoria rispetto agli oltre 2 trilioni di dollari di AuM, che però consente di capire il cambio di strategia da parte di una delle maggiori banche a livello mondiale.

Non sono passati inosservati in particolare i tre ETF quotati da J.P. Morgan che hanno superato il miliardo di dollari in poco tempo dopo la loro quotazione. In particolare, due, gli ETF (JPMorgan Beta Builders Japan ETF (BBJP) e JPMorgan BetaBuilders Canada ETF (BBCA)), sono diventati i più veloci della storia a raggiungere una capitalizzazione pari al miliardo di dollari.

Conclusione

Dal primo decennio di questo secolo, gli ETF sono sicuramente protagonistidel grande cambiamento avvenuto nell’industria dell’asset management.

La semplicità ed i bassi costi hanno sicuramente avvantaggiato questa crescita rispetto ai fondi a gestione attiva. Secondo le stime di BlackRock, questa industria è destinata a crescere ancora nei prossimi anni, si stimano addirittura 12 trilioni di dollari investiti negli ETF nel 2023.

page7image3826176

Fonte: BlackRock, Global Business Intelligence, Aprile 2018.

Senza dubbio in futuro questi strumenti saranno oggetto di discussione sia peri regolatori che per gli esperti del settore visto che anche nei prossimi anni saranno fra gli strumenti di investimento più gettonati.

Blockchain: Rivoluzione in atto

Mai come oggi la tecnologia della “catena dei blocchi” sembra aver acquistato interesse e centralità.

Giorno per giorno le analisi di mercato esaltano la diffusione degli investimenti in tecnologie Blockchain indicando trend impressionanti.

Tra i report più recenti IDC (International Data Corporation) prevede per il 2018 una spesa mondiale pari a 2,1 miliardi di Dollari: più del doppio rispetto al miliardo sfiorato nel 2017, con una prospettiva di crescita media oltre l’80% annuo. E il World Economic Forum sostiene addirittura che il 10% del PIL mondiale sarà presto basato sulla tecnologia blockchain.

Le potenzialità di questa nuova tecnologia sono enormi, in gran parte ancora da sperimentare. È cruciale, dunque, esplorare le caratteristiche e le opportunità di una tecnologia che potrebbe essere il fattore chiave per arrivare al cosiddetto “Internet of value”, ossia a un mondo interconnesso che consente l’ottimizzazione in tempo reale di processi produttivi e attività economiche.

 

Cosa significa blockchain?

 

La Blockchain, della famiglia dei Distributed Ledger (i sistemi che permettono ai nodi di una rete di raggiungere il consenso sulle modifiche di un registro distribuito in assenza di un ente centrale), è una tecnologia che permette la creazione e la gestione di un grande database distribuito per la gestione di transazioni condivisibili tra più nodi di una rete.

Le informazioni dei database utilizzati in azienda sono tipicamente accentrate in un unico punto di accesso (e di vulnerabilità). Con la tecnologia blockchain la base di dati è invece distribuita in un insieme di nodi di una rete, tutti concatenati tra loro. Ciascun nodo ha il compito di vedere, controllare e approvare tutte le transazioni e ogni record viene memorizzato in modo tale da includere una quota di informazioni che fanno capo ad altri dati già immagazzinati in precedenza. Questo rende possibile la creazione di una rete che permette la tracciabilità di tutte le transazioni che, proprio per essere presenti su tutti i nodi della rete, sono immodificabili (se non attraverso la riproposizione degli stessi a tutta la rete) e immutabili. E la manomissione delle informazioni diventa così virtualmente impossibile.

 

La blockchain è, oltre a quanto è stato appena detto, la tecnologia alla base del Bitcoin, il re delle criptovalute, ossia le monete virtuali decentralizzate che utilizzano alcuni principi della criptografia per rendere sicuri gli scambi tra utenti: a differenza delle valute tradizionali, il governo non ha alcun controllo sulle cryptocurrencies e le regole di scambio sono indicate in un software open-source pubblicamente controllabile.

 

L’evoluzione della blockchain

 

Da gennaio 2009, data del debutto di Bitcoin, il mondo della blockchain ha conosciuto una profonda crescita ed evoluzione. Ciò che una volta era associato al mercato illegale e considerato solamente una moda, ha conosciuto una progressiva crescita di interesse, modificando l’approccio comune dei regolatori.

Successivamente sono nate altre piattaforme basate sugli stessi principi del Bitcoin: nel 2012 Ripple, per i pagamenti interbancari; nel 2014 Ethereum, per i contratti intelligenti; e nel 2015 Hyperledger per lo sviluppo collaborativo del registro distribuito.

Con l’inizio della moda blockchain, è cresciuta freneticamente la capitalizzazione del Bitcoin e delle altre valute e sono iniziate numerose sperimentazioni. Oggi, infatti, qualsiasi settore può beneficiare dall’applicazione di soluzioni blockchain.

 

L’espansione della blockchain

 

Secondo i dati dell’Osservatorio Blockchain & Distributed Ledger della School of Management del Politecnico di Milano, sono 331 i progetti basati sulla blockchain censiti a livello internazionale da gennaio 2016 ad oggi.

I principali campi di applicazione della tecnologia sono il tracciamento e supply chain, la gestione dati e documenti e i processi nei sistemi di pagamento e sei progetti su dieci riguardano il settore finanziario.

Ma la tecnologia si sta diffondendo in numerosi altri ambiti applicativi ed è in piena espansione: nel 2017 le sperimentazioni della blockchain avviate o in fase di “Proof of concept” nelle imprese sono cresciute del 73% rispetto all’anno precedente e gli annunci si sono spinti fino al 273% in più. In particolare, le applicazioni della blockchain hanno riguardato, oltre che alla finanza, anche l’attività di governo (il 9%), della logistica (7,2%), delle utility (3,9%), dell’agrifood (3%), delle assicurazioni (2,7%), fino ai media (1,8%) e alle telecomunicazioni (1,2%).

Il 2017, secondo IDC, è stato l’anno per sperimentare la Blockchain negli ambiti più diversi, ma sarà proprio il 2018 l’anno del passaggio delle sperimentazioni limitate alle implementazioni complete. Governi e banche centrali di tutto il mondo hanno già iniziato a studiare il fenomeno blockchain e a oggi si contano più di 30 progetti con l’obiettivo di rendere più efficienti monete e sistemi di pagamento.

Tra i più interessanti c’è sicuramente quello riguardante gli “smart contracts”, ovvero contratti intelligenti espressi in codice in cui il modello transazionale criptato serve ad accertare automaticamente la realizzazione di tutti gli adempimenti previsti. Un’incredibile opportunità per le parti di portare avanti i loro affari, facendo a meno di notai, giudici e pubblici ufficiali e affidandosi a un trust di fiducia distribuito che assicura la legittimità e la correttezza delle operazioni.

 

Blockchain in Italia

 

I Paesi dove la blockchain e i bitcoin si stanno diffondendo sono sempre più numerosi e l’Europa gioca un ruolo importante nello sviluppo di queste tecnologie. Ad oggi la Commissione europea ha, infatti, investito più di 80 milioni di euro per lo sviluppo della blockchain e ne sono previsti circa altri 300 milioni entro il 2020. L’Italia, malgrado la presenza di una solida comunità di sviluppatori, è tra i Paesi più indietro su questo fronte ed è stata, fino ad oggi, una delle grandi escluse dell’accordo europeo sulla blockchain. Il ministro del Lavoro e dello Sviluppo economico Luigi Di Maio ha, però, siglato poche settimane fa l’adesione dell’Italia alla “European Blockchain Partnership”, una iniziativa tra gli Stati membri che punta a favorire lo scambio di competenze e di expertise, in campo tecnico e normativo, al fine di aiutare a creare nuove opportunità di business.

Questa nuovo accordo può, quindi, essere l’occasione per promuovere iniziative e progetti riguardanti blockchain, intelligenza artificiale e Internet of things in Italia. Un aspetto molto rilevante per le aziende italiane, visto che quest’ultime sono spesso un’eccellenza sui temi dell’innovazione e come spiega Valeria Portale, direttrice dell’Osservatorio Blockchain del Politecnico di Milano, “la blockchain potrebbe avere un impatto notevole per il made in Italy in termini di tracciabilità e di anticontraffazione: è necessario non rimanere fermi per evitare un gap di competenze difficile da colmare.”

 

Andrea Pellizzer

 

Fundraising europeo a quota 91.9 miliardi: è il livello più alto dal 2006

I settori del private equity e del venture capital in Europa sono decisamente in crescita, con 8000 fondi di investimento e 250 000 operazioni tracciate nel 2017; a dirlo sono Invest Europe e Private Equity Monitor, i principali report sul mercato degli investimenti in capitale di rischio.

 

 

Il totale raccolto attraverso l’attività di fundraising nel 2017 ha raggiunto la più alta cifra dal 2006 pari a 91.9 miliardi di euro, con un incremento del 12% annuo; il numero di fondi che raccolgono nuovi capitali è aumentato del 15%, raggiungendo le 542 unità.

Il 29% di tutto il capitale raccolto è stato fornito dai fondi pensione; seguono i funds of funds con una quota pari al 20%, i family offices & private individuals con il 15%, i fondi sovrani che contribuiscono per il 9% e le compagnie di assicurazione per l’8%.

Gli investitori istituzionali non europei hanno contribuito per più del 40%, con gli investitori asiatici che hanno conferito una quota pari al 15% del totale, rappresentando ad oggi i soggetti maggiormente interessati all’attività.

 

Anche il Venture capital europeo è cresciuto del 34% raggiungendo la notevole cifra di 6.4 miliardi di euro e superando il picco del 2008 di oltre il 13%, con più di 3800 imprese che ne hanno beneficiato.

Sono cresciute, inoltre, le dimensioni medie dei fondi venture capital, con 100 milioni di final closing e con un conseguente aumento dei round di investimento e del numero di “unicorni” europei, ossia delle aziende che, nell’arco del breve periodo, sono riuscite a conquistare un patrimonio capitale di oltre un miliardo di euro.

 

La situazione in Italia

In Italia gli investimenti in capitale di rischio sono ancora in fase embrionale. Secondo il report AIFI (Associazione Italiana del private equity, venture capital e private debt) nel 2017 sono stati raccolti quasi 5 miliardi di Euro (ovvero il 5% del totale europeo), con una decrescita degli investimenti del 40% rispetto all’anno precedente.

Sebbene nel 2017 l’ammontare investito nel mercato italiano del private equity e del venture capital sia stato il terzo valore più alto raggiunto negli ultimi dieci anni (dopo quanto conseguito dall’Italia nel 2016 e nel 2008), il risultato è stato raggiunto poiché tre fondi (F2i Sgr, QuattroR Sgr e Fondo italiano d’Investimento Sgr) hanno investito da soli un importo superiore a oltre 4 miliardi di Euro, pari all’82% della raccolta complessiva italiana. In totale è diminuito del 3%  anche il numero delle operazioni, passando a 311. Il 2016 aveva contato 322 operazioni per un totale di 8.2 miliardi di Euro di investimenti, un record assoluto, trainato, però, da 17 large e mega-deal.

 

 

In aggiunta, nel 2017, c’è stata una diminuzione degli investimenti iniziali in nuove startup del 38%, con 57 investimenti contro i 92 del 2016. Le ragioni di tale decrescita sono legate al fatto che alcuni operatori internazionali nel 2017 erano ancora in fase di fundraising, e quindi non hanno chiuso i loro investimenti.  In secondo luogo, diversi operatori hanno concentrato le proprie attività dell’anno scorso in operazioni di “follow on”, ovvero negli investimenti dedicati ai round successivi al primo, che sono passati nel 2017 a 21, rispetto ai 10 dell’anno precedente.

Anna Gervasoni, che presiede il Comitato Scientifico del Venture Capital Monitor, però afferma: “Il 2017 vede una crescita dei follow on, segno che l’attività del fondo di venture capital non si limita a un semplice investimento iniziale, ma è l’avvio di un percorso che vede l’affiancamento dell’operazione al progetto”.

Tale attività, secondo Gervasoni, potrà quindi permettere alle società di affermarsi nel proprio mercato di riferimento.

Da sottolineare invece come sia cresciuto il numero di operazioni di disinvestimento, toccando il suo massimo storico nel 2017 (202 operazioni) per un controvalore di 3.7 miliardi di Euro.

 

Conclusione

Il panorama del foundraising europeo cresce nei singoli paesi, ad eccezione dell’Italia dove lo scenario risulta essere decisamente scoraggiante, con una raccolta fondi pari ad appena il 5% del totale europeo.

L’attività di private equity è ancora limitata rispetto alla dimensione economica del nostro paese e il bisogno di capitale di rischio risulta essere sempre più evidente a causa della necessità delle nostre aziende di crescere e di investire in un mercato sempre più competitivo.

Il Fondo Europeo degli Investimenti e la Commissione Europea hanno da poco lanciato una nuova eccellente iniziativa di sistema, con lo scopo di rafforzare gli investimenti nell’innovazione e nel capitale di rischio, arrivando a mobilitare fino a 6.5 miliardi di Euro. Secondo Innocenzo Cipolletta, il presedente di AIFI, la piattaforma di ITAtech, realizzata da Cassa Depositi e Prestiti per supportare i processi di cambiamento tecnologico, l’iniziativa “permetterà il moltiplicarsi di progetti che riceveranno fondi e potranno quindi affermarsi nel mercato internazionale”.

Ecco quindi un nuovo fiorire di brillanti iniziative, anche nel nostro Paese, da cui ripartire per scendere in campo e correre assieme alle grandi d’Europa.

 

Andrea Pellizzer

Cosa significa realmente fare Startup?

Nel mondo, nove startup su dieci non sopravvivono ai primi tre anni di attività.

Delle tante startup che non ce l’hanno fatta, soprattutto in un una società come la nostra dove il fallimento è visto negativamente, non rimane traccia e queste chiudono i battenti nel silenzio generale. Ciò accade perché la nostra mentalità, influenzata forse da un eccessivo ottimismo, vede il fallito come un perdente e molto difficilmente gli concede una seconda possibilità, ripartendo dai propri insuccessi e imparando dagli errori commessi.

 

Nella cultura americana, l’approccio al fallimento viene invece considerato positivamente, un po’ come una lezione dalla quale imparare e ripartire. Ciò significa che se non ci si è riusciti, si può sempre riprovare fino ad arrivare all’obiettivo. La chiave del successo dei grandi imprenditori digitali della Silicon Valley si basa proprio sul mantra degli startupper “Try again. Fail again. Fail better”, che incarna l’obiettivo di avvicinarsi al risultato desiderato facendo tesoro delle sconfitte.

Un fallimento, infatti, non deve mai essere considerato come la fine di un percorso, ma piuttosto un incipit per cogliere nuove opportunità, sfruttando i propri errori e considerandoli occasione di crescita. Come ci insegnano molte storie di uomini di successo, bisogna non arrendersi anche quando nessuno crede più nel tuo talento. Il creatore di “Topolino” e di “Alice nel paese delle meraviglie”, Walt Disney, fu licenziato nel corso del suo primo impiego come disegnatore di fumetti perché dimostrava “mancanza di idee e di immaginazione”. Ma anche Charles Darwin, lo scienziato che avrebbe svelato la teoria dell’evoluzione, era considerato dalla famiglia e dai suoi compagni come un fannullone che sognava ad occhi aperti. Oggi nessuno metterebbe in discussione le capacità di questi uomini che hanno influenzato fortemente le vite di tutti noi, ma un tempo così non è stato. Loro però, hanno saputo resistere alle difficoltà, non si sono persi d’animo e hanno capito che era giunto il momento di cambiare e ripartire.

 

Il coraggio, la motivazione e la convinzione che spinge ad operare sono anche i principali fattori che alimentano il successo di una startup.

Nella fase di avvio della stessa non ci sono certezze di ritorno sull’investimento: sacrificare i propri risparmi, il proprio tempo e la propria vita privata potrebbe non ricompensare gli sforzi fatti. Inoltre, ottenere dei finanziamenti non è facile. Secondo i dati di StartupItalia! nel 2017 nel contesto nazionale a fronte di un incremento del numero di startup (arrivato a 8300), c’è stata una caduta degli investimenti del 23 per cento (pari a 41 milioni di euro) rispetto al 2016. In tutto questo c’è da considerare che la startup dei pagamenti online, Satispay, che ad agosto 2017 ha chiuso il round più significativo dell’anno (pari a €18 milioni), raccogliendo quanto tutte le altre hanno ricevuto nello stesso trimestre. In ogni caso, i finanziamenti non mettono le startup al riparo dai fallimenti: Juicero, Beepi e Quixey sono solo alcuni casi di realtà che, pur avendo ricevuto finanziamenti di milioni da banche e venture capitalist, hanno dovuto comunque chiudere i battenti.

Una startup però, può anche essere autofinanziata, passo dopo passo, con i propri mezzi, creando risultati duraturi. Se l’obiettivo invece è quello di ottenere risultati in fretta è molto probabile che ciò non accada, perché ambire a tale scopo tralascia quello che è il vero successo di un’azienda: produrre valore.

 

Secondo alcune statistiche nei prossimi dieci anni l’indice azionario Standard & Poor’s 500, l’indice che segue l’andamento delle 500 aziende statunitensi a maggiore capitalizzazione, la metà di esse, oggi leader nel mercato, scomparirà e verrà sostituita da nuove realtà.  Questo perché viviamo in un mondo che cambia alla velocità della luce e il progresso tecnologico, che impatta sui processi aziendali delle imprese, permette alle stesse di entrare nel mercato ad una velocità maggiore. Le nuove startup dovranno dunque essere in grado di creare una cultura aziendale orientata all’innovazione e alla ricerca, virando su nuovi prodotti, nuovi servizi e nuove curve di valore.

 

Andrea  Pellizzer

UN BULL MARKET DA RECORD

Fonte: MacroTrends; Yardeni Research; Thomson Reuters 

 

Il 22 agosto 2018 il mercato azionario statunitense, misurato dall’indice S&P 500, ha raggiunto un traguardo storico: 3453 giorni senza subire dei cali pari o superiori al 20% che lo avrebbero associato ad un mercato ribassista (bear market).

 

Dai minimi di 666 punti raggiunti il 9 marzo del 2009 il mercato è stato quindi un bull marketper il periodo più lungo della storia superando il precedente record che duro dal 1990 fino al 24 marzo 2000 e che registrò un rialzo del 417% in 113 mesi.

 

L’ultima maratona di Wall Street ha portato l’indice dello S&P 500 a un incremento del 324,6%, creando oltre 18 trilioni di dollari. Su base annua questo si traduce in un guadagno del 16,5% circa, contro una media storica del 22% per i mercati rialzisti. Solo il rallyavvenuto dopo la Grande Depressione durante gli anni tra il 1932 e il 1937 si distingue su tutti registrando un aumento record del 35,5%.

 

A contribuire come protagonista a questo exploit è stato il settore tecnologico, che ha contribuito per un ampio 22% ai guadagni registrati durante il periodo di bull market. In particolare, sono le cosiddette FAANG (Facebook, Amazon, Apple, Netflix e Alphabet/Google), ad aver contribuito in maniera consistente alla performance da record. Di seguito si allega un grafico che illustra l’enorme crescita delle FAANG negli ultimi anni.

 

 

Fonte: Financial Times

 

Tra i fattori che hanno favorito questa espansione vi sono sicuramente l’aumento costante degli utili societari, l’espansione monetariae il cosiddetto buyback.

 

Gli utilisocietarihanno trainato il mercato azionario con una crescita continua per nove anni e mezzo; costantemente rivisti al rialzo, non hanno mai fatto registrare segnali di avvicinamento alla fine del ciclo: nei 35 trimestri totali, 30 sono stati caratterizzati da un incremento.

 

La ripresa del mercato azionario corrisponde parallelamente a un periodo di espansione monetaria senza precedenti, ottenuta grazie alle misure operate dalla Federal Reserve. Mantenendo bassi i tassi d’interesse, la Fed ha dato ampio spazio di manovra alle aziende, favorendo così le acquisizioni e la possibilità di reinvestire nella ricerca e sviluppo.

 

Un altro fattore rilevante nella crescita del mercato statunitense è da ritrovarsi nel riacquisto delle proprie azioni da parte delle aziende, il cosiddetto fenomeno del buyback. L’enorme liquidità affluita sui mercati borsistici e i bassi tassi di interesse hanno favorito questo tipo di operazione, che supporta la quotazione dei titoli sostenendone la domanda sul mercato.

Il grafico seguente illustra i volumi di buyback registrati dalle aziende, evidenziando l’incremento notevole avvenuto negli ultimi anni.

 Fonte: Financial Times

 

La parte finale di questo mercato rialzista è stata favorita e alimentata anche dalla riforma fiscale approvata dal presidente Trump alla fine del 2017.

 

In pochi avrebbero scommesso che alla peggiore crisi finanziaria dopo quella della Grande Depressione degli anni ’30, sarebbe seguita una corsa record del mercato azionario. Gli scettici che prevedevano un freno alla corsa dell’azionario evidenziando il rallentamento della crescita cinese, l’aumento dei tassi di interesse statunitensi e le maggiori tensioni commerciali, si sono dovuti ricredere.

 Ora ci si domanda se e quando una nuova recessione arriverà. Secondo Bank of America Merryl Lynch, con la riduzione degli asset comprati dalle banche centrali che rispettivamente erano di 1,6 mila miliardi di dollari nel 2016, 2,3 mila miliardi nel 2017 e 0,16 mila miliardi nel 2018, ci sarà una transizione dal Quantitative Easing al Populist easing. Una serie di politiche keynesiane volte a redistribuzione e protezionismo. E questo tipo di transizione sarà poco favorevole agli asset finanziari.

 

Alin Pascu

 

LA BCE DETTA LE NUOVE REGOLE DI VALUTAZIONE DEGLI NPLs

Articolo di Andrea Tosatto
 

Il legislatore europeo sta aggiornando i parametri di valorizzazione dei crediti in bilancio per le banche europee rendendoli più stringenti. Le linee guida della BCE sulla gestione degli NPL prevedono la necessità di predisporre adeguati accantonamenti e riduzioni per le esposizioni deteriorate in tempi brevi con l’obiettivo di rendere i bilanci bancari più solidi e di permettere alle banche di erogare maggiore credito.

L’Addendum predisposto da BCE si pone come fine quello di integrare queste linee guida sugli NPL, rendendole come detto più stringenti e stimando dei livelli minimi prudenziali di accantonamento per le esposizioni deteriorate. Le stime per gli accantonamenti tengono ora conto anche dell’ammontare di tempo per cui un’esposizione è definita deteriorata dall’istituto, distinguendo tra quelle garantite e quelle non garantite. L’Addendum predisposto dalla Banca Centrale Europea prevede quindi delle svalutazioni più elevate per quei crediti considerati dalle banche come deteriorati da un certo numero di anni e non garantiti. Quest’ulteriore regolamentazione è stata introdotta per evitare che elevati importi di NPL con scarse garanzie rimanessero iscritti nei bilanci bancari per un numero eccessivo di anni; si ritiene infatti che i crediti deteriorati debbano essere aggregati in modo tempestivo per via dei loro effetti dannosi sull’economia. Le regole aggiuntive dettate nell’Addendum sugli NPL si applicano a tutte le banche significative sottoposte a vigilanza diretta da parte della BCE; queste non intendono sostituire le regole dettate dalle linee guida e dalle altre disposizioni e non sono vincolanti per le banche che devono però motivare la mancata applicazione e il mancato raggiungimento dei requisiti minimi richiesti.

La disciplina definita nell’Addendum in un certo senso rivoluziona il trattamento degli NPL, prevedendo che, a partire dall’1 aprile 2018, tutti i crediti in bonis che verranno riclassificati come deteriorati saranno considerati Non Performing Loans e, per questo, soggetti a vigilanza prudenziale. Queste disposizioni non sono vincolanti per le banche ma rientrano nelle aspettative della BCE; dal punto di vista quantitativo, queste regole prevedono che, per le esposizioni non garantite, dopo due anni dalla riclassificazione a NPLs sia prevista un accantonamento del 100%. Per quanto riguarda invece gli NPL garantiti l’Addendum segue un approccio più graduale a partire dal terzo fino al settimo anno (si veda la tabella in calce per lacopertura delle esposizioni deteriorate proposta nell’Addendum sugli NPL e l’immagine per il funzionamento del meccanismo previsto dall’Addendum). Le disposizioni previste dall’Addendum della BCE non prevedono però degli automatismi nell’applicazione delle regole sopra esposte bensì delle valutazioni caso per caso sulle diverse situazioni; le banche europee soggette alla disciplina dell’Addendum avranno un periodo tempo per adeguarsi alle aspettative delineate dalla BCE, la disciplina sarà infatti applicata da aprile 2018 ma la vigilanza in materia scatterà dal 2021.

 

Le regole definite nell’Addendum saranno applicate come detto in uguale misura in tutte le banche significative dell’UE, anche a quelle italiane. Si rende quindi necessario comprendere e definire quale sarà l’impatto dell’Addendum anche per le nostre banche; secondo recenti stime il costo per le banche significative italiane sarà al massimo di circa 4.5 miliardi di Euro. L’effetto è sicuramente minore rispetto a quello stimato appena dopo l’introduzione delle regole dettate nell’Addendum; merito sicuramente di alcuni fattori che hanno contribuito a ridurre gli accantonamenti inizialmente previsti. Innanzitutto il lavoro fatto dalle banche italiane sui loro bilanci che hanno proceduto preventivamente a ridurre in questi mesi le esposizioni deteriorate ha portato a ridurre gli accantonamenti inizialmente stimati. Il miglioramento generale delle condizioni economiche in Italia, l’applicazione dei nuovi principi di valutazione contabile definiti dall’IFRS 9 e la riduzione del flusso di nuovi NPL hanno contribuito a raggiungere questo risultato.

 

È quindi in una situazione di redditività discendente e volatile e in cui è però molto difficile per gli istituti implementare delle possibili soluzioni e innovazioni che si può contestualizzare il sistema bancario italiano dei nostri giorni. La nota positiva è che nel complesso il sistema bancario ha retto alla crisi economica e gli stress test europei lo confermano, anche se permangono le difficoltà nella gestione degli NPLs.

Views of the future: Impact of technology on employment and human life

It is clear that one of the main and most important discussion issues nowadays, is the impact of technology in our life. Not only talking about the people involved in science or technology, but the daily life of the common of the people. Weather we talk about smartphones, computers or software; it seems that technology has come to every aspects of our lives, and it will stay for good.

While we are getting used to the newest technology in the market, another version or a replacing technology emerges at the time, and the speed of improving doesn’t seem to slow down. In fact, it is more likely that the speed of new technology creation augments instead of slowing down, and this is because with the help of more and more technology it becomes easier to create more. It is more or less like having better tools, to create better results.

And one of the crucial issues on the matter is the rising of Artificial Intelligence, or AI as it will be referred. AI is very sophisticated software or device, which has the capability of reprograming itself for better achieving the results for which it was created for. And this is why it is said that it is capable to “learn”, because through experimentation it is capable to improve itself.

The rise of AI is of particular importance, because it is said to have the capabilities to reshape the world where we live. It is that important, that the World Economic Forum has called it the 4th industrial revolution, which it is going to be characterized by the presence of these super intelligent machines in the productive sector. And every aspect of human life is said to be involved. As far as today, AI devices are capable of producing their own art, such as music and paintings. AI from Google and Facebook are said to have produce their own language. In the finance sector, AI is used to stock trading.

And this is, because with more and more reliability in machines, the role of human being in the productive sector is reduced, or replaced. Many of the current professions are said to disappear, or to be replaced. First, mechanical or relatively easy jobs, and later on more complex professions, such as professors, lawyers or even doctors or engineers. Of course, this is not going to happen immediately, and the timing for it to happen depends on many forthcoming factors.

All of these suppositions have a strong impact on the job market, and in the general view of the future from the part of the population. And the big question is, is it fair to replace human beings with machines? If a machine, robot or software is able to fulfill a task in a better, faster and with less cost, is it bad to replace human beings in the productive field? In fact, recently there was a scandal because certain CEO’s of fast food chains have publicly said that they were happily to replace the human workers for robots. But isn’t it the job of the firm to look for their own interests?

We are not worried per se about losing our jobs; we are worried about income and relevance uncertainty. Because most of the tasks that can be replaced by machines are considerate as “work”, job or effort, and human nature is in a constant search for reducing the effort that needs a task to be fulfilled. In fact, one of the main differences to differentiate the leisure time from the working time is the same that we human beings have in comparison to machines: is the capability to enjoy. A task is considerate as a job if it takes effort, otherwise if we enjoy it is leisure time. One of the ways of defining work is the trade of time, effort and abilities for a wage, and thus exchanging time that could be used as leisure, or achieving different kind of goals. Because the machines don’t have the capability to enjoy things, the difference in the exchange of leisure and working time does not apply to them.

In the first half of the 20th century, John Maynard Keynes, considerated one of the greatest minds in the economical science, had a very particular vision of the working week of the future. He believed, that with the help of the machines, we would only have to work very reduced times, such as 15 hours per week. Human basic needs, as well as resources would be easily fulfilled with the help of the machines, and humanity would could focus on the

development of human spirit, occupying our times with arts, sports or basically anything that we want to do to heighten our human condition.
Was Keynesian view of the future wrong, or should we still have to aim for it with the help of AI? And most important, are these wishes for society still relevant?

But current views of the future does not seem that positive, and instead of thinking in a world with less effort and more of free time, we tend to look at the future as a place with the need of more skills in order to be able to perform in the next job market. Humanity is not worried about losing the jobs per se, is worried about losing the relevance in the productive field, and thus losing the income. In this technological world, the owners of the technology would be the ones who get the profits. In this technological world, inequality would become bigger and bigger, because it would be harder to compete against more and more sophisticated technology. And the owners of this technology would be the ones to take profits out of it, being mainly big companies.

And this is what we are seeing in the modern world with the big companies such as google, apple and Microsoft. Because of the wealth belongs to the ones who own the production means, it would be harder to compete against this technology.

Inequality is as well one of the main topics in the global agenda nowadays. Inequality comes with a wide range of consequences, some of them good some of them bad. For example, historically seen many of the causes of the revolutions have its causes on inequality, such as the French and Russian revolution. Inequality fosters the crime, violence and competitiveness in a society, but as well inequality is considerate to have a positive impact in the economic growth of a society. After a Credit Suisse study, the 1% of the population holds the 48% of the global wealth in the world.

Because of the tight link between the welfare of society, politics and government, one of the main tasks of the public sector is to maximize social welfare. And this includes the state position regarding inequality of the population, applying or not measures to control it, which is again one of the main discussions in the public economic sector.

Is it fair to apply taxes to those who produce more to help the ones who have the less? Why should we help to those who do not make an effort? Isn’t it the very objective of human work, to have a reward because of our own effort?

All of this are hypothetical situations, but if technology continues with its exponential growth soon we are not going to be dealing with technological issues, but instead with social and ethical issues regarding employment, and inequality. Our problems are not going to be related about the production of resources, but rather their distribution.
A right or wrong answer to this kind of issues does not exist. We can only think of a better implementation of the public policies, and this are going to be the ones who favorites the most of individual of a given society, and at the same time help to grow the economic growth. Because of the nature of these social issues, the main dilemma remains an ethical one, and the best way to produce a better response is with a better understanding of current circumstances. And most important of all, is by not forgetting that the ultimate goal of economics is to improve people’s everyday life.

 

Abraham Anchondo
Ca Foscari Student, QEM Master Program

Future’s Work: Threats and Opportunities

THE FUTURE TECHNOLOGIES AND THE BIG OF THE SILICON VALLEY

Our lives are changing faster and faster, every day there are new types of technologies and it is nearly impossible to assimilate all the information regarding these topics.

Following the evolution of technologies has become essential and not doing so would mean to be excluded from the society in which we live.

From today to the next 5 years, the hot topics will be: Hyperloop, self-driving car, mind sharing, helpful home, sharing economy, self-tracking, quantified self, nano architectures, apple pay, cinematic reality, car-to-car communication, project loon, liquid biopsy, brain organoids, superhuman photosynthesis, large-scale desalination, DNA internet, neuro-hacking, quantum, nanotechnology, darker networks, universal translators, avatars, robots, fuel cell vehicles, thermosetting recyclable plastic, genetic engineering, additive manufacturing, distributed production, drone “sense and avoid “, neuromorphic technology, digital genome, digital assistants, free internet for all, quantum computers, space vacations, ultra-reality, disease prevention, x-ray, big date and pollution control.

These are just some of the topics we’ll have to deal with, many of them, although they have been developing for some years, may be still unknown to most readers.

Getting informed has become essential in order to adapt ourselves in the best way.

We are faced with an unprecedented technological revolution: in order to stay updated it is necessary to follow people that are doing the future right now. Silicon Valley’s Big 9 are Peter Shankman (founder of Haro), James Altucher (entrepreneur, podcast and author), Alec Cross (former senior consultant of Hilary Clinton and author), Mariam Naficy (Minted.com CEO and board member of Yelp), Chamath Palihapitiya (Chief Financial Officer), Kevin Rose (Hodinkee’s CEO and Digg’s co-founder), Sam Rosen (CEO of MakerSpace), Andrew Torba (AutomateAds.com) and Tim O’Reilly (founder and CEO of O’Reilly Media).

TECHNOLOGY AND THE WORLD OF WORK

Surely, one of the most disruptive technology on the working world will be robotics. The ONU has even launched an alarm bell: according to the most reliable estimates, about 66% of professions will be replaced by machines.

Nevertheless, it is not said that man must necessarily be afraid of evolution, what distinguishes us from any other being is our cortical bark.

The cerebral cortex is a continuous laminar layer that represents the most outer part of the telencephalons in vertebrates. Formed by neurons and nerve fibres with a thickness of about 2-4 mm, the human brain cortex plays a central role in complex cognitive mental functions such as thought, awareness, memory, attention, and language.

The cerebral cortex is considered to be the most evolved and complex structure of all living systems and is precisely what allowed our species to survive.

According to different analyses, this will not be about job destruction, but transformation of professionalism.

The ONU, through the Unctad Report (United Nations Conference on Trade And Development) “Robot and Industrialization in Developing Countries”, reported that robotics will replace half of the jobs, in particular in Asia, Africa and Latin America.

In addition, according to the World Economic Forum, the evolution of work will result in the creation of 2 million new jobs, but at the same time 7 million jobs will disappear.

Despite these analyses, however, the opposite is widespread, that job losses are only a transitory drawback and that in the long run there will be many benefits.

According to Klaus Schwab, founder and executive of the World Economic Forum, robots and artificial intelligence will not replace human beings but will free them and give them more time to do other works, much more rewarding.

The real danger is that the drop in employment will be faster than the creation of new job roles. This can be avoided through a careful planning of our economies.

Another interesting point of view can be represented by Uber’s response to Sharan Burrow, Secretary General of the International Trade Union Confederation, following the accusations received.

Uber’s founders do not believe that they are destroying taxi drivers job market, but that they are making people free from slavery to work from 8 am to the evenings and not to have the possibility to manage their time freely.

A NEW WORKING CONCEPT

John Maynard Keynes already at the beginning of the twentieth century talked about “technological unemployment”, arguing that automation would progressively remove man from the labour market by replacing them with more efficient machines.

The direct consequence of this phenomenon is an increase in real income (net of inflation), which leads to an increase in demand in new sectors by opening up new occupational spaces. If until now “technological unemployment” is still a concern, the fear that from here to a near future what was predicted long time ago by Keynes could really happen is approaching.

The range of activities the machines can accomplish today is very wide and with time these will expand with cops, shopkeepers, barman, co-workers, attorneys, carers, bureaucrats and journalists for example.

In Hong Kong, a venture capital company, Deep Knowledge, has named in its board of directors an artificial technology called Vital, giving it the same voting right as all other components. This technology allows them to calculate the best investments.

The relationship between man and machine will completely change the concept of work.

One of the most positive performers will be the re-shoring phenomenon, which reverses the tendency of outsourcing to markets at a lower cost of labour.

Advanced technology automation is helping this change by allowing companies to remain competitive in terms of cost and to maintain production in their own country.

The Institute of the Future of Palo Alto (California, USA), a research institute specialized in long-term and quantitative research on the future, predicts that in a globalized and more and more computer-based world, phenomena such as automation, growth of online work and sharing economy are redesigning the job.

In an age of growing instability and uncertainty over the future of professions and works, it becomes increasingly important to acquire, develop and upgrade the skills needed to move flexibly and effectively through constantly changing contexts and working conditions.

Most likely the worst jobs will disappear, while those requiring soft skills and cross-skills will be the most demanding.

SKILLS FOR COMPETITIVE RETURNING

Researchers at Phoenix University have highlighted in a forward-looking research the new work-skills that will allow employee to remain competitive and that will have a growing weight in the future.

Here is a brief list:

  1. Social intelligence: includes communicative and relational skills, leadership, negotiation and conflict management;
  2. Adaptive thinking: ability to identify solutions beyond the predefined reference frames;
  3. Cross-cultural competence: ability to relate to multicultural contexts;
  4. Computational mentality: Flexible mentality with computational skills, i.e. the ability to organize abstract concepts from large amounts of data;
  5. New Media Skills: Media Capabilities and Persuasive Content Production.
  6. Transdisciplinary: ability to understand, integrate and apply aspects of different disciplines to your work;
  7. Design-oriented mentality: ability to graphically represent objectives and processes that are implemented to achieve them.
  8. Ability to collaborate in virtual environments: group work extended to virtual teams.
  9. Cognitive Load Management: Ability to filter, select and organize information appropriately (implies the ability to keep attention and concentration, as well as to shift the focus of attention in a functional way).
  10. Sense making: ability to “give meaning” to information and situations, grasping its profound meaning.

More and more important will be the management of your time, which will be recognized as a valuable asset of value. This will enable you to achieve and maintain a stable working situation while at the same time letting you to spend part of your time on private life.

 

Matteo Spiller

Criptovalute e Blockchain: cosa sono e perché sono interessanti

Le criptovalute, nell’ultimo periodo, hanno generato una grande eco e attirato molta attenzione – da parte di addetti al settore finanziario ma non solo – grazie al particolare andamento sui mercati. Tuttavia, in molti ancora non sanno cosa sono. Le cryptocurrencies, come sono chiamate nei paesi anglofoni, sono valute digitali o virtuali che basano la loro implementazione e la convalida delle transazioni sui principi della crittografia. Queste valute sono per natura anonime e decentralizzate, per cui, non essendo rilasciate da enti governativi di nessun tipo, sono teoricamente immuni a qualsiasi manovra.

Le valute

Al luglio 2017, esistono circa 1.000 valute digitali differenti. Le più note sono il Bitcoin, l’Ethereum e il Litecoin. Il funzionamento di queste è strettamente legato alla crittografia e alla tecnologia della blockchain, che potrebbe rivoluzionare moltissimi settori disintermediandoli.

Ma come funziona concretamente? Perché vengono eliminati i “classici” rischi che si possono avere su internet, come ad esempio attacchi hacker e perdita di dati? Come viene assicurata la certezza della proprietà e come si evita il fenomeno del double-spending? Tutto questo e molto altro è garantito dalla blockchain, il cui meccanismo, ideato all’inizio per il Bitcoin, è replicato in modo simile da tutte le altre valute digitali.

Il funzionamento della blockchain

La blockchain, in poche parole, non è altro che un libro mastro dove sono iscritte tutte le transazioni che avvengono tramite BitcoinL’integrità, la correttezza e l’ordine cronologico delle transazioni sono confermate e protette da un sistema che si basa sulla crittografia.

Per prima cosa, bisogna sottolineare che la blockchain è un database distribuito, e che quindi non è localizzato localmente su un solo server, ma su più macchine contemporaneamente: potenzialmente tutti i computer collegati alla rete. Questa caratteristica è fondamentale per la sicurezza, in quanto sarebbe necessario attaccare tutti i computer contemporaneamente per hackerare la base di dati e modificarle. La forza di questo sistema sta proprio nel fatto che ci siano molteplici “ragionieri” che tengono una copia di questo registro e che vengono aggiornati grazie a un particolare software.

Il (presunto) nome dell’ideatore di questo sistema è Satoshi Nakamoto, che nel 2008 ha pubblicato il paper Bitcoin: A Peer-to-Peer Electronic Cash System e nel 2009 ha lanciato il primo software che ha inaugurato la valuta digitale.

Fondamentale per la sicurezza del sistema è il timestamp, ovvero la marca temporale, che impedisce l’annullamento o la modifica dell’operazione dopo la registrazione. Inoltre, va ribadito il fatto che il funzionamento non è garantito da un ente centrale, ma ogni operazione è validata dall’interazione di tutti i nodi. Dopo aver affrontato la tecnologia che si cela dietro le cryptocurrencies, si possono analizzare i diversi tipi di moneta digitale. Per cominciare, è necessario affrontare il Bitcoin, ovvero la prima valuta nata insieme a questa tecnologia, a cui è legato a doppio filo per diversi motivi.

Il Bitcoin

Il Bitcoin è una vera è propria valuta quotata, e come tale può essere utilizzata per effettuare pagamenti di qualsiasi tipo in qualsiasi momento, con costi contenuti e tutta la sicurezza della tecnologia sottostante. Per poter utilizzare questo particolare tipo di moneta è necessario aprire un portafoglio, che consiste semplicemente in un’applicazione o un programma da installare sul proprio dispositivo; conseguentemente all’installazione, viene generata una chiave formata da una parte privata, accessibile esclusivamente dal proprietario del portafoglio, e una parte pubblica: queste sono necessarie per condurre le transazioni e per certificarne l’autenticità.

Molto interessante è come viene determinato il valore del Bitcoin: questo, essendo indipendente da qualsiasi tipo di organizzazione o governo, non è come una valuta a corso legale e non ha un valore modificabile da nessuno, in quanto anche la sua quantità è fissata a priori e tende asintoticamente a 21 milioni. Il prezzo viene di conseguenza determinato semplicemente dalle leggi di mercato della domanda e dell’offerta. Per quanto riguarda la quantità prodotta, la disponibilità di nuove monete cresce come una serie geometrica ogni 4 anni: nel 2013 è stata generata la metà delle monete e nel 2017 si raggiungeranno i tre quarti.

Al 25 luglio 2017, la capitalizzazione di mercato del Bitcoin è di €36.651.396.293 ($42.647.165.334), sono presenti 16.468.975 monete con un prezzo di €2.225,48 ($2.589,54). L’andamento storico del prezzo in USD si può vedere nel grafico seguente:

Andamento del prezzo del Bitcoin. Fonte.

Evidente è il fatto che esso abbia un prezzo estremamente volatile, e che tenda ad avere importanti picchi di valore. I motivi della volatilità sono diversi: in primis, molto rilevante è il valore percepito del Bitcoin, che è molto più simile a una commodity come l’oro che a una valuta a corso legale, e cioè la sua riserva di valore contro le monete legali. A questo si aggiunge il valore intrinseco percepito, che può variare molto rapidamente. Inoltre, non va tralasciato il comportamento dei grandi possessori di Bitcoin, che possono influenzare in larga parte il mercato, in quanto questo non ha ancora raggiunto la massa degli investitori mentre gli early adopters si trovano con ingenti quantità di monete. Vanno citate infine sia le notizie geopolitiche (che magari possono riguardare una regolamentazione della stessa moneta), sia quelle che derivano dalla stessa “community”, per esempio riguardo la sicurezza del sistema o eventuali falle. In ogni caso è utile ricordare che il prezzo dipende esclusivamente da domanda e offerta, e che queste vengono pesantemente influenzate dalle ragioni succitate.

Dopo aver analizzato la questione del valore del Bitcoin è possibile affrontare il problema di come vengono generate le monete, e per fare questo è necessario tenere ben presente il funzionamento della blockchain. Come già affermato, la blockchain è un database protetto da crittografia diffuso tra tantissimi computer diversi che tengono nota di ogni transazione. A questo punto potrebbe sorgere spontanea una domanda: per quale motivo queste persone mettono a disposizione della potenza di calcolo per tenere un registro? Ci guadagnano qualcosa o lo fanno solo per amore verso il prossimo?

Siccome i computer coinvolti sono veramente tanti e i costi sostenuti sono notevoli, i soggetti che lo fanno per passione sono veramente pochi, se non nessuno: chi mette a disposizione la propria macchina guadagna dei Bitcoin per ogni blocco che aggiunge alla catena risolvendo dei particolari algoritmi in tempi relativamente brevi. Questi soggetti prendono il nome di miners, in una sorta di similitudine coi minatori d’oro. Inoltre, oltre a guadagnare dai Bitcoin generati dallo stesso sistema, i minatori guadagnano anche dai costi di transazione (ovvero delle fees) che i soggetti versano volontariamente per velocizzare l’operazione, incentivando ulteriormente i prestatori del servizio.

Le altre criptovalute

Come già affermato, le criptovalute sono attualmente circa 1.000, e sono destinate ad aumentare. Oltre al Bitcoin, che ha la capitalizzazione di mercato e il prezzo più alto, esistono diverse monete interessanti che hanno introdotto innovazioni e novità notevoli. Tra le altcoins, ovvero le criptovalute diverse dal Bitcoin, è presente ad esempio il Litecoin, lanciato nell’ottobre 2011, che ha una struttura molto simile al Bitcoin, differendo solo per il fatto che vengono immagazzinate meno informazioni, il che rende le transazioni più leggere e veloci, permettendo di stipare più informazioni all’interno di ogni blocco. Ad oggi, il Litecoin ha una capitalizzazione di mercato di $2,189,035,163, sono presenti 52,186,982 monete sul mercato ad un prezzo di $41.95.

Tra le valute digitali più interessanti spicca anche l’Ether, moneta di scambio usata su Ethereum, una piattaforma digitale considerata di una nuova generazione di blockchain, ovvero la 2.0. La suddetta piattaforma permette l’esecuzione di smart contracts, veri e propri contratti digitali eseguibili senza intervento esterno, dove la moneta funge sia da criptovaluta che da “carburante” per l’utilizzo della potenza computazionale.

Ad Ethereum si affianca NEO, una piattaforma supportata pesantemente da Alibaba, il colosso dell’e-commerce cinese. La differenza tra le due piattaforme sta nel fatto che Ethereum possiede un linguaggio di programmazione proprio, mentre NEO cerca di usare più linguaggi ed essere quindi più flessibile.

Grafico del prezzo dell’Ether.

 

Implicazioni future

Le criptovalute sono e saranno un passaggio estremamente rilevante per il futuro, non solo per la loro natura di monete digitali decentralizzate, ma piuttosto per la tecnologia sottostante: la blockchain, per molti, potrebbe distruggere l’economia per come la conosciamo oggi. Nel futuro, settori con un’importante presenza di intermediari come quello finanziario potrebbero sparire grazie a questo sistema. Secondo Dan Trapscott, manager ed economista canadese, la blockchain potrebbe davvero democratizzare e rendere reale la sharing economy, abbattendo i costi di transazione e rendendo accessibile a una maggiore fetta della popolazione il benessere economico grazie alla sicurezza e alla portata del sistema.

Non solo fiori

L’altra faccia della medaglia è che le criptovalute stanno vivendo una bolla che presto potrebbe scoppiare, danneggiando molte persone e facendo crollare i prezzi. Il motivo sta nel fatto che molti si sono letteralmente tuffati nel mercato senza conoscerne le dinamiche, i problemi e le opportunità, rimanendo in balia delle fluttuazioni. A questo va affiancata la problematica che riguarda il riciclaggio del denaro che viene facilitato dalle monete digitali.

Le criptovalute saranno di particolare rilievo in futuro, ma non è detto che rimarranno inalterate e che saranno sempre le stesse, anche per via dei regolamenti che potrebbero arrivare da parte dei governi. Sarebbe quindi più interessante capire e sviluppare la tecnologia sottostante, che secondo molti potrebbe davvero rappresentare una nuova pagina sia di internet che dell’economia mondiale.

 

Articolo pubblicato anche su theWise (https://www.thewisemagazine.it/2017/08/05/2931/).

 

Domenico Sorice

Social Media Responsible Invenicement

La fine delle Venete

La telenovela che riguarda il futuro delle banche venete sembra ormai giunta al termine, portando un po’ di ordine all’interno del panorama italiano. Come visto negli articoli precedenti riguardo il sistema italiano, i casi di buona gestione ci sono, ma vengono minati da dissesti e casi di malagestione che infettano l’intero comparto bancario, generando insicurezza e instillando la paura nei clienti-consumatori, aizzando gli speculatori.

In sintesi, andranno in liquidazione e Intesa Sanpaolo ingloberà la parte “buona” e lascerà i crediti deteriorati in una cosiddetta “bad bank” finanziata dallo Stato, quindi coi soldi dei contribuenti, con una spesa di circa 20 miliardi di euro. Era questa, quindi, l’unica fine possibile? Che fine hanno fatto le ipotesi di bail-in, le belle parole sul fatto che i contribuenti non devono pagare per pochi? Non si poteva agire minimizzando la spesa pubblica? E in questo, gli austeri tecnocrati europei che cosa hanno fatto?

Le questioni suscitate da questa situazione sono molteplici e riguardano temi rilevanti, ma tra tutti i più delicati toccano la credibilità italiana e quella delle istituzioni europee, per via dei fondi stanziati a favore di Intesa e per la competizione che potrebbe subire qualche variazione in favore del più grande gruppo bancario italiano.

La questione brevemente riassunta nelle righe precedenti è più complessa e strutturata. Per prima cosa, cosa succede alle venete: Veneto Banca e Banca Popolare di Vicenza, fondamenti dell’economia del nord-est e della locomotiva veneta ora passano di mano, dopo una centenaria storia di indipendenza.

Le cause di questa crisi, già analizzate in precedenza, riguardano i favoritismi e il clientelismo, che hanno fatto accumulare miliardi di crediti deteriorati senza mai essere svalutati, tenendo alti i prezzi delle azioni, che venivano decisi internamente, senza seguire le logiche di mercato. Il vaso di Pandora è stato scoperchiato dai controlli di Banca d’Italia e BCE all’interno delle venete, che hanno scoperto i trucchi utilizzati per gonfiare i conti.

Le banche subiranno ora la liquidazione coatta amministrativa, una particolare procedura che in assenza della normativa europea applica quella italiana, derogandola, in favore dell’operazione da effettuare: con questa mossa le banche passano da recuperabili, fino a poco tempo fa, a situazione di fallimento. In questo si inserisce Intesa, unica banca disposta a farsi carico della situazione, che acquista Veneto Banca e Banca Popolare di Vicenza per un euro, prezzo simbolico; a questo Intesa affianca una garanzia da parte dello stato di quasi 5 miliardi, a favore dei propri azionisti, ribadendo però “che le passività superano le attività”, a sottolineare la propria buona azione. Il denaro messo a disposizione da parte dei contribuenti a favore della più grande banca italiana servirà a non intaccare i ratio patrimoniali decisi dagli accordi di Basilea, in modo da lasciare inalterata la situazione dopo l’incorporazione delle venete. Lo Stato deve, con i fondi messi a disposizione, garantire gli NPL, ovvero i crediti deteriorati, delle due venete, già svalutati, e quindi senza troppa fretta di liberarsene. Gli analisti di Mediobanca, in favore della mossa di Intesa, prevedono un aumento del dividendo di circa il 6%; anche la borsa ha premiato le operazioni di Intesa.

Per quanto riguarda i fondi pubblici stanziati, il ministro dell’economia Padoan ha affermato che questi non avranno impatto sul debito pubblico: questa affermazione è vera, ma semplicemente perché erano già stati previsti come ricapitalizzazione precauzionale a favore delle venete, e sono quindi sono stati reindirizzati. Lo Stato potrebbe comunque recuperare questo denaro attraverso una oculata e attenta gestione e vendita dei crediti deteriorati che formano la bad bank, ora di proprietà pubblica.

Agli azionisti ormai da tempo rassegnati ad avere poco o nulla di quello investito, e si può anche dire “giustamente”, si contrappongono gli obbligazionisti: da una parte i senior che si vedranno rimborsati del 100% del capitale investito, mentre dall’altra i detentori di obbligazioni junior, che riceveranno solo un rimborso forfettario. Un’altra questione facilmente sollevabile è: è giusto che chi ha investito in questi titoli venga comunque rimborsato? I titoli junior, ovvero le obbligazioni subordinate, verranno, anche se solo in parte, rimborsate, riducendo quindi il rischio a cui sono sottoposti i soggetti; lo stesso vale per le obbligazioni ordinarie, ovvero le senior, che verranno rimborsate al 100% del capitale investito, creando per l’investitore un rischio zero e capital gain da capogiro, visto che queste erano quotate ampiamente sotto la pari. È giusto quindi che per il guadagno di pochi ci rimettano tutti i contribuenti? A questo si ricollega il problema italiano dell’ignoranza finanziaria e del voler investire senza rischi, tanto paga lo Stato.

Alle conseguenze sui conti pubblici, che sono state già considerate e che non peseranno ulteriormente, seguono quelle sul sistema bancario nazionale, europeo e sulle condizioni generali di salute dell’Italia.

Come visto negli ultimi anni, l’Italia ha attraversato una situazione turbolenta per via delle condizioni delle banche, coinvolgendo tutto il sistema: il caso Montepaschi ha tenuto banco a lungo, generando pesanti ripercussioni che hanno coinvolto sia l’apparato economico che politico; le banche toscane hanno generato caos con l’applicazione, prima dell’entrata in vigore, delle norme sul bail-in creando un caso politico che ancora tiene banco e ora, con la soluzione del “problema” veneto, considerato anch’esso sistemico come Mps, non si vedono, per ora, crisi nel sistema bancario nostrano. Infatti, anche secondo quanto affermato dal vice direttore generale di Bankitalia Fabio Panetta, questo potrebbe essere un “punto di svolta per il sistema bancario italiano”, che potrebbe cambiare l’immagine e la percezione del sistema italiano, che non presenta più particolari criticità. A questo Panetta aggiunge che lo shock generato a un eventuale bail-in avrebbe impattato violentemente sull’economia reale di una regione chiave nel panorama nazionale come quella veneta.

Il caso delle venete si conclude poco dopo la chiusura di un’altra crisi bancaria, quella dello spagnolo Banco Popular. Secondo molti, quello che è avvenuto con la banca spagnola dove replicarsi con le due venete. Riassumendo, Santander ha acquistato anch’essa al prezzo simbolico di un euro la banca in crisi, accollandosi tutto: perdite, dipendenti e crediti deteriorati, dovendo provvedere così a un aumento di capitale di 7 miliardi da reperire nel mercato. Non un euro pubblico è stato sborsato per favorire l’acquisizione, ma sono state applicate le normative europee del burden sharing, ovvero della condivisione del rischio. A farne le spese sono stati gli azionisti e obbligazionisti subordinati, che hanno visto azzerarsi il proprio investimento. Applicando le norme europee non un centesimo dei contribuenti è stato erogato, facendo sostenere il rischio a chi effettivamente avrebbe dovuto sostenerlo. Inoltre, il gruppo Santander ha considerato strategica l’acquisizione: così facendo è diventato il primo gruppo bancario spagnolo, divenendo il principale sostenitore delle pmi, estremamente rilevanti all’interno del tessuto economico spagnolo. Perché non si è fatto lo stesso in Italia? Probabilmente per ragioni politiche e di convenienza, in quanto, quasi sicuramente, Intesa non si sarebbe fatta carico di un aumento di capitale da ricercare nel mercato.

Le conseguenze europee del caso veneto potrebbero essere pesanti: i passi fatti avanti nei confronti di una unione bancaria europea sembrano cancellati, minando la credibilità della stessa. Tutto quello che ha fatto l’Italia, è lecito e legale, in quanto ha applicato la normativa italiana bypassando quella europea, ma potrebbe non essere stata la scelta migliore. Innanzitutto, Intesa è sicuramente favorita da questa operazione, in quanto ne uscirà rafforzata dal punto competitivo, e, inoltre, manterrà inalterati i propri rapporti patrimoniali grazie ai fondi pubblici. Il comportamento del governo italiano ha irrigidito i rapporti con la Germania che da ora sarà più scettica nel completare l’unione bancaria europea, dove i più favorevoli sono gli italiani Visco e Padoan. Per molti, quindi, la credibilità europea, costruita con i casi delle toscane e del Banco Popular, è stata compromessa se non distrutta e sarà difficile riguadagnare quello che si è perso.

Per quanto riguarda il territorio italiano, una questione spinosa è quella degli esuberi e delle filiali: migliaia di dipendenti, in maggioranza di Intesa, saranno prepensionati volontariamente e centinaia saranno le filiali a chiudere, in ordine di una razionalizzazione già cominciata tempo addietro dalla banca con sede a Torino.

La situazione di Veneto Banca e Popolare di Vicenza poteva quindi essere gestita diversamente, magari come la banca spagnola senza esborsi statali, ma è finalmente giunta a una conclusione. I costi saranno rilevanti, ma forse più bassi del previsto, e in ogni caso peseranno sulle generazioni future. L’Europa in questo frangente ha probabilmente perso credibilità, ma le vere conseguenze si potranno vedere solamente in futuro. Le scelte del governo sono state indirizzate comunque a scontentare il minor numero possibile di investitori, ovvero molti cittadini, con ovvie ragioni politiche. In ogni caso, l’unico vincitore certo che può essere proclamato al momento è Intesa che ha rafforzato la propria posizione e presenza sul territorio.

 

Articolo pubblicato anche su theWise (https://www.thewisemagazine.it/2017/07/08/la-fine-delle-banche-venete/).

 

                                                                                                                                          Domenico Sorice

Social Media Responsible Invenicement