Editoriale | Magazine

2017, un anno sotto il segno della bufala

Eugenio Moschini | 28 Dicembre 2017

Editoriale

Gestire le fake news come i big data: la verità dei dati (e dei fatti) non è poi diversa.

Fake news e big data: due tra i trend che hanno più influenzato il 2017. E che continueranno a essere protagonisti dei prossimi anni. Due hot topic da approcciare in maniera completamente diversa: dobbiamo arginare le fake news, dobbiamo imparare ad analizzare i big data. Anche se sulla carta può sembrare paradossale, in realtà le fake news potrebbero (e dovrebbero) essere gestite esattamente con la stessa filosofia dei big data.

Storicamente, nei big data, si parla delle “3 V” che definiscono le loro tre dimensioni: Volume, Velocity e Variety. Anche se in realtà questa descrizione è oggi riduttiva – i big data hanno ormai molte più “dimensioni” – alla base troviamo sempre queste 3 V.
Le stesse 3 V sono anche alla base dell’esplosione del fenomeno fake news: le “false notizie” sono sempre esistite, ma prima il loro perimetro era sicuramente più limitato. La loro crescita esponenziale in volume, in velocità e in varietà ci rende molto più vulnerabili a esse e rischiamo di non saper più distinguere tra una notizia vera e una falsa. Per questo motivo trovate, su questo numero di PC Professionale, un approfondimento sulle fake news. Abbiamo voluto fare una panoramica di questo “fenomeno” cercando di capire perché nascono (e chi ci guadagna) e come vengono diffuse, parlando anche con chi le “bufale” le crea e con chi le smaschera. Essere consapevoli del problema è però solo il primo passo, bisogna avere anche gli strumenti adatti per risolverlo. E continuando l’analogia con i big data, c’è un’altra V che li definisce e che può compromettere tutto: la Veracity o veridicità dei dati. Infatti un’analisi fondata su dati falsi (non necessariamente tutti, bastano pochi valori) produce risultati a loro volta errati. Allo stesso modo, un’informazione basata su fake news, porta a una lettura distorta della realtà. Quindi cosa fare prima di tutto? Imparare a dubitare! È molto più faticoso dubitare (e verificare) che prendere tutto per oro colato, ma questo è sicuramente il primo passo che dobbiamo compiere. E poi “convincere” al dubbio i nostri amici, i nostri genitori e i nostri figli, perché la sola “verità” che ci hanno mostrato le fake news è che nessuno è al sicuro.

Il dubbio è il primo passo, ma possiamo usare anche la tecnologia come un setaccio, per aiutarci a separare le notizie “buone” da quelle “cattive”. Per questo, sul numero di febbraio di PC Professionale troverete come usare gli aggregatori di notizie (i feed reader) per informarsi correttamente.

Editoriale | Magazine

Mercato Pc, un 2019 in crescita. Ma…

Eugenio Moschini | 31 Gennaio 2020

Editoriale

Il mercato PC di desktop e notebook, dato più volte per spacciato, resiste. Anzi, per la prima volta dal 2011 chiude un anno in positivo. Ma c’è un ma.

Un mercato in declino e senza prospettive. È dal 2011 – anno in cui il mercato di smartphone e tablet ha superato quello di desktop e notebook – che il mercato Pc è in costante contrazione. Il 2019 è stato però un’eccezione: dopo 7 anni negativi, gli analisti hanno confermato che il mercato Pc è in crescita.

L’analisi del di Gartner e IDC

Secondo Gartner l’ultimo quadrimestre si è chiuso con un + 2,3% rispetto allo stesso periodo dell’anno precedente, mentre complessivamente l’intero 2019 è “cresciuto” dello 0,6% rispetto al 2018. Ancora più positivi i trend secondo IDC: il quarto trimestre si è chiuso con un +4,8%, mentre la crescita nel 2019 è stata pari al 2,7%. Insomma, la crisi è finita e sono tutte rose e fiori? C’è un ma… I dati, come sempre, vanno interpretati.

L’aggiornamento che ha drogato il mercato Pc

La crescita del mercato Pc ha una causa, specifica e limitata: il 14 gennaio Microsoft ha terminato il supporto a Windows 7. Una causa che ha “drogato” il mercato, forzando gli utenti al passaggio verso Windows 10 e, contestualmente, a un rinnovo del parco macchine. Una conferma che proprio lo switch off di Windows 7 è stato il volano di questa crescita arriva, stranamente, da Apple. Il colosso della mela morsicata non ha ovviamente beneficiato di questo upgrade e, infatti, registra un 2019 in decrescita (-0,9% secondo Gartner, -2,2% secondo IDC). Che il 2019 sia un anno fuori dai canoni lo sottolineano gli stessi analisti: finita l’onda lunga dell’aggiornamento a Windows 10, si prevedono altri 5 anni di decrescita, mitigati in parte da nuove tecnologie in arrivo (come 5G e schermi pieghevoli).

Un vantaggio per i grandi produttori

Sebbene la crescita del mercato Pc sia occasionale e non sistematica, ci sono diversi attori che possono sorridere: tra i produttori di computer senza dubbio i primi 3 (Lenovo, HP e Dell), che continuano ad aumentare il loro market share (complessivamente coprono il 65% del mercato). C’è però un altro produttore che sulla carta ha ottime prospettive di crescita. Ed è AMD. Nel mercato dei notebook, storicamente saldamente nelle mani della rivale Intel, AMD ha registrato nell’ultimo trimestre un market share del 14,7%, ma le previsioni prevedono una crescita al 20% entro il primo trimestre. Una crescita dovuta in parte a demeriti altrui (la produzione delle Cpu mobile Intel è inferiore alle richieste) ma anche per meriti propri. Mai come oggi la gamma di processori mobile AMD è competitiva sotto tutti i punti di vista: prezzo, prestazioni e consumi. E al CES è stata presentata una nuova famiglia di processori Ryzen: la serie 4000, fino a 8 core (e 16 thread) con un consumo inferiore ai 15 watt. Processori perfetti anche per il mercato dei notebook ultrasottili. Mi auguro di vederli quanto prima nei negozi.

Editoriale | Magazine

L’efficienza del software sarà un obbligo

Dario Orlandi | 24 Gennaio 2020

Editoriale Software

La diffusione dei dispositivi smart e IoT può riportare a buone pratiche di programmazione e all’efficienza del software.

Secondo la cosiddetta legge di Moore, la complessità di un microcircuito raddoppia ogni 18 mesi. Questa deduzione empirica di Gordon Moore (uno dei fondatori di Intel), basata sull’osservazione dell’andamento della tecnologia elettronica, è stata per decenni un comodo paravento dietro cui si è nascosta un’attenzione sempre più ridotta verso l’efficienza del software, ovvero uno dei parametri essenziali per giudicare qualsiasi applicativo.

I limiti possono essere una leva per sperimentare nuove strade

La nascita dei primi personal computer ha aperto le porte dell’informatica a nuove categorie di programmatori, che hanno saputo dimostrare, in particolare negli anni ’80, come la scarsità delle risorse di calcolo potesse rappresentare non tanto una limitazione, quanto un’opportunità per mostrare la propria abilità e percorrere sentieri non ancora battuti.

Nel corso degli anni questo spirito pionieristico si è perduto; le cause sono molte, tutte ugualmente rilevanti; lo sviluppo del software è spesso diventato un lavoro di massa, con progetti giganteschi su cui lavorano molte migliaia di programmatori, ciascuno dei quali è responsabile soltanto di una piccola frazione del codice. In queste circostanze, la standardizzazione delle metodologie di sviluppo e la rapidità di esecuzione sono molto più importanti rispetto alla creatività e alla ricerca dell’efficienza.

L’idea del codice leggero è andata persa nel tempo

Inoltre, lo sviluppo della tecnologia ha portato due conseguenze interconnesse tra loro: le piattaforme su cui si lavora si rinnovano più rapidamente rispetto al passato, rendendo difficile una conoscenza intima, presupposto essenziale per poterne sfruttare a fondo tutte le potenzialità; e, infine, la continua crescita della potenza di calcolo ha reso meno pressante l’esigenza di scrivere codice leggero, compatto ed efficiente. Basta pensare alla diffusione dei progetti software anche di basso livello basati su codice interpretato o pseudo compilato per rendersi conto di come l’efficienza non sia più considerata un requisito fondamentale e neppure rilevante nella maggior parte degli scenari.

Un nuovo stimolo all’efficienza software

Ma la situazione potrebbe essere sul punto di cambiare, per l’azione combinata di due tendenze di origine diversa; da un lato, la diffusione dei dispositivi smart e IoT sta spostando la capacità computazionale dai tradizionali computer, o dai server ospitati nei centri di calcolo delle grandi aziende, verso oggetti compatti ed economici, in cui le risorse (capacità computazionale pura, così come memoria di massa e di lavoro) ritornano a essere fattori davvero limitanti.

Dall’altro, invece, la spinta globale verso l’efficienza energetica sta crescendo e rappresenta un freno alla scorciatoia utilizzata più spesso fino a oggi: se le risorse locali non bastano, spesso si utilizza il dispositivo locale solo per raccogliere le informazioni ed eventualmente mettere in atto le decisioni prese, mentre l’intelligenza è scaricata verso qualche server remoto che garantisce tutta la capacità di calcolo necessaria. Ma il trasporto di informazioni da locale a remoto e viceversa, e l’esistenza stessa di questa “seconda gamba” necessaria per mantenere in piedi il sistema rappresentano grandi sacche di inefficienza, in primo luogo economica ma anche energetica. L’azione combinata di queste spinte sta riportando in auge la ricerca dell’efficienza del software, valorizzando le capacità di chi è in grado di lavorare su architetture caratterizzate da risorse limitate e le sfrutta a fondo.

jurassic smartphone

Editoriale | Magazine

2020-2030: Jurassic Smartphone

Eugenio Moschini | 13 Gennaio 2020

Editoriale

Il 31 dicembre ha chiuso non solo il 2019, ma un intero decennio. Ed è tempo di bilanci e di previsioni per quello che vedremo nel 2020-2030.

Il mese di dicembre 2019 è stato non solo l’ultimo mese dell’anno, ma anche l’ultimo mese del decennio. Ma cosa dobbiamo aspettarci nei prossimi anni? E quali saranno i trend? Se mi chiedete una personale previsione per il 2020-2030 non ho dubbi, il 5G – e quello che comporterà – rivoluzionerà completamente le nostre vite. Ma voglio fare un’altra previsione, molto più provocatoria: il prossimo decennio sarà ricordato per la scomparsa degli smartphone.

Provocazione? In parte sì, ma ci sono validi motivi. Incomincio dai dati, premettendo che tutti i numeri che vedete in questa pagina provengono da analisi e dati di mercato IDC. Per il terzo trimestre consecutivo gli smartphone sono in decrescita: l’ultimo dato parla di un -1,4%. E si tratta di dati globali, in cui alcuni mercati, come quello indiano e quello dei paesi emergenti, è ancora positivo. Se per esempio prendessimo come riferimento la Cina, vedremmo una decrescita al -3,6%. Gli analisti prevedono un cambio di tendenza con l’arrivo del 5G, ma la sostanza cambia di poco: nel 2019 la produzione di smartphone è pari a 1,37 miliardi, nel 2023 sarà di 1,48 miliardi, con un tasso di crescita anno su anno del 1,1%. Insomma, il mercato degli smartphone non scomparirà, ma ormai è un mercato maturo, senza nessun sbocco di crescita.

Se ripercorriamo gli ultimi 30 anni, si vede che è un trend costante: la decade 2000-2010 sarà ricordata (anche) per il sorpasso dei notebook a discapito dei desktop, quella 2010-2020 ha segnato il sorpasso di smartphone e tablet su notebook e desktop. Insomma, dispositivi sempre più piccoli, portatili e personali. Ma se ci pensate bene, cosa rende unico (e insostituibile) il vostro smartphone? I vostri contatti, le vostre foto, le vostre app. Insomma i vostri dati.

In un mondo orientato sempre più al cloud, in cui contenuto e contenitore sono slegati, cosa impedirebbe di avere non più un unico dispositivo personale, ma tanti (e tutti intelligenti)? Sto pensando ai wearable, di cui gli smartwatch sono solo un esempio. È un mercato davvero in esplosione, tanto che gli analisti sono costretti ad aggiornare, costantemente al rialzo, le previsioni. Quello dei wearable è oggi un mercato di “soli” 223 milioni di pezzi, ma nel 2023 crescerà a 302 milioni (con una crescita anno su anno al +7,9%). E l’80% sarà rappresentato da smartwatch e hearable (ovvero tutti i dispositivi “indossabili” nelle e sulle orecchie, traducibili in italiano come “cuffie smart”). Se ci pensate bene, già oggi lo smartphone durante le telefonate fa solo da ponte con gli auricolari. Cosa ci impedirebbe, in un futuro prossimo, di usare per telefonare solo delle cuffie smart, dotate di eSim e 5G?

Ma la forza dirompente dei wearable non è quella di distribuire funzioni che già adesso possiamo svolgere con lo smartphone, ma quella di aggiungere nuove funzionalità. Per esempio, potremmo parlare nella nostra lingua con persone straniere, avendo entrambi una traduzione real time con i nostri hearable. Un altro esempio, molto meno futuristico e molto più reale (e l’articolo dedicato agli smartwatch questo mese ve lo mostrerà) è quello dedicato al wellness e all’healthcare. Già oggi raccolgono molti dati: quanto ci muoviamo, quanto dormiamo, come sta il nostro cuore. Anche in questo caso, funzioni impossibili da ottenere con uno smartphone.

Se ancora non vi avessi convinto che il mercato del futuro non è quello degli smartphone, ma dei wearable, potrei ricordarvi che Google ha da poco acquisito Fitbit per 2,1 miliardi di dollari e che il prossimo anno arriveranno sul mercato i Pixel Buds (le cuffie smart firmate big G). Così come potrei ricordarvi che il Ceo di Apple, Tim Cook, ha definito i risultati dei wearable della mela morsicata come “esplosivi”, con un incremento anno su anno del 50%. Insomma, gli smartphone sono in salute ma intravedono un meteorite all’orizzonte. E sono i wearable.

Aggiungi alla collezione

No Collections

Here you'll find all collections you've created before.