La mia lunga opinione (a scatola chiusa) su Apple Silicon

Disclaimer: questo post nasce come risposta all’ennesimo messaggio ricevuto da amici sul discorso Apple Silicon. Gli esempi citati sono a sfondo automobilistico perché l’interlocutore appartiene a quel campo, tuttavia, avendo scritto circa 16mila battute quasi tutte di getto, mi sembrava sprecato non condividerle pubblicamente sul blog di cui continuo a rimandare la manutenzione. Mi scuso sin da ora per i minuti della vostra vita persi a leggere il tutto, purtroppo in questi contesti ho il difetto di essere prolisso per non lasciare scoperto alcun aspetto e cercare di evitare troppe domande a posteriori. Proprio perché ho scritto di getto, sono andato a memoria, quindi mancano le fonti e la bibliografia, in fondo si tratta di un’opinione. Ma, nel caso abbiate dubbi o riscontriate castronerie tra quanto scritto, sentitevi liberi di rompermi le scatole su Twitter. Farò volentieri correzioni o rettifiche, se necessario

Sarò lungo, in quanto è molto facile essere fraintesi su questa questione, mentre vorrei far capire che quanto mi irrita non è Apple in sé, ma l’eccesso di marketing che ultimamente tendono (non solo loro) ad usare, e fa sembrare tutto oro che luccica, quando spesso non lo è. Ciò non vuol dire che siano chip da buttare, anzi.
Per agevolare la lettura ho diviso il tutto in sezioni.

ARM vs x86-64

Partiamo dalle basi. È difficile comparare due piattaforme diverse, come ARM e x86-64 (che si chiamerebbe AMD64, ma solo i dinosauri come me continuano ad usare quel nome, a quanto pare). Il paragone che mi è venuto più spontaneo, e forse a te comprensibile, è tra due diversi tipi di vettura: ARM è un’utilitaria, x86-64 un SUV. Più ci penso, più mi rendo conto che il paragone è perfetto: ARM è un’architettura di tipo RISC, ovvero a ridotto set di istruzioni. Come un’utilitaria, questo la rende più spartana, ma anche più efficiente nei compiti più semplici di molte alternative. Alternative come l’architettura x86, poi divenuta x86-64, che è di tipo CISC, ovvero un set di istruzioni complesse. Ciò significa che, come un SUV, è molto più lenta e pesante, ma per fare certe operazioni complesse fa meno fatica ed è più rapida.
Ah, e mi rendo conto dell’ironia, in quanto un odiatore cronico di SUV come me in questa analogia è costretto a spendere parole in loro favore.
Un’utilitaria e un SUV sono entrambi autoveicoli capaci di percorrere una distanza da A a B. Ma l’esito del viaggio varia in funzione di moltissime variabili, tra cui il numero di passeggeri, il peso del carico, lo stato della strada da percorrere. Ecco perché per fare commissioni in città userei una Fiat 500, mentre se dovessi guidare da Roma alle Alpi con passeggeri e relativi bagagli userei un Cayenne. Analogamente, se dovessi cercare su Booking un albergo per trascorrere il Capodanno in montagna userei un dispositivo con un processore ARM, che si accende in un secondo e mi permette di navigare velocemente online, mentre se dovessi montare il filmino delle vacanze, userei un bel computer desktop con processore x86-64 (e, probabilmente, scheds video discreta), che includa supporto ed ottimizzazioni per elaborare rapidamente grandi moli di dati, in particolare flussi multimediali.
Questa è una cosa che non vedo molto nel dibattito Apple Silicon-Intel. La gente, accecata dalle tifoserie (di ambo le parti) si concentra sui numeri, cercando di dimostrare superiorità che non hanno senso pratico, quando la vera battaglia si giocherà sull’uso reale di quei dispositivi. E, come ho detto, non ho dubbi che per semplici compiti di produttività/navigazione/fruizione di contenuti multimediali M1 e famiglia saranno superiori ai processori x86-64 esistenti, sono stati creati ed ottimizzati apposta. Ma per un sacco di usi più “pesanti”, non andranno bene e non potranno (forse nel medio termine, vedremo gli sviluppi) sostituire l’architettura x86-64.
Una cosa che Intel o AMD potrebbero fare, in quanto hanno il know how necessario e sono sostanzialmente le due uniche aziende in quella posizione, è creare processori ibridi. Già Intel ha in vendita processori portatili dove coesistono core ad alte prestazioni e core ad alta efficienza, ma tutti sempre x86-64. Invece sarei curioso di vedere un processore ibrido ARM (ad alta efficienza) ed x86-64 (alte prestazioni), anche se non credo ciò avverrà tanto presto, in quanto implicherebbe la creazione e scrittura di un layer agnostico, tra processore e applicazioni, che permetta di gestirle con le due diverse piattaforme (altrimenti, come avviene oggi, sarebbe necessario avere una versione distinta dell’app per ogni piattaforma, se si desiderano le prestazioni migliori).
In sostanza, l’architettura ARM è l’applicazione all’informatica del detto “simplify and add lightness” di Chapman. Sebbene sia un ottimo consiglio (soprattutto se l’obiettivo è far andare veloce una vettura), non è sempre la risposta a tutti i problemi. ARM è nata negli anni ’80, quando l’informatica a livello base era ancora una cosa abbastanza generica. Negli anni i compiti si sono specializzati, aggiungendo volta per volta ulteriori istruzioni all’architettura x86, poi estesa in x86-64, che oramai è un carrozzone. Ma il mondo è costruito attorno ad essa, e cambiare tutto sarà difficile. Anche in virtù di un’altra mia teoria che oramai dura da anni, la cosiddetta “Rolexizzazione di Apple”, di cui parlerò più avanti.

Comparazioni Apple Silicon/Intel Mac

Un microprocessore moderno, come diceva un’iperbole letta qualche anno fa, è “un sasso cui abbiamo insegnato a pensare”. Si tratta di dispositivi estremamente complessi, che restituiscono prestazioni fortemente differenti in base alle variabili in ingresso. Così come due semi uguali di una pianta possono svilupparsi diversamente se piantati in due terreni diversi e annaffiati/fertilizzati diversamente, analogamente due chip provenienti dallo stesso wafer di silicio possono finire in due macchine completamente diverse e dare prestazioni molto differenti tra loro.
In particolare due sono i fattori che più influenzano le CPU moderne: la potenza ed il calore massimi che il sistema in cui un processore è montato può rispettivamente fornire e dissipare. Entrambi vengono espressi in watt, e solitamente viene usato come riferimento il secondo dei due valori, chiamato TDP, che diviene così un limite entro cui stabilire il primo.
È risaputo che Steve Jobs non era un fan delle ventole rumorose, i primi Macintosh si surriscaldavano occasionalmente visto che il raffreddamento per convezione non bastava -e parliamo di un’era in cui i processori non montavano ancora né ventole né dissipatori. Apple negli anni (in particolare dopo il ritorno di Jobs) ha sempre sviluppato computer dove spesso i processori venivano sottopotenziati per evitare di dover montare ventole troppo rumorose. La cosa è particolarmente evidente nei MacBook, anche se nelle ultime generazioni (2019 in poi) pare che il trend stia migliorando.
Questo pippotto serve a far notare come le comparazioni tra M1 e Mac con processori Intel sono il peggiore tra gli scenari per Intel, in quanto i Mac sono una delle piattaforme in cui i suoi chip sono sempre stati penalizzati termicamente e più proni al raggiungimento del limite (e, quando ciò accade, meccanismi interni della CPU ne limitano in automatico le prestazioni per evitare danni permanenti, è il cosiddetto fenomeno del thermal throttling). Paragoni più attendibili sono quelli tra M1 e chip Intel montati su altri sistemi non Apple, dotati di adeguato raffreddamento. O anche chip AMD, dato che Intel, pur restando competitiva nelle prestazioni single core, nel suo decennio da monopolista del mercato si è adagiata sugli allori, e viene oggi regolarmente battuta da AMD sulle prestazioni multi-thread e sui test di produttività. Nel mercato PC, al giorno d’oggi, Intel resta (sempre meno) una scelta raccomandata solo a chi vuole un PC esclusivamente per giocare. In tutti gli altri casi il consiglio di molti esperti/appassionati è passare ad AMD.
Concludo la sezione dicendo che, per quanto riguarda l’aspetto di limite termico, è possibile vederlo anche nei tre dispositivi annunciati con Apple M1: c’è un MacBook Air con solo dissipatore, un Mac Mini con ventola, ed un MacBook Pro con una soluzione ibrida tra le due. Il chip M1, i suoi 8 core, sono gli stessi su tutti e tre i dispositivi, eppure le prestazioni che offre in ognuno di essi sono apprezzabilmente diverse.

Alcuni Benchmark sono più uguali di altri

Pur avendo già esaurientemente trattato l’importanza della differenza tra utilizzi reali per giudicare le prestazioni di un processore, mi pareva giusto spendere una parola anche sui cosiddetti benchmark sintetici. Spesso e volentieri vengono citati nei dibattiti, in quanto apparentemente riducono il tutto a una semplice comparazione tra due o più numeri: il più alto vince. Ma spesso non è così: il paragone più immediato, da me già fatto, è sul ciclo NEDC che era usato fino a pochi anni fa per decretare i consumi delle vetture nuove in Europa. Dopo anni di risultati a dir poco fantasiosi (visto l’utilizzo di sistemi come lo start and stop o l’arrivo sul mercato di auto ibride/elettriche), ne è stata universalmente riconosciuta l’inattendibilità ed è stato sostituito da qualcosa più al passo con i tempi.
Analogamente, negli ambienti Apple è sempre stato tenuto in alta considerazione un particolare benchmark: GeekBench. Perché? Semplice, è uno dei pochi benchmark che sono sempre stati disponibili/largamente diffusi anche su Mac. Ma è malvisto negli ambienti PC, in quanto è sempre stato storicamente poco attendibile. Perché? Perché GeekBench è da sempre stato uno dei benchmark ottimizzati per piattaforme mobile, quindi smartphone. Che usano architettura ARM. Quindi, come abbiamo visto in precedenza, privilegia l’esecuzione di moltissime semplici operazioni, cosa che l’architettura ARM è nata per fare, svantaggiando le piattaforme come x86-64 che, in virtù della loro complessità, sono più lente nell’esecuzione di quelle semplici operazioni, dovendo eseguire più istruzioni in più cicli per ottenere gli stessi risultati. Inoltre, secondo alcune personalità autorevoli, a prescindere dall’aspetto appena descritto, le funzioni utilizzate da GeekBench sarebbero un pessimo esempio per valutare qualsiasi tipo di architettura. Non lo dico io, lo dice Linus Torvalds. E non l’ha detto in questi giorni, bensì 7 anni fa, quando l’idea che Apple passasse ad ARM era una di quelle voci di corridoio che periodicamente salivano alla ribalta per poi essere rimandate.
Vi sono altri benchmark più affidabili, uno dei quali è Cinebench, creato proprio per testare le CPU con complessi carichi di render 3D. E qui i numeri di M1 sembrano comunque ottimi, quindi sicuramente è un serio competitor sulla scena dei processori. Apple (o, meglio, ARM, visto che i core li hanno progettati loro) sembra abbia fatto un buon lavoro. Ma quel numero è solo uno dei dati da tenere in considerazione nell’analisi. Come già ripetuto forse troppe volte, l’ago della bilancia saranno le esperienze d’uso degli utenti professionali con questi nuovi PC, una volta che usciranno software ottimizzati in grado di sfruttare a pieno la nuova architettura e fornire un termine di paragone più realistico tra le due implementazioni.

La “Rolexizzazione” di Apple

Apple è sempre stata un’azienda innovatrice. Magari non quanto certi credono, ma negarlo in termini assoluti equivarrebbe a negare l’evidenza. Un sacco di tecnologie, sebbene spesso inventate da altri, sono state rese popolari dall’azienda di Cupertino, che ha smussato gli spigoli e trovato la miglior soluzione ai problemi che ne impedivano la diffusione. Questo ha portato Apple ad avere una community di utenti professionisti, principalmente in campi creativi, che le han sempre dato fiducia assoluta, ricevendone in cambio terminali che soddisfavano pienamente le loro esigenze.
Analogamente vi è un’altra azienda, fondata oltre un secolo fa, che negli anni ha contribuito a diffondere qualche innovazione nel suo campo, l’orologeria. Ad esempio, gli orologi subacquei non erano una novità, ma nessuno, prima di Rolex, ne aveva mai realizzato uno da polso che funzionasse in maniera affidabile, grazie alla corona a vite. Analogamente, esistevano orologi schermati contro i campi magnetici, ma erano troppo grandi e pesanti per poter essere allacciati al polso di una persona, finché Rolex non sviluppò la doppia cassa. Questo li ha portati ad avere, negli anni, ad avere una comunità di professionisti che, per lavoro, necessitavano di orologi affidabili e di qualità.
Poi, ad un certo punto, uscirono sul mercato gli orologi al quarzo. Che, a prezzi ben presto inferiori, offrivano maggiore precisione. E, in certi casi, i concorrenti asiatici offrivano pure qualità e materiali pari a quelle offerte dall’azienda svizzera. Qui avvenne qualcosa. Rolex, invece di competere “al ribasso”, iniziò a rendere i suoi orologi ancora più esclusivi. In virtù dei professionisti che già li ammiravano, i loro orologi erano ormai divenuti status symbol. Negli anni alzarono i prezzi, che persero ogni correlazione con l’oggetto materiale in sé. Abbandonarono i meccanismi ETA comuni a molti orologi svizzeri, iniziando a sviluppare movimenti in-house in nome della qualità/esclusività. E, soprattutto, limitarono la produzione, al punto che oggi ci sono liste d’attesa per acquistare i loro modelli più richiesti.
Chiaramente Apple è ben lontana dal raggiungere questo traguardo, ma la mia sensazione è che, nell’era post-Jobs, non le dispiacerebbe. Già adesso (e da diversi anni) i loro dispositivi Pro di professionale non hanno più nulla (inteso come nell’ambito PC, quindi workstation), e questo passo sembra un’ulteriore direzione verso il cliente casual e non l’utilizzatore professionale. Inoltre va detto che utilizzando componenti sviluppati in-house, con i numeri che hanno, i costi dovrebbero scendere: vedremo se i prezzi seguiranno, da lì potremo capire le vere intenzioni di Apple sul suo futuro. Se divenire un fornitore di tablet/PC light da boutique, o continuare a perseguire la strada professionale con nuovi modelli di Mac/iMac Pro (che, ad oggi, restano gli unici dispositivi Apple che si possano considerare professionali nel senso tecnico del termine).
Purtroppo, nonostante (se ne avessi i mezzi) non esiterei troppo a spendere quanto necessario per mettere al polso un Submariner o un Milgauss, devo dire che da un punto di vista professionale non ambisco ad una simile evoluzione in campo informatico. E forse è questo sentimento che mi porta ai miei pregiudizi attuali verso Apple.

Conclusioni

Mi sono dilungato anche troppo. Cosa penso? Penso che, concretamente, vedremo dopo tra qualche mese o un anno di uso reale il vero valore di questa piattaforma. Di certo indietro non si torna, da anni Microsoft cercava di fare una cosa simile, che nel suo caso risulta impossibile vista la frammentazione dell’ecosistema Windows. Sembra quasi il ripetersi di una cosa già avvenuta: Microsoft presentò nel 2000 un aggeggio chiamato “Tablet PC”. Ma fu necessario attendere il 2010 e l’iPad per veder nascere l’era dei tablet. Analogamente, con il fallimento delle varie versioni di Windows su ARM (Windows RT e successori), l’arrivo di Apple non può che ridare nuova linfa a questa idea. Come avviene nel campo smartphone inizieranno tutti a cercare di copiare le loro idee, e non credo di fantasticare troppo se ipotizzo un futuro dove avremo PC fissi x86-64 simili agli attuali, e portatili/tablet di ogni marca basati su architettura ARM per gli usi più leggeri. Con una crescente frammentazione del settore PC tra utenti di base e tra chi cerca invece maggiori prestazioni per lavoro o gioco, cosa che già in parte avviene oggi con la divisione tra chi compra un portatile o chi preferisce un fisso.
Concludo con queste due cose:

  1. Sconsiglio l’acquisto. A prescindere dalle prestazioni, di solito quando Apple in passato ha fatto simili cambiamenti le prime generazioni sono sempre state supportate per poco tempo, vedi i primi Mac Intel del 2006-2007. O anche con prodotti nuovi, come il Watch, la cui prima generazione è durata molto poco in termini di supporto, rispetto alle successive. All’atto pratico gli acquirenti di questi tre modelli saranno beta tester per conto di Apple, che pagheranno pure per il disturbo. Il consiglio da informatico è sempre di restare indietro di 1-2 generazioni per PC “critici”, il cui funzionamento deve essere sempre garantito 24/7. L’unico motivo di appeal per cui li comprerei (avendo la disponibilità economica) è a futuro scopo collezionistico. Ma per rientrare dell’investimento ci vorranno almeno 15 anni, se guardiamo altri dispositivi come l’iPhone originale. Tuttavua gli iMac originali, pure essendo oggetti di design fenomenale, possono ancora esser comprati per cifre abbordabili oltre 20 anni dopo l’uscita sul mercato, quindi credo andremo più verso i 30 anni.
  2. Se ne comprerai uno, mi autoinvito per darci un’occhiata (quando le condizioni sanitarie lo renderanno possibile). A prescindere dalle mie opinioni, come appassionato la curiosità è tanta.

2 pensieri su “La mia lunga opinione (a scatola chiusa) su Apple Silicon

  1. Ottimo articolo pero mi rimangono un paio di dubbi e mi aspettavo anche di trovarci una spiegazione ulteriore che invece hai solo sfiorato. Mi spiego meglio: io penso che una delle grandi novità di questa “rivoluzione” Apple sia avere tutto il sistema su un solo chip. Il famoso SoC. Che come sai bene vuol dire che la RAM è dentro il chip, le interfacce verso l’esterno (hdmi usb ecc) anche, la scheda video pure (questo già avveniva sugli Intel più economici) e – se non sbaglio – credo anche la memoria di massa.
    Il fatto di avere tutto insieme in pochissimo spazio credo sia il punto di forza, ma anche di debolezza di questa scelta.
    Di forza perché così compattato il sistema è più veloce, i bit e i dati devono percorrere pochi micron di spazio invece che alcuni centimetri e il flusso dati è maggiore per cui tutto viaggia più in fretta. E la risposta è più immediata.
    È invece un punto di debolezza dei nuovi Mac perché viene invece a mancare quella flessibilità tipica dei sistemi vecchia generazione su PC (e Mac vecchia generazione) dove, se a un certo punto volevi potenziare la macchina, acquistavi altra RAM, raddoppiavi la memoria, cambiavi la scheda video e con poche mosse avevi raddoppiato la performance della macchina.
    Con il SoC invece Tu mi insegni che non puoi far niente di tutto questo. Compri tutto sigillato e ti accontenti di com’è. È come un telefono. Lo prendi lo usi e se vuoi upgradare lo sostituisci. Puoi scegliere solo portatile o desktop. Devi decidere prima quanta Ram ti serve e se ti bastano le porte di collegamento o no. L’unica scelta è portatile o desktop.
    Ad esempio e volessi un MacBook Pro 13” ma con 32 Gb di RAM per poter far girare programmi video senza affanni, semplicemente non potrei. Il nuovo amxcBook Pro arriva a 16 agg perché quelli ci sono dentro il chip. Con l’M1 non puoi nemmeno averli pagando un supplemento perché non ci stanno dentro.
    Questo volevo capire da te: se questa “blindatura”, questa mancanza di flessibilità è una conseguenza del fatto che deve stare tutto su un solo chip e quindi è un limite fisico del SoC ARM oppure è una scelta di marketing?
    Apple adesso ha fatto tre macchine consumer con M1 perché 16 Gb di RAM e 512 di disco secondo loro devono bastare all’utente consumer? E magari poi tra sei mesi verranno fuori macchine Pro con M2 che hanno 32 Gb di RAM, 1 Tb di disco e chip video più potente per utenti Pro? Oppure no?
    In definitiva questa storia del SoC non è troppo castrante perché ti toglie flessibilità è ti obbliga a scendere sempre a un compromesso? Perché l’utente non può scegliere se avere macchina piccola ma potente oppure macchina grossa ma blanda e invece deve deciderlo Apple? Tu che ne pensi?

    1. Giusta osservazione. Non mi sono addentrato nell’aspetto SoC in quanto molti dei dubbi che mi venivano posti riguardavano in maniera specifica la comparazione tra M1 ed Intel, ho preferito trattare principalmente quella con qualche piccola digressione.
      Come giustamente dici, i System on a Chip presentano sia punti di forza, che di debolezza. Ma una precisazione va fatta: solitamente i SoC includono CPU (intesa come core, cache -ovvero la memoria in cui vengono conservati i dati in elaborazione- e altre unità logiche) e GPU. La RAM nel caso dell’M1 è una componente del SoC, ma non è integrata nel chip principale, vengono usate memorie normali, come quelli già in uso sulle schede madri, solo montate sulla stessa daughterboard del SoC. Stessa cosa per la memoria disco, quello che chiameremmo SSD. Va anche ricordato che i collegamenti avvengono comunque nelle modalità ed alla velocità prevista dallo standard dell’interfaccia: un SoC rende il “pacchetto” più compatto, ma non sempre ciò garantisce prestazioni più elevate (qui però metto un asterisco, in attesa di vedere test reali sul campo). Lo scopo è ridurre i costi di assemblamento e gli ingombri. Anche se il collegamento diretto prevede dei vantaggi, una chip di memoria LPDDR4X andrà sempre e comunque alla velocità massima di trasferimento prevista, stessa cosa per una memoria flash NAND collegata tramite NVMe. Che venga saldata vicino al processore, oppure inserita in uno slot M.2 sulla scheda madre, come avviene nella maggioranza dei nuovi PC, il limite superiore di trasferimento è sempre quello. Per quanto riguarda i controller USB/Thunderbolt/ecc., sono esterni al SoC. Alcuni recenti processori Intel (Ice Lake in poi, Q3 2019), essendo Thunderbolt uno standard da loro creato, lo integrano, ma in tutti gli altri casi il controller è esterno e si trova sulla scheda madre. Idem per i modem 4G/5G e le radio Bluetooth/WiFi. A dire il vero mi pare che Qualcomm un tempo integrasse il modem 4G nei suoi SoC, ma mi pare abbiano smesso pure loro.
      In risposta alla domanda, nulla vietava ad Apple di mantenere simili prestazioni pur permettendo l’aggiornamento di alcune componenti. Quindi è stata una scelta voluta. E l’esempio lampante a favore di questa affermazione altri non è che il Surface Pro X di Microsoft. Lanciato un anno fa, questo tablet/portatile include un SoC sviluppato da Microsoft e Qualcomm. Anzi 2 SoC: il Microsoft SQ1, che include un tipo di GPU integrata, e SQ2, più potente, che ne include un’altra. Entrambi sono disponibili in due configurazioni, da 8 o 16GB di RAM, esattamente come i nuovi Mac. Però nel loro caso l’SSD, è sostituibile, usa lo standard M.2 comune a tutti i PC moderni, anche se una versione leggermente particolare, ma non proprietaria.
      In sostanza si conferma la chiusura mentale vista negli ultimi anni: tutti i nuovi Mac con il chip T2, anche nel caso abbiano dischi tecnicamente rimovibili (come il Mac Mini o il Mac Pro), ne rendono impossibile la sostituzione in quanto solo Apple ha le chiavi per poter autorizzare un nuovo disco o leggere il disco smontato su un altro PC. Il tutto è stato giustificato sotto l’egida della sicurezza/privacy, ma nel mondo PC esistono altri metodi robusti di cifratura (ad esempio BitLocker su Windows, o anche FileVault proprio su Mac) che funzionano a livello totalmente locale ed autonomo.
      E non parliamo della crescente chiusura del sistema operativo, con l’onnipresente GateKeeper che proprio in questi giorni è oggetto di discussione in quanto molti si accorgono della sua esistenza.
      Proprio questi atteggiamenti, un po’ alla Henry Ford (“Any customer can have a car painted any colour that he wants, so long as it is black”) han portato chi segue il settore a sottovalutare l’aspetto di imposizione sugli utenti, in quanto da tempo per molti la scelta Apple costringeva comunque a compromessi forzati e nessuno si aspettava maggiore flessibilità da loro, anzi. Quindi nessuno si è sorpreso particolarmente per il limite massimo di 16GB di RAM, che onestamente (dei tre PC annunciati) si sente solo sul Mac Mini, che era un PC estremamente sottovalutato nella gamma Apple ed aveva un suo piccolo seguito in quanto dotato di un ottimo rapporto qualità prezzo, con RAM espandibile dopo l’acquisto a tariffe di mercato normali. Ora è stato effettivamente castrato.
      Non so cosa ci riserva il futuro, e di solito tendo pure a sbagliare le previsioni. Come ipotizzavo nell’articolo, ritengo la suddivisione finale sarà tra queste macchine ARM come “fascia medio/bassa” (in termini di esigenze dell’utente), e PC/Mac Intel “vecchia scuola” per chi ha esigenze particolari. Ma anche la possibilità di un M1 per utilizzi casual, M2 per usi più professionali e così via ha senso. In fondo aver lanciato l’etichetta Apple Silicon, cosa mai fatta in oltre 10 anni di loro CPU in-house, fa pensare che il meglio debba ancora venire. Però è troppo presto per poter fare speculazioni, bisognerà vedere come andrà M1 nel mondo reale e come sarà il supporto software esterno. Sicuramente Apple starà già lavorando internamente ad un M2, forse anche M3, ma prima di decidere quanto spingere con l’acceleratore immagino pure loro vorranno vedere come va il lancio dei primi prodotti Apple Silicon. Ma sembrano tutti concordi sul fatto che questi chip sono qui per restare.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *