Recensione: AKiTiO Node Pro, eGPU via Thunderbolt 3 per professionisti

Leggi questo articolo grazie alle donazioni di Roberto Di Lonardo, Andrea Ippolito, Stefano Mariani, Mario Campo, Carlo Rapisarda, Flavio Vallenari, Carlo Scian.
♥ Partecipa anche tu alle donazioni: sostieni SaggiaMente, sostieni le tue passioni!

Sono sempre stato piuttosto scettico sulle eGPU, più che altro perché non le considero economicamente convenienti viste le limitazioni imposte dalla banda Thunderbolt 3, tuttavia mi sono convinto che fosse il caso di testarne l’effettiva resa sul campo. Non sono l’utente tipo per queste soluzioni, in quanto non potrei comunque fare a meno di una postazione fissa, ma immaginate di avere un computer portatile spesso pochi millimetri che, arrivati davanti alla scrivania, possa eguagliare in potenza una di quelle torri piene di cavi, ventole e schede. Immaginatelo… perché non è possibile. Non mettiamo limiti a ciò che l’uomo sarà in grado di fare con una manciata di silicio in un paio di generazioni, ma è lecito prevedere che le scale dimensionali incideranno sempre sui risultati. Siamo già arrivati al punto in cui un computer da palmo è abbastanza veloce per compiere quasi tutte le operazioni più comuni, un portatile medio è persino sovradimensionato per molte persone e i PC da scrivania iniziano ad essere delle rarità destinate ai professionisti ed ai giocatori più esigenti. Ma cosa offre il mercato a chi trova piena soddisfazione con un portatile per la maggior parte del tempo ma avrebbe saltuariamente bisogno di maggiori prestazioni per giocare o lavorare davanti ad uno schermo più grande? La soluzione è semplice: due computer, un portatile e un fisso, ma non tutti sono disposti a sopportarne il costo, così come la maggiore complessità gestionale.

Risolvere i limiti di input ed output è piuttosto semplice, basta usare uno schermo esterno con mouse e tastiera dedicati, ma i computer che nascono per la mobilità usano mediamente CPU, RAM e GPU che prediligono i bassi consumi alle prestazioni, per cui la potenza di calcolo sarà sempre limitata rispetto le controparti desktop. Ciò non rappresenta un problema in molti casi, difatti l’uso del portatile a mo’ di fisso su una scrivania stazionaria è diventata una consuetudine, tuttavia ci sono attività per cui servono necessariamente maggiori prestazioni. Una soluzione parziale a questo problema è arrivata con la connessione Thunderbolt: l’attuale generazione 3 supporta fino a 4 linee PCIe 3.0 per un totale di 32Gbps. Una velocità inimmaginabile fino a pochi anni fa per le periferiche esterne. Ma se questa è più che sufficiente in alcuni ambiti (come lo storage, dove se ne possono sfruttare 22) è ancora molto distante da quella necessaria a CPU e RAM per scambiarsi informazioni. Ciò significa che questi due elementi non possono funzionare all’esterno in modo efficiente e rappresentano un paletto fermo nel potenziamento di un portatile.

D’altro canto, i box Thunderbolt 3 ci offrono la possibilità di connettere facilmente una scheda grafica all’esterno. E passare da quelle di classe mobile ad una da desktop cambia radicalmente i risultati, con tutto che si sfrutteranno solo 4 delle 16 linee massime della PCIe 3.0. Ho già pubblicato un articolo per spiegare come funziona il tutto, esponendo le ragioni del taglio di banda dal punto di vista numerico, quel che rimane da capire è come e quanto una e(xternal)GPU possa migliorare le prestazioni di un portatile come il MacBook Pro.

Il box che ho comprato è l’AKiTiO Node Pro, che ritengo il più completo, efficiente ed “economico” tra quelli disponibili in commercio. Le ragioni della mia scelta sono molteplici e alcune le potrò spiegare solo più in là nella recensione, ma inizio col dirne un paio di quelle per me rilevanti. La prima è che questo box contiene un valido alimentatore da 500W, capace di far funzionare senza problemi le migliori GPU moderne e al tempo stesso caricare la batteria del computer connesso con Power Delivery fino a 60W. Ciò è sufficiente per coprire completamente le esigenze energetiche del Pro da 13” oppure la gran parte di quelle del modello da 15”. Quest’ultimo arriva a consumare un massimo di 87W sotto massimo sforzo e solo in queste situazioni l’alimentazione ricevuta tramite Thunderbolt 3 dall’AKiTiO Node Pro non sarà del tutto sufficiente e si limiterà a rallentare la scarica o alimentare senza caricare. Sono comunque situazioni limite, di cui nella maggior parte dei casi neanche ci si accorgerà e rimane la possibilità di collegare anche l’alimentatore nativo se proprio si debba eseguire una lunghissima operazione che sfrutta completamente le risorse di sistema.

akitio-node-pro-7

La seconda ragione è che la struttura di 13,5 x 26,6 x 35,7 cm è abbastanza compatta ma riesce a contenere schede grafiche di qualsiasi tipo. Non tutti i box hanno questa possibilità, alcuni obbligano l’impiego di quelle a metà lunghezza oppure fissano un tetto massimo inferiore ai 330 mm. Se si sa già quale GPU comprare, e si pensa di adoperare sempre e solo quella, si potrebbe anche scegliere un box più limitato, ma io ho preferito avere totale libertà visto che avevo in mente di sperimentare diverse schede che ho in redazione.

Un altro importante vantaggio è quello di offrire sia una seconda Thunderbolt 3, per il collegamento di altri dispositivi in cascata, che una DisplayPort 1.2. È più che ragionevole pensare che un’uscita video sul case sia del tutto inutile visto che la GPU che si collegherà avrà le proprie uscite, ma non è così. Tenetelo a mente, più avanti vi spiegherò perché si tratta di una cosa utilissima e potenzialmente fondamentale per alcuni impieghi.

Il case è tutto di metallo, peraltro molto spesso e robusto come da tradizione AKiTiO. La colorazione scura (simil grigio siderale) ed un design lineare con angoli arrotondati lo rendono molto gradevole alla vista nonché perfettamente abbinato ai MacBook Pro. Il top si apre svitando con le mani due viti d’acciaio sul retro, le quali possiedono un preciso meccanismo a molla e non si staccano a fine corsa, così non rischiamo di perderle. Con un breve slittamento verso il retro si rimuove il coperchio e si ha accesso all’ampio vano interno.

Altre due viti di ottima qualità fissano la scheda grafica. Sono molto alte e belle da vedere ma soprattutto utili, perché forniscono un’ottima presa e si riescono a svitare ed avvitare a mani nude. Ci sono due cavi di alimentazione 6+2 pin, in modo da riuscire a connettere praticamente ogni tipo di scheda con un totale erogato di 400W. Nel case ci sono due ventole, una molto silenziosa integrata nel piccolo alimentatore ed una da 80mm destinata al ricircolo dell’aria. Quest’ultima è alimentata e controllata con connettore DC (3 pin) ed è di buona qualità ma è comunque rumorosa, perché viaggia costantemente a velocità elevate. Forse si sarebbero potuti inserire dei sensori di temperatura e l’elettronica per il controllo in PWM, però il case è traforato sul lato in cui si trovano le ventole della GPU, che quindi possono agire indisturbate.

Per questo motivo ho deciso di provare a scollegare completamente la ventola dello chassis, rendendo il case quasi completamente muto. Le schede grafiche poste all’interno di un computer hanno le pale tipicamente rivolte verso il basso (a meno di case con installazione della scheda madre capovolta) e si trovano in una condizione termica peggiore visto che devono allontanare l’aria calda che tenderà a ritornare indietro verso l’alto. E non sempre ci sono delle ventole aggiuntive che portano aria fresca da quelle parti, dunque la disposizione verticale dentro il Node Pro con un’ampia superficie di dissipazione verso l’esterno mi è sembrata una condizione di partenza più che sufficiente. Ho fatto qualche prova e tenendo attiva la ventolina aggiuntiva le temperature migliorano da un minimo di 1 ad un massimo di 4°: non abbastanza da giustificare la rumorosità aggiunta, secondo me, soprattutto perché nessuna GPU che ho testato è mai andata in sofferenza durante il lavoro. Lascio a voi la decisione di scollegarla o meno, personalmente ho preferito farlo.

Saltiamo al vivo delle prove, iniziando dal chiarire (per quanto possibile) l’attuale condizione in ambiente Apple. Ho iniziato a provare le eGPU con la build 17C205 di macOS 10.13.2, prediligendo le soluzioni NVIDIA (più avanti ci soffermeremo sulle motivazioni ed il confronto con AMD). Non c’era nulla di ufficiale, eppure sull’iMac 27″ 5K 2017 (recensione) mi è bastato seguire lo stesso procedimento degli Hackintosh con l’aggiunta di un ulteriore passaggio. Le migliori indicazioni le ho trovate su questa pagina ma, in sintesi, si è trattato di installare i webdriver NVIDIA specifici per la build in uso, disattivare SIP (protezione dell’integrità di sistema del Mac) e poi installare il pacchetto NVIDIA-EGPU. Tutto qui.

In realtà dopo aver fatto questo mi sono trovato con lo schermo interno dell’iMac completamente oscurato all’avvio, poi ho scoperto che bastava collegare la eGPU a computer acceso, aspettare che venisse riconosciuta (verificando da Informazioni su questo Mac / Resoconto di sistema…) e poi fare un logout / login. La situazione aveva il sapore della totale precarietà, nulla di cui ci si potesse fidare in un ambiente produttivo, eppure i miei primi test lasciavano davvero ben sperare.

Per qualche bizzarra ragione la stessa identica procedura non andava sul mio MacBook Pro 13″ 2017 senza Touch Bar (recensione), ma avendo visto questi ottimi risultati ho preso una decisione difficile: l’ho venduto per sostituirlo con il modello da 13″ con Touch Bar. Sapete che non amo affatto quella striscia OLED che mi rende orfano di Esc e dell’intera riga di tasti funzione fisici, tuttavia ho intravisto una possibilità davvero interessante per i tre mesi estivi che trascorro nella casa a mare. Ma avrei dovuto ascoltare meglio i miei stessi consigli:

C’è poi da ricordare che Apple non è affatto obbligata a mantenere il supporto per le eGPU (NVIDIA) per cui nulla vieta che da un giorno all’altro queste possano non funzionare più. [..] Sappiamo che a Cupertino [..] sembra esserci una partnership molto forte con AMD (purtroppo…), non è così improbabile che ci cassino questa possibilità con futuri aggiornamenti.

Ed è andata proprio così visto che mentre testavo la RX 580 sul precedente MacBook Pro 13″ senza Touch Bar con macOS 10.13.4 in beta, è uscita la versione definitiva 10.13.3 che ha drasticamente ridotto le performance delle GPU NVIDIA con OpenCL. Per un po’ si è pensato ad una situazione di passaggio, magari colpa dei driver, per cui ho atteso l’arrivo della 10.3.4 definitiva prima di pubblicare questa recensione. Purtroppo questa non ha solo confermato i miei timori sulle NVIDIA, che oggi non funzionano più col semplice metodo illustrato prima, ma è andata ben oltre tagliando fuori l’uso di qualsiasi eGPU via Thunderbolt 1 e 2, mai supportate ufficialmente ma comunque funzionanti fino a quest’ultimo aggiornamento. È senza dubbio una situazione in cui tutto può cambiare da un giorno all’altro, sia per le prossime release di macOS che per eventuali hack della comunità, però al momento ci troviamo con un supporto comodissimo, praticamente plug-n-play, solo per una limitata quantità di GPU AMD e solo sui Mac dotati di Thunderbolt 3.

Mettiamo per un attimo da parte tutto il calvario per analizzare la capacità computazionale registrata con Geekbench 4 con la AMD RX580 (Sapphire OC 8GB) su MacBook Pro 13″ TB (2017) base a confronto con la Radeon Pro 580 dell’iMac 5K (2017) top di gamma con opzioni complete (a partire dall’i7). Come si potrà notare, il taglio di 8 linee PCIe in questo caso non ha influito sulle prestazioni massime di questa scheda di fascia media, che sembra quasi più performante nella sua variante desktop montata esternamente tramite l’AKiTiO Node Pro.

Tutto sommato già questo appare come uno scenario molto positivo, perché se è vero che la CPU dual-core mobile del 13″ non può competere con quella quad-core desktop dell’iMac 5K (per altro con 8 threads), tutte le elaborazioni in cui la GPU venga ben sfruttata potranno beneficiare di un incremento di performance teorica del 420% circa rispetto la iGPU Intel Iris Plus 650. La parolina magica qui è “teorica”, in quanto ci sono tre aspetti concreti e molto importanti da considerare:

  1. Il monitor interno del MacBook Pro viene comunque pilotato dalla iGPU, lasciando la eGPU completamente scarica per i calcoli, mentre sull’iMac i 5K dello schermo pesano sulla GPU discreta.
  2. Quando si collega un display sulla eGPU si ottiene una naturale diminuzione delle prestazioni (poiché la stessa deve gestire anche il rendering a video) e le modalità di output disponibili per risoluzione e frequenza di refresh saranno ridotte per via della connessione PCIe su Thunderbolt 3.
  3. Non tutti i software comuni consentono di selezionare la GPU da sfruttare, per alcuni è necessario chiudere lo schermo del portatile (in modalità clamshell) e collegare uno schermo esterno direttamente sulla eGPU (per altri sembra proprio impossibile farlo).

Per il primo punto il grafico qui di seguito vi mostrerà quanto si perde già con uno schermo 2560 x 1440 @60Hz, e questo ha solo 1/4 dei pixel del 5K presente nell’iMac 27″ 2017. Possiamo dunque considerare che, all’atto pratico, le prestazioni reali della RX580 come eGPU non siano effettivamente migliori. Una ulteriore conferma ci arriva con il punto due, dal momento che non si avrà la possibilità di selezionare tutte le modalità di output native, per cui niente UHD @60Hz ma solo @30Hz. E se abilitiamo la modalità HiDPI (alias Retina) allora non regge neanche un banale 1920 x 1080 a @60Hz. Capite bene quanto questo possa risultare limitante, anche perché a @30Hz è davvero fastidioso lavorare con il computer dato che ogni elemento risulta poco fluido e il puntatore pare muoversi in ritardo. Ecco perché le prove le ho effettuate a 2560 x 1440 @60Hz, che ritengo il miglior compromesso per impieghi professionali.

Qui veniamo al terzo punto: non ho modo di provare ogni software esistente e nei miei test il gaming è l’ultimo dei pensieri (per quello credo sia meglio optare per Windows o una console), quindi mi devo necessariamente limitare al mio ambito di utilizzo, che è legato al mondo della grafica e del video, con qualche saltuaria incursione nel VFX. L’unico altro benchmark “astratto” che vorrei citare è LuxMark, il quale sfrutta il motore fisico LuxRender – utilizzabile in software come Blender, 3DS Max, Maya, Cinema 4D ed altri – per darci un’idea delle potenzialità dell’hardware via OpenCL. Con la scena più complessa, ovvero Hotel Lobby, ho ottenuto solo 672 con il MacBook Pro 13″ TB sfruttando CPU+iGPU, che salgono a 2826 passando a CPU+eGPU e addirittura a 3177 con tutte e tre. Non male se si considera che l’iMac più carrozzato del 2017 con i7 e Radeon Pro 580 si attesta su 2952 punti.

akitio-node-pro-egpu-test-luxmark

Ora il punto però è un altro, ovvero se riusciamo o no a sfruttare questa capacità di calcolo partendo da un portatile. Nel gaming direi di sì, perché già il Full HD è mediamente accettabile su uno schermo esterno e si potrà chiudere il display integrato, spingendo al massimo una scheda come la RX 580, che proprio schifo non fa a queste risoluzioni. Il problema è che a me interessano impieghi diversi e negli ambiti provati i risultati sono quantomeno altalenanti. Ad esempio mi aspettavo che Final Cut Pro X andasse automaticamente a gestire la eGPU visto che non ci sono settaggi per questa e che si tratta di uno degli ultimi baluardi del “software professionale made in Apple”, mentre collegando la scheda grafica esterna non è migliorato nulla, né con il solo monitor integrato del portatile né con uno schermo 2560 x 1440 @60Hz sull’uscita video della eGPU. Anzi, in realtà la situazione è persino peggiorata, al punto che immaginavo ci fosse un errore nei miei calcoli, ma la stesso identico risultato l’ho ottenuto con tutti e due i MacBook Pro 13″, sia quello senza che con Touch Bar. Preciso che ho svuotato i file pre renderizzati prima di ogni prova proprio a scanso di equivoci. Basandomi su questo direi che chiunque lavora con Final Cut Pro X non abbia nessun apparente vantaggio da una eGPU, ma la cosa mi pare davvero troppo strana dal momento che vi è il supporto nativo di Apple. Più facile immaginare che le cose cambieranno nel medio termine ma, per ora, la situazione con macOS 10.3.4 (build 17E199) è questa. Di seguito i risultati dell’esportazione del filmato di prova in 5K “BruceX” sia in H.264 (che ricordo sfrutta la tecnologia Intel Quick Sync) che ProRes 4:2:2.

Facciamo un salto in terre ben più serene in casa Blackmagic, dove DaVinci Resolve 14 offre un comodo pannello di preferenze per scegliere qualche scheda grafica utilizzare e con quale modalità: OpenCL o Metal. Li ho provati entrambi e credevo che almeno qui Metal portasse qualche vantaggio, ma ho ottenuto sempre un 10/20% in più con OpenCL su ogni operazione. Inizierei dalla fluidità operativa, che con la Iris 650 è abbastanza scarsa. Con il test Standard Candle ho ottenuto gli fps più bassi che mi sia mai capitato di vedere. DaVinci Resolve fa usare anche la potenza grafica della eGPU mentre si lavora sullo schermo interno ma sorprendentemente va anche meglio se si collega il display direttamente sulla scheda grafica esterna. Ovviamente c’è sempre il limite della risoluzione massima disponibile a 60Hz, che ancora una volta è di 2560 x 1440. Trattandosi di fps un numero maggiore è meglio.

Il vantaggio ottenuto con la eGPU è davvero consistente in questo caso, sintomo che deve essere solo il software a consentire una selezione diretta della scheda da utilizzare. Il MacBook Pro 13″ TB base con la RX580 è arrivato davvero vicino all’iMac 5K 2017 top di gamma, che è un risultato notevole se si considera che in quest’ultimo c’è una CPU quad-core invece che dual-core (e nel mio esemplare 40GB di RAM invece che 8). In esportazione il vantaggio è ancora più accentuato (ho usato la clip Standard Candle con il 66 Blur attivo) e solo con l’HEVC, che non ha una spinta hardware, viene fuori in modo evidente la maggiore potenza bruta della CPU dell’iMac 5K.

In casa Adobe, purtroppo, non c’è quasi mai un metodo di selezione diretta della GPU, almeno non su Photoshop, Lightroom e Premiere, la triade che più spesso ospita gli schermi dei miei computer. Quello che mi interessa di più, in quanto può fare davvero la differenza tra la possibilità di utilizzo o meno in mobilità è Premiere Pro, dove il collegamento della eGPU di AMD fa più male che bene, ancora peggio che con Final Cut Pro X. È davvero difficile capire cosa combini, perché fa solo scegliere il tipo di accelerazione tra OpenCL e Metal senza poter selezionare la scheda, e siccome sono entrambi supportati anche dalla iGPU evidentemente non passa alla eGPU, sia con il monitor interno che collegando il solito 2560 x 1440 @60Hz sull’uscita video nativa. Preciso che non uso mai Metal su Premiere perché va in crash praticamente sempre ed è comunque più lento di OpenCL (come d’altronde lo stesso Final Cut Pro X), ma in tutti casi il risultato rimane assurdo perché con la eGPU connessa l’esportazione diventa persino più lenta. Moooolto più lenta. Diametralmente opposto il discorso con le NVIDIA, almeno finché erano utilizzabili. Con queste si può/poteva selezionare dalla tendina delle impostazioni progetto l’accelerazione CUDA per essere automaticamente indirizzati sulla eGPU, essendo l’unica che la supporta. Vi faccio vedere due numeri così capite di che differenze enormi sto parlando.

Come si può notare una banale GTX 1060 quasi compensa da sola l’enorme differenza tra la CPU base del MacBook Pro TB (dual-core di classe mobile) con l’i7 quad-core opzionale più costoso e di classe desktop installabile sull’iMac 5K (2017). Ballano davvero pochi secondi di differenza e soprattutto la timeline con le GPU NVIDIA scorreva molto più fluida rispetto alla Radeon Pro 580 dell’iMac. La 1070 ti in realtà la demolisce proprio la AMD 580, ma essendo una scheda ben più potente la riduzione di banda della Thunderbolt 3 si sente parecchio. Ecco perché ho detto in altri articoli che la 1060 è quella che a mio avviso offre il miglior rapporto spesa/benefici come eGPU a cui si può preferire al massimo una 1070/1070 ti per raggiungere il limite. Le 1080, 1080 ti o XP sono tanto più sprecate quanto si sale con la spesa, sempre secondo il mio personalissimo parere. Difatti ho fatto qualche prova e le differenze erano così minime rispetto la 1070 ti da non giustificare il sovrapprezzo (di listino questa dovrebbe stare a 469€ se la si trova disponibile).

Ma torniamo un attimo coi piedi per terra, ricordandoci che l’ultima versione di macOS ha tagliato i ponti con tutto e con tutti, lasciandoci una sola scelta: AMD. Spero davvero che le cose cambino grazie alla comunità di sviluppatori di tutto il mondo, perché poter usare le eGPU di NVIDIA mi aveva fatto davvero pensare che fosse possibile trarre un vantaggio da queste soluzioni. E in effetti è così per chi vuole avere un solo computer portatile con eGPU, a patto che non sia un Mac. Già dal 2016 Razer propone notebook con soluzioni simili (e non è l’unica) dove si possono sfruttare le eGPU NVIDIA con box standard. Alla luce di questi risultati direi che possono essere davvero una scelta interessante, più di quanto inizialmente potessi immaginare (a patto di non metterci dentro schede troppo potenti che andrebbero sprecate). In teoria si dovrebbe poter fare la stessa cosa installando Windows con Boot Camp sul MacBook Pro, ma lì Apple non ha ancora fornito il supporto ufficiale… non ho proprio provato, se devo essere sincero, perché mi viene un po’ l’orticaria ad usare Windows su un Mac, ma prometto che farò un test nei prossimi giorni per amore della scienza e di voi SaggiUtenti. Schede superiori alla RX 580 di casa AMD non ne ho potute provare a causa dell’indisponibilità delle Vega sul mercato, ma ho la 56 nell’iMac Pro e devo dire che non ne sono affatto contento, quindi sono felice di non aver comprato una Vega 64 anche considerando il suo attuale costo del tutto spropositato.

Con Lightroom i vantaggi della eGPU non sono venuti fuori, mentre con Photoshop sì e anche usando solo il monitor integrato del MacBook Pro. Questo perché, a differenza di quello che molti pensano, il più noto software di fotoritocco usa l’accelerazione hardware della GPU per tantissime cose, tra cui il rendering della tavola, lo zoom, lo scorrimento, il ridimensionamento, le selezioni e tutta una serie di filtri. Con il mio tipico preset ho infatti ottenuto un discreto miglioramento già nell’applicazione delle azioni in batch, ma anche nell’esportazione di un gruppo di foto sono passato da 4:16 a 3:07… e questo con la mediocre AMD RX580.

Guardiamo nuovamente il retro dell’ottimo AKiTiO Node Pro e concentriamoci su una cosa in particolare: l’uscita video DisplayPort 1.2. Si tratta di uno degli aspetti più importanti che caratterizzano questo case e che, a mio modo di vedere, può risultare fondamentale. Grazie a questa porta si potrà collegare uno schermo con risoluzione fino all’UHD/4K a 60Hz che graverà solo sulla iGPU, aggirando i limiti dell’uscita video sulla eGPU che sarà anche libera di operare solo come nucleo di calcolo. Il limite che si incontrerà all’atto pratico è quello discusso poco fa, perché ci sono troppi software che ancora non offrono all’utente la possibilità di selezionare manualmente il processore grafico, ma fortunatamente questa caratteristica è presente nei software più professionali in ambito VFX e modellazione 3D. Non sono in grado di farvi un elenco visto che non li uso quotidianamente, ma avete visto come la cosa funziona bene con DaVinci Resolve 14 di Blackmagic e più si sale di livello più è facile che vi sia un controllo granulare sulla GPU, come d’altronde consente di fare LuxRender. Dal momento che tra i nostri utenti ci sono molti professionisti giro a loro la domanda, perché dovrebbe essere relativamente semplice controllare se esiste questa opzione nelle preferenze dei programmi che usano più spesso. Ad esempio l’amico Simone mi ha appena detto che lui lavora con Rhinoceros e l’ultima versione V6 ha questa possibilità, anche se al momento è uscita solo per Windows e la beta per Mac è attesa entro l’anno.

Con le sole opzioni AMD ed un buon case esterno i vantaggi possono comunque esserci e questo è innegabile, tuttavia si stava meglio quando Apple non si era messa in mezzo, perché potevamo installare le ben più performanti e supportate NVIDIA, che con CUDA hanno un campo di applicazione professionale sterminato, andando dai semplici software di grafica e video agli ambiti più evoluti del 3D, dell’animazione e della ricerca. Apple ha provato a fare la stessa cosa con Metal e su mobile si è dimostrata una buona scelta, mentre su desktop non sono ancora riuscito a trovare un solo esempio in cui apporti vantaggi concreti al di fuori del rendering delle interfacce macOS. Al momento il tris Apple-AMD-Metal non si è dimostrato in grado di portare vantaggi concreti per gli utenti Mac, perché dal gaming agli impieghi professionali ho sempre visto che una GPU di NVIDIA di pari valore va meglio. Ci saranno, non lo metto in dubbio, ma sono probabilmente al di fuori della mia sfera di visione e sicuramente non ora che le AMD sono state prese d’assalto dai miners, rendendo il loro unico vantaggio (l’economicità) non più attuale. Tanto per fare un esempio concreto, una RX 580 8GB a maggio del 2017 costava circa 300€ e a novembre era persino scesa a 280€, mentre oggi se la si trova la si paga circa 450€, che è un prezzo con cui si compra facilmente una ben più potente GTX 1070 come ci capita di segnalare con le nostre SaggeOfferte. Io non dico che debbano rompere questo sodalizio o che debbano andare a braccetto con NVIDIA, che è l’azienda che più cresce anno su anno, ma almeno che ci lascino in pace di sperimentare senza metterci i bastoni tra le ruote. Nessuno mai se l’è presa con Apple se un driver non nativo risultasse instabile, per cui questa farsa di una mamma chioccia gentile che i fan ci spacciano come la caramella più dolce inizia a stancare.

Conclusione

La recensione dell’AKiTiO Node Pro è stata una delle più complicate che io abbia realizzato negli ultimi tempi e credetemi se vi dico che qui ho pubblicato il 10/15% dei test che ho fatto al fine di mantenere la leggibilità e la comprensibilità. Inoltre alcuni li ho proprio dovuti scartare perché gli aggiornamenti di macOS hanno cambiato le carte in tavola più e più volte. Vista la situazione attuale circa il supporto alle eGPU era inevitabile che la prova si intrecciasse con tutta una serie di considerazioni che esulano dal prodotto in sé ed è qui, nelle conclusioni, che ci dobbiamo mettere tutto alle spalle e valutare questo case Thunderbolt 3 per quel che è. Il prezzo di 356€ non è basso in senso assoluto, ma guardando alle altre opzioni disponibili si rischia facilmente di considerarlo un affare. Qui abbiamo infatti una costruzione eccellente, supporto dimensionale per tutte le GPU e con alimentatore dedicato da 500W, power delivery fino a 60W per ricarica del portatile connesso, una porta Thunderbolt 3 passante ed una DisplayPort 1.2 dedicata sul case. L’unica alternativa che mi piace è il Mantiz Venus, che ha un hub di porte USB frontali e posteriori, porta Ethernet ed una SATA interna per l’installazione di un SSD; purtroppo non ha Thunderbolt 3 passante e neanche la DisplayPort dedicata, per cui mi sembra ok per il gaming e cose minori ma decisamente meno pratico per impieghi professionali a meno di non fare ricorso poi ad altri adattatori per avere una uscita video che poggia sulla iGPU senza limiti di banda ed altri dispositivi che sul Note Pro possiamo mettere in cascata su Thunderbolt 3 (anche un secondo schermo, volendo). Il mio giudizio sul prodotto è eccellente, già solo i sistemi di apertura e cambio scheda rendono giustizia alla cura per la qualità e i dettagli che distingue AKiTiO. Quello che ancora non convince non dipende da loro e si chiama macOS High Sierra, unito alle politiche restrittive che Apple continua a portare avanti a dispetto dei propri acquirenti.

PRO
+ Ottima costruzione
+ Dimensione ottimale per comodo trasporto e ampia flessibilità di installazione
+ Comode viti per fare tutto con le mani
+ Alimentatore da 500W (400W dedicati alla scheda oltre ai 75W via PCIe)
+ Porta Thunderbolt 3 in uscita
+ Ricarica il computer con PD fino a 60W
+ Tasto di accensione e spegnimento meccanico
+ Luci LED di attività frontali e posteriori
+ Uscita DisplayPort 1.2 nativa sul retro (utilissima per i professionisti)
+ Ottima areazione passiva grazie all’ampio laterale traforato
+ Alimentatore particolarmente silenzioso
+ Buon prezzo rispetto a soluzioni analoghe con meno funzioni

CONTRO
- Il cavo Thunderbolt 3 in dotazione è piuttosto corto
- La ventolina aggiuntiva è un po’ rumorosa (ma si può staccare perché il case è ben areato)

DA CONSIDERARE
| Gli unici problemi non sono del prodotto e si chiamano Apple, macOS e AMD

Maurizio Natali

Titolare e caporedattore di SaggiaMente, è "in rete" da quando ancora non c'era, con un BBS nell'era dei dinosauri informatici. Nel 2009 ha creato questo sito nel tempo libero, ma ora richiede più tempo di quanto ne abbia da offrire. Profondo sostenitore delle giornate di 36 ore, influencer di sé stesso e guru nella pausa pranzo, da anni si abbronza solo con la luce del monitor. Fotografo e videografo per lavoro e passione.