|
|||||||
|
|
|
![]() |
|
|
Strumenti |
|
|
#41 |
|
Senior Member
Iscritto dal: Sep 2003
Città: Torino
Messaggi: 21172
|
non vorrei deluderti ma non potrai farlo: deve implementarlo ubisoft, e dubito lo faccia su odyssey figuriamoci origins. già bene che lo farà su valhalla che è tutt'ora supportato
|
|
|
|
|
|
#42 | |
|
Senior Member
Iscritto dal: Nov 2014
Città: Yharnam
Messaggi: 2874
|
Quote:
Sono entrambe soluzioni con i presupposti del "voglio ma non posso", altro che mirabolanti evoluzioni tecnologiche.
__________________
Intel i9-10980XE + Kraken X53 - ASUS TUF X299 MARK 2 - 64GB Corsair Dominator DDR4 - Radeon RX 6900 XT - EVGA SuperNOVA T2 1000w - 2x Samsung SSD 980 PRO 2TB - Pioneer BDR-S12J-X - Thermaltake Kandalf VA9003BWS - ASUS PG42UQ - Filco Majestouch-2 - Razer DeathAdder Elite - M2Tech Young MKIV - Rudistor NX-03 - AKG K702 65th A.E. Cardas - Foto - YouTube - Steam - MyAnimeList |
|
|
|
|
|
|
#43 | |
|
Senior Member
Iscritto dal: May 2004
Messaggi: 8363
|
Quote:
Se è per questo anche la rasterizzazione è nata per il motivo “voglio ma non posso” Ultima modifica di coschizza : 07-06-2021 alle 14:28. |
|
|
|
|
|
|
#44 |
|
Senior Member
Iscritto dal: Jul 2008
Messaggi: 8236
|
Io sono abbastanza fuori dal giro xò volevo puntualizzare qual è il peccato originale per il quale sono state introdotte DLSS e FSR. Se non erro, e dai benchmark mi sembra di no, nessuna scheda video è attualmente in grado di sostenere motori di gioco in 4K insieme all'uso di raytracing; ed anche qui, parlo da profano xkè ripeto non seguo molto l'argomento gaming, mi sembra di capire che l'uso di questa tecnologia di illuminazione sia minimo ma nonostante ciò mette in crisi l'hardware delle attuali schede video.
Sempre se non ho capito male il susseguirsi degli eventi, DLSS e FSR sono algoritmi inventati per correre ai ripari e sopperire alle oggettive carenze computazionali delle schede video in 4K. Aldilà delle discussioni su quale algoritmo sarà meglio o peggio, la domanda da appassionato che mi pongo è: che strada verrà tracciata per il futuro? Ovvero c'è l'intenzione e la capacità di creare schede video più potenti o no? Se "no", allora mi domando: può bastare e potrà bastare il solo potenziamento di questi algoritmi in futuro al fine di supportare con un framerate adeguato i nuovi motori di gioco con risoluzioni anche superiori al 4K? Eppoi: che si sà sul futuro dei motori di gioco? Si passerà mai dal raster al raytracing? Il mio pensiero è che è iniziata un'era ibrida che vede il vecchio mondo dei videogiochi raster contrapporsi alla nascita ed allo sdoganamento della tecnologia raytracing anche nell'ambiente videoludico, ma la potenza hardware messa in gioco è poca ed è solo agli inizi e non basta. Questi algoritmi vengono in soccorso. Ma quanto durerà questo periodo di transizione? Forse per sempre? Le tre big nvidia\amd\intel hanno intenzione cmq di fabbricare hardware ibrido raster-raytracing? Fra l'hardware e gli algoritmi quali dei due avranno interesse e profitto a sviluppare con più risorse e attenzione? Da appassionato mi piacerebbe pensare ad un potenziamento parallelo sia dell'hardware sia degli algoritmi per sopperire dove l'hardware attualmente non può, ma lo vorrei solo come toppa temporanea, un qualcosa che accetterei che durasse anche qualche anno ma senza pregiudicare lo sviluppo di nuove più potenti architetture. Xkè gli algoritmi penso che arriveranno ad un limite oltre al quale ci dovrà per forza essere l'hardware a trainare. Mi sembra di essere tornati all'epoca in cui giocare a 1024x768 era un miraggio...
__________________
System Failure |
|
|
|
|
|
#45 | |
|
Senior Member
Iscritto dal: Jan 2011
Messaggi: 4189
|
Quote:
Vogliamo parlare del G-Sync e dei vantaggi rispetto allo standard su cui di basa FreeSync? Vogliamo parlare di CUDA che doveva morire anni fa perché AMD aveva la tecnologia Fusion (cui scommetto nessuno ricorda nulla), poi HSA, prima lo Stream Computing, poi OpenGL, ora ROCm.. tutta roba open che non ha visto la minima adozione da nessuna parte? Vogliamo parlare di NVLink e dei suoi vantaggi che ancora ha rispetto al PCIe 5 che deve ancora arrivare? Tutte tecnologie cadute in disuso, certo. Magari perché arrivate quando non c'era nulla di paragonabile sul mercato che hanno spinto gli altri ad arrivare anni dopo. A parte poi che non è questione di aperto o chiuso ma di capacità/volontà di adozione della tecnologia (le DirectX sono chiuse mentre Vulkan aperto lo sai? Conta i giochi Vulkan vs giochi basati su DirectX), il DLSS non richiede agli sviluppatori nulla di che, non più di quanto AMD richieda per questa sua FidelityFX (forse anche meno, visto che fa quasi tutto da solo) e il vantaggio di AMD è solo la fornitura monopolistica dell'HW per le console. Quell'HW che costantemente frena il mercato tenendolo anni indietro. Quindi non andrei fiero del fatto che usare roba open che arriva quando va bene 2 anni dopo la "versione closed" la quale gira su HW più performante con qualità migliore sia una cosa POSITIVA. E' un modo di accontentarsi per quel mercato che usa le console e la mini frazione di giocatori che usa l'HW AMD su PC, ma per tutti gli altri è un freno all'evoluzione. Ad oggi, 2021, dopo 3 anni che è stato introdotto il raytracing e le unità per il ML, AMD ha HW capace di fare 1/3 del lavoro in RT e nulla di utile per quanto riguarda quello ML. E le console sono basate su questo HW (o meglio, il migliore HW delle console ha parte di queste capacità, l'altra neanche tutte). Il ciclo di aggiornamento delle console non arriverà prima di 3 anni, quindi 2024. Nel 2024 potremo sperare che le console saranno in grado di fare RT in quantità decente e magari, forse, avere unità per un ML decente. RT e DLSS nel 2024. Magari migliori di quelle garantite da Nvidia, ma nel frattempo il mercato è evoluto per soluzioni closed, non di certo open. Questa è la storia che proporne il mercato "open". Quello closed è in uso dal 2018 come detto. Ora scegli tu se HW antiquato che usa roba open anni dopo è un vantaggio o meno. |
|
|
|
|
|
|
#46 | |
|
Senior Member
Iscritto dal: May 2010
Messaggi: 1717
|
Quote:
Sembra di rivevere la storia del freesync e del Gsync volete spendere di più ed avere il powaaaaaaa, benissimo pensate che mi impressiono? Siete fuori strada, io ho il monitor Freesync che insieme alla RX 570 mi permette di giocare senza tearing. Rx 570 e monitor 24" FHD mi sono costati quanto il solo monitor Gsync. Pensi forse che la cosa mi turbi? A me va benissimo così. Come mi va bene che c'è una parte dell'utenza che cerca il massimo delle prestazioni. Sono scelte ognuno fa le proprie. FSR è un'aggiunta quando io ho preso la 570 non c'era, quando tutti gli altri hanno comprato la GPU non c'era. Dal 22 Giugno ci sarà, io lo provo insieme a tanti altri e decido se mi interessa o meno. Se mi piace lo tengo attivo se non mi piace lo disattivo ed ho la GPU esattamente come oggi. Poi magari il 22 Settemre esce la ver 1.1; il 22 Dicembre la versione 1.2 il 22 giugno 2022 la vers 2.0. Vediamo che succede. Non vedo sinceramente tutta sta polemica da riempire pagine di forum per cosa? Per una cosa che puoi scegliere se usare o meno? Non la usare e vedrai che non ti cambia nulla. Io la provo e decido. |
|
|
|
|
|
|
#47 | |
|
Senior Member
Iscritto dal: Nov 2014
Città: Yharnam
Messaggi: 2874
|
Quote:
__________________
Intel i9-10980XE + Kraken X53 - ASUS TUF X299 MARK 2 - 64GB Corsair Dominator DDR4 - Radeon RX 6900 XT - EVGA SuperNOVA T2 1000w - 2x Samsung SSD 980 PRO 2TB - Pioneer BDR-S12J-X - Thermaltake Kandalf VA9003BWS - ASUS PG42UQ - Filco Majestouch-2 - Razer DeathAdder Elite - M2Tech Young MKIV - Rudistor NX-03 - AKG K702 65th A.E. Cardas - Foto - YouTube - Steam - MyAnimeList |
|
|
|
|
|
|
#48 | |
|
Senior Member
Iscritto dal: May 2004
Messaggi: 8363
|
Quote:
Il dlss non è un banale upscaler se fosse così avresti ragione ma la tecnologia alla base è molto diversa |
|
|
|
|
|
|
#49 | |
|
Senior Member
Iscritto dal: Jan 2011
Messaggi: 4189
|
Quote:
DLSS e FXR sono algoritmi creati per sostenere un HW che vorrebbe ma non può. Il RT è una brutta bestia, capace in ingurgitare qualsiasi quantità di potenza computazionale abbia a disposizione. E il miglioramento dell'immagine è tutt'altro che proporzionale alla potenza utilizzata. Quindi dire come andrà il mercato e come evolverà non è facile. Di sicuro RT e raster conviveranno per diversi anni. Magari alla fine adotteranno algoritmi RT supportati da AI che garantiscono risultati simile alla computazione completa ma richiedono invece solo una frazione del tempo. Comunque l'era del path tracing completo per un gioco è distante. La rivoluzione dell'RT (che molti hanno negato alla sua comparsa) è solo agli albori: oggi abbiamo la seconda generazione di unità dedicate da parte di Nvidia e un abbozzo di supporto da parte di AMD che è ancora concentrata per il 95% sulla rasterizzazione. Intel è una incognita, ma sapendo che non ha grande esperienza nelle unità a funzione fissa necessarie per la rasterizzazione, si può supporre (e sperare) che abbia messo più enfasi sulle unità di calcolo per meglio supportare le nuove tecnologie e non quelle vecchie. Per cui finché il detentore delle forniture di HW per console non si deciderà ad mettersi a livello della concorrenza l'evoluzione verso forme di renderizzazione più evolute sarà rallentata. E non sarà facile per AMD, visto la quantità di budget dei transistor investita nella rasterizzazione.. dovrà aggiungerne ancora molti altri per portarsi a livello della concorrenza con gli algoritmi moderni (e si spera fortemente, futuri). E' ovvio che tutti vogliono offrire prodotti sempre migliori e quindi le capacità di calcolo nel futuro saranno destinate ad aumentare. Verso quale parte del mercato, rasterizzazione o ray tracing e tecnologie moderne ancora non si sa, ma sarebbe un peccato perdere questa scintilla iniziale per rimanere ancorati da scatolette che hanno un po' perso il senso rispetto alle prime versioni delle console "inserisco la cartuccia/disco e gioco sbattendomene di tutto il resto". Sono dei PC a tutti gli effetti, solo basati su HW antiquato venduto sottocosto per aumentare la propria appetibilità che altrimenti sarebbe decisamente ridotta. |
|
|
|
|
|
|
#50 | |
|
Senior Member
Iscritto dal: Sep 2003
Città: Torino
Messaggi: 21172
|
Quote:
qualcosa verrà con l'approccio chiplet o simile, ma ogni anno le nuove schede non hanno più un aumento prestazionale o perf/watt così netto come capitato invece negli anni passati resta poi da capire quanto sia più godibile un titolo 4k vs 1440p, se il gioco vale la candela perchè spendere migliaia e migliaia di euro per la vga top e il monitor 4k per poi giocare a 60fps bloccati con dlss o equivalente non mi pare molto meglio che giocare a 1440p@120fps+ fosse poi anche che con tutte ste tecnologie riusciranno a fare 100+fps in 4k, quel giorno si comincerà a parlare di 5k |
|
|
|
|
|
|
#51 | |
|
Senior Member
Iscritto dal: Jan 2011
Messaggi: 4189
|
Quote:
Vedi come solo elaborate le immagini "rispetto all'originale preso dal sensore" e vedi quanto una AI aiuti (o possa farlo) oggi a migliorare l'aspetto che anche quelli che si definiscono puristi non comprendono e accettano perché facente parte della elaborazione standard di una immagine digitale. Giusto per dire, credi che lo sharpening lo abbia inventato AMD con il FidelityFX o che con il DLSS non sia usato? Ecco, confronta una immagine con e senza sharpening (l'originale) e poi dimmi quella che "ti sembra migliore" (senza arrivare all'overshapening che invece compromette la qualità). |
|
|
|
|
|
|
#52 | |
|
Bannato
Iscritto dal: Apr 2016
Messaggi: 19106
|
Quote:
Su DS fra DLSS OFF e ON di sicuro un vantaggio anche minimo in termini sia di messa a fuoco, sia di aliasing che di nitidezza c'è eccome ed è a favore del DLSS contro ogni aspettativa. Non sembra proprio per niente che la risoluzione sia calata, zero proprio. Se poi c'è qualche gioco in cui funzionale non sò, ma le potenzialità sono mostruose. E' da mettere subito su tutti i giochi. Altro che ray tracing, la vera rivoluzione sono queste tecnologie quì. Ultima modifica di nickname88 : 07-06-2021 alle 15:05. |
|
|
|
|
|
|
#53 | |
|
Senior Member
Iscritto dal: Jan 2011
Messaggi: 4189
|
Quote:
Quindi "mi accontento" anche io e non ho bisogno di attendere che AMD realizza in SW quello che i monitor e TV fanno in HW da anni e anni. E lo potevi fare anche tu già quando hai comprato il monitor FullHD con supporto al Freesync che insieme alla 570 ti è costato come un montori 2K con supporto a G-Sync (ti sei dimenticato di specificare IPS e calibrato). Poi ognuno fa quello che vuole ma confrontare robe diverse con qualità diverse e dire "ho speso meno e mi accontento" non ha alcun senso. Le tecnologie in gioco oggi sono diverse e quella presentata da AMD non è una tecnologia, è una roba non vecchia ma stra vecchia, fatta passare per nuovo metodo per aumentare le prestazioni. Impostare la risoluzione a 1080p o 1440p e poi farla scalare dalla TV 4K è la stessa cosa. Un po' meglio, un po' peggio, ma non cambia nulla. |
|
|
|
|
|
|
#54 |
|
Senior Member
Iscritto dal: Sep 2006
Messaggi: 27860
|
personalmente giudicherò quando lo avrò visto realmente all'opera.
Detto questo spero ovviamente che abbia successo, sarebbe sicuramente una cosa positiva per tutti
__________________
CPU: Ryzen 5700x COOLER: Noctua NH-D15S MOBO: Gigabyte b550 Professional RAM: 4x8 @3600 GPU: XfX Qick319 Rx6700XT HD1: Sk Hynix Platinum p41 2TB HD2: Sabrent Rocket 1TB MONITOR: Xaomi Mi Curved 34"
|
|
|
|
|
|
#55 | |
|
Senior Member
Iscritto dal: Sep 2006
Città: Pisa
Messaggi: 301
|
Quote:
Per il resto del tempo pop corn in mano e datevele di santa ragione |
|
|
|
|
|
|
#56 |
|
Bannato
Iscritto dal: Jun 2021
Messaggi: 29
|
Molto divertito
Bello continuare a vedere questa diatriba tra fanboy nvidia vs amd. Piena di ignoranza e presa di posizione. La verità è che sia l'FSR che il DLSS sono due cavolate che tra qualche anno saranno più che dimenticate. Il RT attuale è un RT non limitato, ma proprio incomparabile a quello che dovrebbe essere. Attualmente viene "limitato" ad ombre, riflessi, qualche luce di scena, perché già questo è insostenibile a livello HW per a progettazione attuale. Il RT effettivo, con una fonte di luce che genera ombre e riflessi di conseguenza non è nemmeno calcolabile. E voi litigate sul fatto di dover aver un RT che è il 10% di quello reale e per averlo dovete giocare ad una risoluzione minore upscalata nella speranza di raggiungere almeno i 60fps che rendono un gioco fluido? dopo aver speso centinaia, se non migliaia, di euro? Leggo di gente che dice FSR è obsoleto, roba di 10 anni fa e blabla. Credete che gli algoritmi non vengono aggiornati e ottimizzati? Che non vi siano la creazione di nuovi metodi che magari portano ad uno stesso risultato ma in tempi e risultati altamente migliori? Credete che il DLSS sia il futuro? Ovvero appesantire pesantemente l'hardware solo per fare un upscaling? Leggete AI ML e vi si fondono i neuroni. NVIDIA e AMD potrebbero creare già ora schede che reggono l'RT al pieno potenziale con risultati ottimi, il problema è che quelle schede sarebbero costosissime ed utili solo in giochi unicamente basati su RT, che per ora non esistono (nemmeno tra 5 anni ci saranno). Sul resto, tra cui anche lavori di grafica, diventerebbero totalmente inutili. E poi credete che con le console attuali (tra l'altro appena uscite e che il RT non lo vedono nemmeno ad anni luce di distanza), gli sviluppatori si mettono a creare giochi che non ci girano sopra? limitati per pc quando la stragrande maggioranza gioca da console? Qui la gente sogna ed abbocca ad ogni cazzata che si sente dire. Per la rasterizzazione sia DLSS che FSR sono INUTILI, per giocare 4k l'upscaling HW di un monitor o tv dal 2k dubito fortemente che qualcuno possa notarlo e gli fps sono ottimi. Per l'8k si parla di qualcosa che attualmente per un titolo AAA non esiste proprio, DLSS FSR o meno. Ed anche in quel caso quando il 4k sarà gestito a pieno per notare l'upscaling vi servirà un monitor 80'. Datevi una svegliata.
|
|
|
|
|
|
#57 | ||
|
Senior Member
Iscritto dal: Oct 2001
Messaggi: 14739
|
Quote:
Più ne hai, più ne hai bisogno. Quindi il 4k c'entra relativamente. Queste tecnologie sono nate semplicemente perchè ci si è resi conto che si poteva avere un vantaggio nell'utilizzarle. Certo, oggi 4K+RT mette in ginocchio le schede video attuali di fascia alta, quindi li queste tecnologie trovano la loro naturale applicazione. Ma se ho una scheda di fascia bassa e mi accontento di giocare in FullHD, beh, ha senso applicarle per lo stesso principio. Un domani magari gli obiettivi di resa grafica dei videogiochi saranno parametrati sull'uso di queste tecnologie, che nel frattempo si saranno consolidate rendendo ovvio il loro utilizzo per tutti. Riguardo al ray-tracing comunque quello che servirebbe è il "coraggio", ossia nel creare un hardware in discontinuità con il passato, non più ibrido ma ottimizzato per per lavorare con questa tecnologia. Il silicio dedicato al ray-tracing oggi è solo una piccola frazione di quello di una GPU, se dedicassimo al ray-tracing la stessa quantità di silicio che oggi dedichiamo al raster avremmo di colpo prestazioni superiori di un ordine di grandezza. Nessuno lo fa ovviamente, significherebbe l'impossibilità di far girare tutti i titoli sviluppati in precedenza. Se qualcuno dovesse fare questo passo dubito sarebbe un produttore di schede video su PC, potrebbe però essere un produttore di consolle, che non si sono fatti grandi problemi a tagliare la compatibilità con il passato, sebbene negli ultimi anni, con le console sempre più simili ai PC, si sia puntato molto sulla retrocompatibilità. Ma l'outsider potrebbe sempre saltare fuori e sorprendere tutti. Quote:
E, se ci pensi bene, nei videogiochi l'output "originale" non è altro che un'immagine creata con strumenti di approssimazione nati per garantire prestazioni sufficienti, molto lontana da quello che sarebbe uno scenario reale. Introdurre un po' di "invenzione" con l'AI su un'immagine già di per se molto lontana dal reale non mi pare un così grave peccato, soprattutto se serve a migliorarne la resa finale. |
||
|
|
|
|
|
#58 | |
|
Senior Member
Iscritto dal: Feb 2000
Messaggi: 11169
|
Quote:
__________________
PC 1 : |NZXT 510i|MSI PRO Z690 A|I5 [email protected] Ghz (Pcore) 4.5 Ghz (Ecore)|AIO ENDORFY NAVI F280|32 GB BALLISTIX 3600 cl 14 g1|GIGABYTE 4070 SUPER AERO OC|RM850X|850 EVO 250|860 EVO 1TB|NVMe XPG-1TB||LG OLED C1 - 55 | PC 2 : |Itek Vertibra Q210|MSI PRO B660M-A|I5 12500|32 GB KINGSTON RENEGADE 3600|ARC A770 LE 16 Gb|MWE 750w| ARC 770 LE 16 Gb Vs RTX 3070 - CLICCA QUI |
|
|
|
|
|
|
#59 | |
|
Senior Member
Iscritto dal: Jan 2011
Messaggi: 4189
|
Quote:
Ma già il suo uso per la luce globale rende la scena molto più realistica. Se devo scegliere tra una luce realistica accompagnata da uno scaler AI e una scena ad alta risoluzione senza la luce RT, preferisco di gran lunga la prima. Il DLSS, così come tutta una serie di algoritmi con supporto all'AI sono il futuro. Non solo scaling dell'immagine, ma anche lo stesso processo di RT può essere migliorato tramite AI. Senza contare che le unità AI possono finalmente creare giochi con una intelligenza vera e non solo scriptate. E no, neanche se oggi occupassero il 100% dell'area della GPU con unità dedicate al RT si riuscirebbe ad avere giochi sufficientemente veloci se non aiuti il tutto con filtraggi. E le unità RT usate oggi accelerano solo una parte dell'algoritmo di RT, il resto lo devi comunque calcolare con la potenza bruta. Quindi tante più unità di BVH aggiungi, tante più unità di calcolo puro devi mettere perché se ne tragga beneficio. E sì, il problema come ho già detto sono le console che non permettono il vero cambio di passo. Un outsider non potrebbe fare un bel nulla, perché per progettare l'HW per una console servono X soldi, ma per avere tutto l'ecosistema che supporta tale HW in modo da venderne più d 5 e con il porting dei giochi da altre piattaforme bisogna investire 20 o 30X. L'unica speranza è che uno dei due produttori di console casalinghe cambi idea e adotti un altro fornitore in modo che si inneschi una sorta di competizione interna a chi fa meglio, come era un tempo, non a chi fa a meno prezzo per svendere meno in sottocosto. Visto che Nvidia non è mai stata interessata a vendere HW a basso costo per le console a discapito dei prodotti a maggiore margine, magari Intel con le nuove GPU e la garanzia di una capacità produttiva maggiore riuscirà a entrare e a portare finalmente un po' di modernità nel mercato con contemporaneamente una buona pubblicità e un supporto diretto al suo HW. Cosa che credo abbia bisogno essendo l'ultima entrata nel gioco. E no, anche se gli algoritmi vengono raffinati e ottimizzati i dati di partenza quelli sono e non si fanno miracoli. Non li si sono fatti in 30 anni con algoritmi offline che potevano metterci minuti a calcolare, come si può credere che li si possa fare con una cosa che deve andare in real time (e occupare il meno possibile le unità di calcolo per evitare di rubare il tempo per il frame successivo)? E sì, per una interpolazione come quella che ci sta "regalando" AMD mi basta quella del monitor che ha il vantaggio di essere compatibile con tutti i giochi, anche con Half Life del 1998, pensa te! Ecco perché spero che non venga presa come la soluzione definitiva al male delle performance scadenti: è vecchio stile, inutile e lascia in secondo piano soluzioni decisamente più valide come il VRS. Ultima modifica di CrapaDiLegno : 07-06-2021 alle 16:22. |
|
|
|
|
|
|
#60 | |
|
Senior Member
Iscritto dal: May 2004
Messaggi: 8363
|
Quote:
Oggi nemmeno con un server nvidia DGX A100 da 200.000€ puoi fare il path tracing in tempo reale numeri alla mano e ci metteremo generazioni su generazioni per avere in un pc di casa un sistema potenza almeno x volte quello che ti ho citato. L'ibrido ci accompagnerà per chissà quanti decenni ma è giusto cosi ogni sistema ha i suoi pro e contro quindi un sisteva full RT non ha senso se lo scopo e muovere un videogioco dove per avere un certo effetto potevi usare un sistema convenzionale con una frazione del costo e performance. Ultima modifica di coschizza : 07-06-2021 alle 16:55. |
|
|
|
|
|
| Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 15:03.












HD1: Sk Hynix Platinum p41 2TB HD2: Sabrent Rocket 1TB MONITOR: Xaomi Mi Curved 34"








