Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Recensione Zenfone 11 Ultra: il flagship ASUS ritorna a essere un 'padellone'
Recensione Zenfone 11 Ultra: il flagship ASUS ritorna a essere un 'padellone'
Zenfone 11 Ultra ha tantissime qualità interessanti, fra cui potenza da vendere, un display di primissimo livello, un comparto audio potente e prestazioni di connettività fra le migliori della categoria. Manca però dell'esclusività del predecessore, che in un settore composto da "padelloni" si distingueva per le sue dimensioni compatte. Abbiamo provato il nuovo flagship ASUS, e in questa recensione vi raccontiamo com'è andata.
Appian: non solo low code. La missione è l’ottimizzazione dei processi con l'IA
Appian: non solo low code. La missione è l’ottimizzazione dei processi con l'IA
Abbiamo partecipato ad Appian World 2024, evento dedicato a partner e clienti che si è svolto recentemente nei pressi di Washington DC, vicino alla sede storica dell’azienda. Nel festeggiare il 25mo anniversario, Appian ha annunciato diverse novità in ambito intelligenza artificiale
Lenovo ThinkVision 3D 27, la steroscopia senza occhialini
Lenovo ThinkVision 3D 27, la steroscopia senza occhialini
Primo contatto con il monitor Lenovo ThinkVision 3D 27 che grazie a particolari accorgimenti tecnici riesce a ricreare l'illusione della spazialità tridimensionale senza che sia necessario utilizzare occhialini
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 20-02-2020, 21:16   #221
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26107
Quote:
Originariamente inviato da nickname88 Guarda i messaggi
NO, non tutti, forse una metà e solo riguardante titoli degli ultimi anni.
Ma infatti ho parlato, non a caso, di giochi moderni. E' quello che mi aspetto ormai, e ciò che riscontro (non io, che non gioco da anni ormai, ma quando installo dei giochi ai miei figli sul loro PC Skylake i3 con scheda grafica integrata).
Quote:
Chi lo fa invece non fa altro che distribuire il numero di threads più omogeneamente sul numero di cores a disposizione senza tener conto del differente carico di ogni cores. E' il rendering infatti da cui deriva il maggior carico ed è sempre definito in un thread unico sulla totalità dei giochi o quasi, quindi si finisce per avere 1-2 cores carichi e i restanti a carico lieve o moderato.

Un ottimizzazione ideale dovrebbe invece prevedere la divisione dell'area di rendering a seconda dei cores a disposizione e del loro carico in quello specifico scenario, e cumulare i restanti threads.
Infatti non funziona così. Vedi sotto.
Quote:
Mai negato il contrario, sto solo dicendo che puoi sovradimensionarlo quanto vuoi, ma nell'arco di vita di una console diventerà obsoleto comunque.
Mi pare ovvio, ma:
1) non sovradimensionarlo lo farebbe diventare obsoleto molto più velocemente;
2) ormai le console (aka PC) ci hanno abituato a un refresh a metà del loro arco di vita.
Quote:
Originariamente inviato da k0nt3 Guarda i messaggi
Un altro elemento da tenere in considerazione lato CPU è che la fisica dell'intera scena potrebbe essere calcolata a frequenza superiore rispetto alla grafica per migliorare la latenza dell'input. Ho letto da qualche parte che è stato fatto per un gioco che ora non ricordo su xbox one x.
Questo avrebbe ancora più senso con 16 thread a disposizione.
Sì, è fattibile, e rientra in ciò a cui mi riferivo (ma il concetto era più generico e ampio) quando ho parlato dei vantaggi di poter spalmare task su più core (che comporta, per l'appunto, un miglioramento delle latenze delle operazioni).
Quote:
Ma sei sicuro che fanno così nei videogiochi moderni? Mi sembrerebbe più intelligente suddividere il lavoro in un numero relativamente elevato di "task" da dare in pasto ad un thread pool. Ovviamente ho semplificato parecchio, ma non mi sembra una cosa impossibile.
In ogni caso i motori grafici più utilizzati si contano sulle dita di una mano, quindi una volta che vengono adattati quelli ne beneficiano automaticamente il 90% del giochi.
Infatti è così che si fa. Basti vedere il link di cui sopra in cui i Naughty Dog mostrano come hanno spremuto per bene i tanti core a disposizione.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 21-02-2020, 09:39   #222
nickname88
Bannato
 
Iscritto dal: Apr 2016
Messaggi: 19106
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
2) ormai le console (aka PC) ci hanno abituato a un refresh a metà del loro arco di vita.
In realtà è successo solo con la gen scorsa, non è mica detto che si ripeterà anche con questa visto che la XBOX se non sbaglio dovrebbe uscire già con 2 versioni.
nickname88 è offline   Rispondi citando il messaggio o parte di esso
Old 21-02-2020, 17:04   #223
k0nt3
Senior Member
 
Iscritto dal: Dec 2005
Messaggi: 7064
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Infatti è così che si fa. Basti vedere il link di cui sopra in cui i Naughty Dog mostrano come hanno spremuto per bene i tanti core a disposizione.
Ultimamente andiamo d'accordo troppo spesso
Quote:
Originariamente inviato da nickname88 Guarda i messaggi
In realtà è successo solo con la gen scorsa, non è mica detto che si ripeterà anche con questa visto che la XBOX se non sbaglio dovrebbe uscire già con 2 versioni.
Anche perchè a meno di scossoni particolarmente violenti, l'hardware ora dura molto di più rispetto a un tempo.
Credo comunque che la versione light di xbox sia pensata più che altro per il cloud.
k0nt3 è offline   Rispondi citando il messaggio o parte di esso
Old 22-02-2020, 07:52   #224
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26107
Quote:
Originariamente inviato da nickname88 Guarda i messaggi
In realtà è successo solo con la gen scorsa, non è mica detto che si ripeterà anche con questa visto che la XBOX se non sbaglio dovrebbe uscire già con 2 versioni.
Perché non dovrebbe ripetersi? E' un modello che ha funzionato e funziona bene: un ciclo di 5-6 anni per le console è ormai oggettivamente insostenibile perché il tasso di obsolescenza è troppo elevato rispetto al PC, che nel gaming offre numeri di gran lunga maggiori rispetto alle console.

C'è poco da fare: per essere competitive e/o appetibili le console sono obbligate e rimodernarsi ogni 3 anni circa.
Quote:
Originariamente inviato da k0nt3 Guarda i messaggi
Ultimamente andiamo d'accordo troppo spesso
LOL Vero Ma è meglio non abituarsi troppo.

A parte gli scherzi, non è utile né essere completamente all'opposto né perfettamente allineati. La diversità è un bene prezioso per il progresso dell'umanità, ma i punti di contatto non fanno certo male.
Quote:
Anche perchè a meno di scossoni particolarmente violenti, l'hardware ora dura molto di più rispetto a un tempo.
Diciamo che ci si è messa di mezzo la legge di Moore che negli ultimi anni ha rallentato molto, non permettendo si fruttare meglio il silicio.

Altrimenti oggi avremmo CPU e GPU con più core, che avrebbero contribuito non poco.

Un esempio: i core RTX che nVidia ha piazzato nelle sue schede grafiche non sono sufficienti per gestire i 4K, sebbene le schede grafiche siano in grado di arrivarci (senza RTX). E questo perché continua a usare un vecchio processo produttivo che non consente di spingersi oltre.
Quote:
Credo comunque che la versione light di xbox sia pensata più che altro per il cloud.
Credo sia ancora presto per spostarsi sul cloud, causa infrastrutture non adeguate (per lo meno nei paesi in cui il mercato dei videogiochi è più ampio).
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 22-02-2020, 11:29   #225
oxidized
Senior Member
 
L'Avatar di oxidized
 
Iscritto dal: Nov 2013
Messaggi: 1455
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Premesso che ciò che è stato fatto con AOTS si può benissimo fare anche con altri giochi (gli sviluppatori di AOTS non sono unici bravi e capaci), era stato postato anche questo:

Spoiler:
I]"Così dicevano i Naughty Dog...e chissà come mi fido un pochino di più:

https://cdn3.dualshockers.com/wp-con...03/NDPS4_3.jpg

Qui l'articolo completo:
https://www.dualshockers.com/naughty...n-really-fast/

E se torniamo indietro I guerrilla parallelizzavano su tutti i core della Ps3 ( ) con la Cpu di Ps4 in confronto deve essere un giochetto."[/i]


E ha perfettamente ragione, visto che parallelizzare su PS4 (che, come detto, è sostanzialmente un PC) è di gran lunga più facile che farlo sulla PS3.

Basti vedere i grafici riportati, infatti, per vedere l'ottimo lavoro che hanno fatto.

Non vedo perché non possano continuare a fare lo stesso anche sulle prossime console, e perché gli altri sviluppatori non possano fare altrettanto...

Mah. Roba del genere andrebbe meglio integrata in una GPU.

Comunque parleremmo in ogni caso di coprocessori / unità di elaborazione dedicata: roba che è già dentro le CPU (ma NON dentro i core) da un bel pezzo.

Vedi sopra.

Poi è chiaro che i core in più possono essere usati anche per scaricare un po' di lavoro alla GPU, se fosse necessario (com'è stato fatto nella PS3, che era dotata di una GPU abbastanza scarsa rispetto alla concorrenza).

Anzi, roba del genere è di gran lunga più semplice da realizzare lato CPU rispetto alla GPU.

Tranquillo che i core in più verranno sfruttati. Tempo permettendo.

No, guarda che ha perfettamente ragione: a frequenze più basse i consumi sono nettamente minori.

Se non ricordo male la potenza scala linearmente con la frequenza, mentre scala col quadrato rispetto alla tensione.

Quindi in teoria l'aumento o la diminuzione della frequenza inciderebbe proporzionalmente. In realtà più aumenti la frequenza e più serve aumentare la tensione affinché il chip possa funzionare a quella frequenza. E quindi i consumi esplodono.

Ecco perché chip con molti più core, ma a frequenze più basse, consumano di gran lunga meno rispetto a chip con pochi core ma che lavorano a frequenze più elevate. Ovviamente a parità di prestazioni.

I grafici riportati rimangono teorie, non c'è niente di provato da naughtydog o da guerrilla, sono slide per spiegare come in teoria dovrebbe funzionare quello che fanno, non sono benchmark affidabili come quelli che si trovano in giro per i vari siti che fanno recensioni hardware provando videogiochi. Che PS4 sia molto più vicina ad un PC rispetto a PS3 è chiaro, e probabilmente anche la parallelizzazione potrebbe risultare più fattibile, fatto sta che di fatti non ce ne sono in queste slide, non ci sono test fatti sul campo di quello che dicono, e io non mi fido. I giochi hanno strutture diverse, non tutto è potenzialmente parallelizzabile allo stesso modo, un'avventura grafica o un punta e clicca, non possono essere parallelizzabili come un RTS, mai nella vita, è questo che intendevo nell'altro post.

Sicuramente andrà meglio integrata in una GPU ma alla fine nelle console parliamo di APU quindi diciamo che alla fine farebbe parte dell'APU.

"Poi è chiaro che i core in più possono essere usati anche per scaricare un po' di lavoro alla GPU"
Sarà proprio così probabilmente.

Vedremo se saranno sfruttati...Io continuo a dire che i giochi che escono solitamente su console, e che fanno successo non hanno proprio la struttura per essere parallelizzati o comunque non parallelizzati tipo AOTS, come pure buona parte di quelli che escono su PC, vedremo poi come cambierà, se cambierà, il mercato...

Nono ma lo so benissimo che è la frequenza a far salire i consumi, però quello che si fa con la frequenza non può essere automaticamente rimpiazzata dai core, e lo sai bene pure tu.
oxidized è offline   Rispondi citando il messaggio o parte di esso
Old 22-02-2020, 17:10   #226
Max(IT)
Bannato
 
L'Avatar di Max(IT)
 
Iscritto dal: Mar 2003
Messaggi: 33394
quindi quello che dicono naughtydog o guerrilla "va provato", mentre quello che pontifica oxidized è un dogma

Siamo al delirio...
Max(IT) è offline   Rispondi citando il messaggio o parte di esso
Old 23-02-2020, 06:33   #227
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26107
Quote:
Originariamente inviato da oxidized Guarda i messaggi
I grafici riportati rimangono teorie, non c'è niente di provato da naughtydog o da guerrilla, sono slide per spiegare come in teoria dovrebbe funzionare quello che fanno, non sono benchmark affidabili come quelli che si trovano in giro per i vari siti che fanno recensioni hardware provando videogiochi.
Quindi ti sei fermato ai grafici: non hai letto l'articolo né tanto meno hai visto l'intero video della presentazione dei Naughty Dog. Ma ciò nonostante ti permetti di giudicare. Andiamo bene...

Premesso che nessuno nell'industry metterebbe in dubbio il lavoro dei Naughty Dog visto quello che hanno sempre dimostrato di fare, se ti fossi preso la briga di leggere il pezzo, ma soprattutto guardare il video, avresti avuto ben pochi dubbi in merito.

Infatti sono proprio gli ultimi secondi del video che mostrano il funzionamento del loro tool di debug in cui sono riportati i grafici di tutti i core / thread hardware della PS3 col loro bel carico di lavoro.

E quindi, sì: quella NON è teoria, ma pratica. Anzi, è la dimostrazione dell'assunto che si possano usare molto bene tutti i core perfino in una piattaforma molto difficile da programmare come la PS3 (come, peraltro, si evince guardando il video).

Ciò precisato, mi sfugge in base a quale logica i Naughty Dog avrebbero dovuto mentire riportando dichiarazioni false a un loro talk tecnico, e quindi esponendosi al pubblico ludibrio se venissero smascherati. Ma questo me lo dovresti spiegare tu.
Quote:
Che PS4 sia molto più vicina ad un PC rispetto a PS3 è chiaro, e probabilmente anche la parallelizzazione potrebbe risultare più fattibile,
"probabilmente"? Quindi è evidente che tu non abbia la minima idea di come funzionino i PC e la PS3.

Ed è sempre più evidente che tu non abbia aperto nemmeno il link che riporta una sintesi del video (che, ovviamente, è di gran lunga più completo e interessante), perché già quello sarebbe stato sufficiente a capire che il tuo "probabilmente" è del tutto fuori luogo, visto che ci sono degli evidenti fatti (tecnici) che lo smentiscono (con la PS4 parallelizzare i task è di gran lunga più facile).

E non che ci volesse quell'articolo, eh! In questo forum ci sono state accesissime discussioni già PRIMA della presentazione della PS3 (puoi farti il conto di quanto tempo sia passato da allora), anche con uno sviluppatore di Heavenly Sword (gioco tripla A successivamente pubblicato per la PS3), e personalmente mi sono smazzato tutto il manuale di Cell (la CPU della PS3) pubblicato dalla IBM, riportando le differenze con le architetture tradizionali dell'epoca (in particolare i PC).

Quindi, nulla di nuovo. Almeno per me e per chi si sia documentato.
Quote:
fatto sta che di fatti non ce ne sono in queste slide, non ci sono test fatti sul campo di quello che dicono, e io non mi fido.
Il fatto che tu non ti fidi lascia il tempo che trova.

Primo perché non sei un tecnico ed è di solare evidenza che ti manchino le minime basi per affrontare l'argomento.

Secondo perché i Naughty Dog hanno dimostrato sul campo quello che sono in grado di fare, e non hanno bisogno di dimostrare alcunché.

Terzo, la dimostrazione c'è comunque negli ultimi secondi del video della loro presentazione, che evidentemente tu non hai visto.
Quote:
I giochi hanno strutture diverse, non tutto è potenzialmente parallelizzabile allo stesso modo, un'avventura grafica o un punta e clicca, non possono essere parallelizzabili come un RTS, mai nella vita, è questo che intendevo nell'altro post.
E niente, continui a parlare di cose che sconosci del tutto.

Bene, allora DIMOSTRAMI per quale motivo un'avventura non sarebbe parallelizzabile come RTS et similia. La tesi è tua, e dunque tuo è anche l'onere della prova.
Quote:
Sicuramente andrà meglio integrata in una GPU ma alla fine nelle console parliamo di APU quindi diciamo che alla fine farebbe parte dell'APU.
E che c'entra questo? Che sia un'APU o un PC con scheda video discreta non cambia di una virgola tutto ciò di cui s'è discusso finora.

Ma puoi sempre spiegarti meglio e, soprattutto, DIMOSTRARE le tue tesi.
Quote:
"Poi è chiaro che i core in più possono essere usati anche per scaricare un po' di lavoro alla GPU"
Sarà proprio così probabilmente.
Io non ho alcun dubbio che faranno buon uso dei tanti core, quando avranno tempo per imparare ad sfruttarli come si deve, visto che la micro-architettura dei Ryzen è ben diversa rispetto a quella dei core Jaguar di PS4 & XBoxOne.

Che poi i core siano utilizzati per scaricare parte del lavoro della GPU o meno, è del tutto indifferente (così è stato per la PS3, ad esempio, visto che aveva una GPU scarsa).
Quote:
Vedremo se saranno sfruttati...Io continuo a dire che i giochi che escono solitamente su console, e che fanno successo non hanno proprio la struttura per essere parallelizzati o comunque non parallelizzati tipo AOTS, come pure buona parte di quelli che escono su PC, vedremo poi come cambierà, se cambierà, il mercato...
Tu puoi dire quello che vuoi, e ci mancherebbe. Ma senza uno straccio di fatto/prova a supporto della tua tesi, le tue rimangono soltanto delle chiacchiere. Soprattutto se consideriamo che provengono da uno che ha dimostrato (senza dubbio alcuno qui) di non essere né un tecnico né tanto meno un esperto in materia.

Ma, come già detto sopra, se sei convinto di quello che dici puoi sempre dimostrarlo, eh! E per me puoi tranquillamente immergerti anche in dettagli di bassissimo livello, perché non ho alcun problema a seguire questione tecniche di questo tipo. Fai pure...
Quote:
Nono ma lo so benissimo che è la frequenza a far salire i consumi, però quello che si fa con la frequenza non può essere automaticamente rimpiazzata dai core, e lo sai bene pure tu.
Esatto a livello generale/astratto, ma è il contesto che fa la differenza qui. E qui si parla di videogiochi, dove tantissimi carichi di lavoro sono parallelizzabili (posto che ci sia il tempo per lavorarci, come detto più volte).

Ma puoi sempre dirmi quali carichi di lavoro, nei videogiochi, abbiano NECESSARIAMENTE bisogno di elevate frequenze e NON possano far uso di più core.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys

Ultima modifica di cdimauro : 23-02-2020 alle 06:35.
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 23-02-2020, 12:30   #228
oxidized
Senior Member
 
L'Avatar di oxidized
 
Iscritto dal: Nov 2013
Messaggi: 1455
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Quindi ti sei fermato ai grafici: non hai letto l'articolo né tanto meno hai visto l'intero video della presentazione dei Naughty Dog. Ma ciò nonostante ti permetti di giudicare. Andiamo bene...

Premesso che nessuno nell'industry metterebbe in dubbio il lavoro dei Naughty Dog visto quello che hanno sempre dimostrato di fare, se ti fossi preso la briga di leggere il pezzo, ma soprattutto guardare il video, avresti avuto ben pochi dubbi in merito.

Infatti sono proprio gli ultimi secondi del video che mostrano il funzionamento del loro tool di debug in cui sono riportati i grafici di tutti i core / thread hardware della PS3 col loro bel carico di lavoro.

E quindi, sì: quella NON è teoria, ma pratica. Anzi, è la dimostrazione dell'assunto che si possano usare molto bene tutti i core perfino in una piattaforma molto difficile da programmare come la PS3 (come, peraltro, si evince guardando il video).

Ciò precisato, mi sfugge in base a quale logica i Naughty Dog avrebbero dovuto mentire riportando dichiarazioni false a un loro talk tecnico, e quindi esponendosi al pubblico ludibrio se venissero smascherati. Ma questo me lo dovresti spiegare tu.

"probabilmente"? Quindi è evidente che tu non abbia la minima idea di come funzionino i PC e la PS3.

Ed è sempre più evidente che tu non abbia aperto nemmeno il link che riporta una sintesi del video (che, ovviamente, è di gran lunga più completo e interessante), perché già quello sarebbe stato sufficiente a capire che il tuo "probabilmente" è del tutto fuori luogo, visto che ci sono degli evidenti fatti (tecnici) che lo smentiscono (con la PS4 parallelizzare i task è di gran lunga più facile).

E non che ci volesse quell'articolo, eh! In questo forum ci sono state accesissime discussioni già PRIMA della presentazione della PS3 (puoi farti il conto di quanto tempo sia passato da allora), anche con uno sviluppatore di Heavenly Sword (gioco tripla A successivamente pubblicato per la PS3), e personalmente mi sono smazzato tutto il manuale di Cell (la CPU della PS3) pubblicato dalla IBM, riportando le differenze con le architetture tradizionali dell'epoca (in particolare i PC).

Quindi, nulla di nuovo. Almeno per me e per chi si sia documentato.

Il fatto che tu non ti fidi lascia il tempo che trova.

Primo perché non sei un tecnico ed è di solare evidenza che ti manchino le minime basi per affrontare l'argomento.

Secondo perché i Naughty Dog hanno dimostrato sul campo quello che sono in grado di fare, e non hanno bisogno di dimostrare alcunché.

Terzo, la dimostrazione c'è comunque negli ultimi secondi del video della loro presentazione, che evidentemente tu non hai visto.

E niente, continui a parlare di cose che sconosci del tutto.

Bene, allora DIMOSTRAMI per quale motivo un'avventura non sarebbe parallelizzabile come RTS et similia. La tesi è tua, e dunque tuo è anche l'onere della prova.

E che c'entra questo? Che sia un'APU o un PC con scheda video discreta non cambia di una virgola tutto ciò di cui s'è discusso finora.

Ma puoi sempre spiegarti meglio e, soprattutto, DIMOSTRARE le tue tesi.

Io non ho alcun dubbio che faranno buon uso dei tanti core, quando avranno tempo per imparare ad sfruttarli come si deve, visto che la micro-architettura dei Ryzen è ben diversa rispetto a quella dei core Jaguar di PS4 & XBoxOne.

Che poi i core siano utilizzati per scaricare parte del lavoro della GPU o meno, è del tutto indifferente (così è stato per la PS3, ad esempio, visto che aveva una GPU scarsa).

Tu puoi dire quello che vuoi, e ci mancherebbe. Ma senza uno straccio di fatto/prova a supporto della tua tesi, le tue rimangono soltanto delle chiacchiere. Soprattutto se consideriamo che provengono da uno che ha dimostrato (senza dubbio alcuno qui) di non essere né un tecnico né tanto meno un esperto in materia.

Ma, come già detto sopra, se sei convinto di quello che dici puoi sempre dimostrarlo, eh! E per me puoi tranquillamente immergerti anche in dettagli di bassissimo livello, perché non ho alcun problema a seguire questione tecniche di questo tipo. Fai pure...

Esatto a livello generale/astratto, ma è il contesto che fa la differenza qui. E qui si parla di videogiochi, dove tantissimi carichi di lavoro sono parallelizzabili (posto che ci sia il tempo per lavorarci, come detto più volte).

Ma puoi sempre dirmi quali carichi di lavoro, nei videogiochi, abbiano NECESSARIAMENTE bisogno di elevate frequenze e NON possano far uso di più core.
Il video di cui parli non l'avevo visto perché non fa parte di quell'articolo, ma è uno degli hyperlink contenuti in esso, comunque poco male perché me lo sono visto adesso, e per quanto facciano vedere cose interessanti, per quello che si può vedere non si conferma quello che continuate a dire, si vede solamente come ogni core abbia parte del workload in comune, e poi ogni core ha il suo specifico task. Non ho detto che naughty dog volesse mentire, ma che semplicemente come si fa spesso si tende a gonfiare la tecnologia o il modus operandi della propria azienda/team di sviluppo, ecc.

Smettila di fare come al solito il pallone gonfiato perché sai benissimo che non stai parlando con uno che non ha basi a riguardo, il tuo è solo un modo per denigrare, quello che avete indicato non spiega o prova nulla, non è niente di minimamente comparabile ad un benchmark di un videogioco, che non sono prove mie, ma prove che sto usando dall'inizio della discussione per dimostrare che utilizzare i core/threads in modo utile e che porta giovamento ai videogiochi, non è facile come dite voi, e comunque sia è una cosa molto inusuale soprattutto in questo momento e che rimarrà tale, almeno per un po' perché queste cose non si cambiano da un giorno all'altro solo perché le console hanno disponibili CPU 8/16 da sfruttare, e come ho già detto non tutti i giochi sono potenzialmente parallelizzabili allo stesso livello, un RTS ha molto di più da far gestire alla CPU, tra unità, effetti fisici e quant'altro rispetto un FPS o un action/RPG, mi pare assolutamente palese, non c'è niente da provare o dimostrare, è pura logica. Per il resto sulla qualità di naughty dog non mi esprimo perché non ho voglia di aprire ulteriori discussioni, soprattutto con uno come te.

Ultima modifica di oxidized : 23-02-2020 alle 13:33.
oxidized è offline   Rispondi citando il messaggio o parte di esso
Old 23-02-2020, 16:36   #229
Max(IT)
Bannato
 
L'Avatar di Max(IT)
 
Iscritto dal: Mar 2003
Messaggi: 33394
sulla qualità del lavoro di Naughty Dog non si esprime ...


Come se avesse la competenza per farlo
Evito proprio di analizzare la teoria per la quale la parallelizzazione dipenda dalla tipologia di gioco ...

La parallelizzazione dipende da come è stato SVILUPPATO il gioco, e dal tempo dedicato ad orientarlo in tal senso. Che si tratti di un FPS piuttosto che di un RPG non cambia una fava.

Ultima modifica di Max(IT) : 23-02-2020 alle 16:38.
Max(IT) è offline   Rispondi citando il messaggio o parte di esso
Old 23-02-2020, 21:34   #230
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26107
Quote:
Originariamente inviato da oxidized Guarda i messaggi
Il video di cui parli non l'avevo visto perché non fa parte di quell'articolo, ma è uno degli hyperlink contenuti in esso,
Non è UNO dei link: tutto l'articolo è una SINTESI proprio di quel link.
Quote:
comunque poco male perché me lo sono visto adesso, e per quanto facciano vedere cose interessanti, per quello che si può vedere non si conferma quello che continuate a dire, si vede solamente come ogni core abbia parte del workload in comune, e poi ogni core ha il suo specifico task.
Non hai capito proprio nulla di quella parte del video: quella è una "istantanea" di una scena che mostra tutti i task che sono stati mappati, in quel preciso momento, nei vari processori. E dove si vede chiaramente come vengano spremuti.

La parte che è stava evidenziata dimostra come una particolare tipologia di carico di lavoro sia stata suddivisa in più task (job), che poi sono stati eseguiti su più core.

In buona sostanza è la dimostrazione che:
- tutti i core sono sfruttati (basti vedere l'occupazione di ogni core coi job che sono stati mappati / presi in carico);
- la stessa tipologia di codice viene parallelizzata ed eseguita su più core.

Il che smentisce su tutta la linea le tue precedenti tesi.
Quote:
Non ho detto che naughty dog volesse mentire, ma che semplicemente come si fa spesso si tende a gonfiare la tecnologia o il modus operandi della propria azienda/team di sviluppo, ecc.
Certo, perché proprio loro ne hanno bisogno...
Quote:
Smettila di fare come al solito il pallone gonfiato perché sai benissimo che non stai parlando con uno che non ha basi a riguardo, il tuo è solo un modo per denigrare,
No, quello che ho riportato è la pura verità: tu non conosci nemmeno le minime basi di quello di cui s'è discusso, e nemmeno di fronte a un caso reale con precisi dati e informazioni tecniche sei in grado di capirlo.

Tu lo chiami denigrare per fare puro vittimismo, perché non ti è andato giù che abbia mostrato come stiano realmente le cose, e adesso batti i piedi e punti il dito contro l'orco cattivo che t'ha beccato con le mani nella marmellata.
Quote:
quello che avete indicato non spiega o prova nulla, non è niente di minimamente comparabile ad un benchmark di un videogioco,
Infatti non si tratta di un benchmark: quello mostrato è lo spaccato in tempo reale di un vero gioco, di cui si mostra cosa succede internamente grazie agli strumenti di debug in dotazione degli sviluppatori. Ossia di chi i giochi li sviluppa e sa come si fa.

Che poi tu non riesca a capirlo (o non voglia capirlo), non è un certo mio problema.
Quote:
che non sono prove mie, ma prove che sto usando dall'inizio della discussione per dimostrare che utilizzare i core/threads in modo utile e che porta giovamento ai videogiochi,
Tu non hai portato una straccio di prova a supporto delle tue tesi, mentre altri sì: tanto basta per chiudere la questione.
Quote:
non è facile come dite voi,
E chi avrebbe detto che è facile? Io lo ripeto da quando ho iniziato a scrivere che non lo è...
Quote:
e comunque sia è una cosa molto inusuale soprattutto in questo momento
Di quali statistiche sei in possesso per poterlo affermare? Fonti?
Quote:
e che rimarrà tale,
Certo, dobbiamo crederti sulla parola soltanto perché lo dici tu che, a quanto pare, sei dotato di sfere di cristallo...
Quote:
almeno per un po' perché queste cose non si cambiano da un giorno all'altro solo perché le console hanno disponibili CPU 8/16 da sfruttare,
E due: chi ha detto che ci vorrà poco? Io ho detto subito che ci vuole tempo, per l'appunto, persino passando dai core Jaguar a quelli Ryzen, pur essendo entrambi x86/x64.
Quote:
e come ho già detto non tutti i giochi sono potenzialmente parallelizzabili allo stesso livello, un RTS ha molto di più da far gestire alla CPU, tra unità, effetti fisici e quant'altro rispetto un FPS o un action/RPG, mi pare assolutamente palese, non c'è niente da provare o dimostrare, è pura logica.
E niente, non hai ancora capito quale sia il nocciolo della discussione.

Il fatto che un gioco abbia più o meno task da processare NON implica che non li possa comunque parallelizzare e distribuire fra i core, cercando di spremerli per bene.

E qui siamo a livelli da logica elementare: non serve né essere esperti in materia né tanto meno l'arca di scienza per capirlo.
Quote:
Per il resto sulla qualità di naughty dog non mi esprimo perché non ho voglia di aprire ulteriori discussioni,
E di cosa vorresti discutere sui Naughty Dog? Nessuno, te incluso, può sollevare critiche tecniche a uno dei team più talentuosi esistenti.
Quote:
soprattutto con uno come te.
Ed è l'unica cosa sensata che hai scritto finora, visto che io ho ampie conoscenze sia in ambito di architetture & microarchitetture, sia di come funzionano e si implementano i giochi, mentre tu hai dimostrato di non conoscere nemmeno le minime basi su entrambi gli argomenti.

Perché continui a discutere e continuare a dimostrare la tua immensa ignoranza (nonché arroganza, visto i tuoi giudizi sul team di cui sopra) lo sai solo tu.

Ma d'altra parte la sai una cosa? Chi sono io per impedirti di continuare a renderti ridicolo pubblicamente? Continua pure.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys

Ultima modifica di cdimauro : 23-02-2020 alle 21:36.
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 24-02-2020, 01:27   #231
oxidized
Senior Member
 
L'Avatar di oxidized
 
Iscritto dal: Nov 2013
Messaggi: 1455
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Non è UNO dei link: tutto l'articolo è una SINTESI proprio di quel link.

Non hai capito proprio nulla di quella parte del video: quella è una "istantanea" di una scena che mostra tutti i task che sono stati mappati, in quel preciso momento, nei vari processori. E dove si vede chiaramente come vengano spremuti.

La parte che è stava evidenziata dimostra come una particolare tipologia di carico di lavoro sia stata suddivisa in più task (job), che poi sono stati eseguiti su più core.

In buona sostanza è la dimostrazione che:
- tutti i core sono sfruttati (basti vedere l'occupazione di ogni core coi job che sono stati mappati / presi in carico);
- la stessa tipologia di codice viene parallelizzata ed eseguita su più core.

Il che smentisce su tutta la linea le tue precedenti tesi.

Certo, perché proprio loro ne hanno bisogno...

No, quello che ho riportato è la pura verità: tu non conosci nemmeno le minime basi di quello di cui s'è discusso, e nemmeno di fronte a un caso reale con precisi dati e informazioni tecniche sei in grado di capirlo.

Tu lo chiami denigrare per fare puro vittimismo, perché non ti è andato giù che abbia mostrato come stiano realmente le cose, e adesso batti i piedi e punti il dito contro l'orco cattivo che t'ha beccato con le mani nella marmellata.

Infatti non si tratta di un benchmark: quello mostrato è lo spaccato in tempo reale di un vero gioco, di cui si mostra cosa succede internamente grazie agli strumenti di debug in dotazione degli sviluppatori. Ossia di chi i giochi li sviluppa e sa come si fa.

Che poi tu non riesca a capirlo (o non voglia capirlo), non è un certo mio problema.

Tu non hai portato una straccio di prova a supporto delle tue tesi, mentre altri sì: tanto basta per chiudere la questione.

E chi avrebbe detto che è facile? Io lo ripeto da quando ho iniziato a scrivere che non lo è...

Di quali statistiche sei in possesso per poterlo affermare? Fonti?

Certo, dobbiamo crederti sulla parola soltanto perché lo dici tu che, a quanto pare, sei dotato di sfere di cristallo...

E due: chi ha detto che ci vorrà poco? Io ho detto subito che ci vuole tempo, per l'appunto, persino passando dai core Jaguar a quelli Ryzen, pur essendo entrambi x86/x64.

E niente, non hai ancora capito quale sia il nocciolo della discussione.

Il fatto che un gioco abbia più o meno task da processare NON implica che non li possa comunque parallelizzare e distribuire fra i core, cercando di spremerli per bene.

E qui siamo a livelli da logica elementare: non serve né essere esperti in materia né tanto meno l'arca di scienza per capirlo.

E di cosa vorresti discutere sui Naughty Dog? Nessuno, te incluso, può sollevare critiche tecniche a uno dei team più talentuosi esistenti.

Ed è l'unica cosa sensata che hai scritto finora, visto che io ho ampie conoscenze sia in ambito di architetture & microarchitetture, sia di come funzionano e si implementano i giochi, mentre tu hai dimostrato di non conoscere nemmeno le minime basi su entrambi gli argomenti.

Perché continui a discutere e continuare a dimostrare la tua immensa ignoranza (nonché arroganza, visto i tuoi giudizi sul team di cui sopra) lo sai solo tu.

Ma d'altra parte la sai una cosa? Chi sono io per impedirti di continuare a renderti ridicolo pubblicamente? Continua pure.

Non smentisce niente, mostra solamente che tipo di carico di lavoro e che lavoro eseguono i core, e basta, non c'è niente riguardo la percentuale di utilizzo, del video ho visto l'ultima parte perché anche a detta tua "Infatti sono proprio gli ultimi secondi del video che mostrano il funzionamento del loro tool di debug in cui sono riportati i grafici di tutti i core / thread hardware della PS3 col loro bel carico di lavoro.", quindi diciamo che ho prestato maggiore attenzione a quelli, tralasciando poi il fatto che anche quelle mostrate sono delle slide e tralasciando che sono su 6 core, e probabilmente non sono neanche tutti utilizzati.

Guarda che come ho dimostrato, e a differenza tua, non ho problemi ad ammettere di essere in torto una volta messo davanti fatti evidenti, vedi il discorso di AOTS, sul quale ho ammesso di aver sbagliato, e in altri discorsi su altri threads (su cui non eri presente tu fortunatamente, altrimenti è chiaro che quello ad aver ragione lì sei tu). Non sto facendo alcun vittimismo, stai ripetendo quello che dici di solito quando ti si fa notare il tuo modo di fare sul forum, non mi sento vittima di nessuno, perché per quanto esperto puoi sembrare od essere, rimani sempre un nome che leggo sul mio schermo, come evidentemente è anche per te.

Le mie prove le ho postate, se volete continuare ad ignorarle non mi interessa, sono lì e potete anche cercarvele cercando una qualsiasi recensione di una qualsiasi scheda video e guardando nei test dei videogiochi. Ancora con 'ste sfere di cristallo...Anche sull'altro thread parlavi delle mi sfere di cristallo...Sfere che sono fatte di logica e di statistica seguendo i trend degli ultimi anni e seguendo il comportamento dei videogiochi negli ultimi anni.

Il mio consiglio è sempre quello di rileggerti attentamente il thread, o almeno i miei post, perché io non ho mai affermato che i giochi non riusciranno mai a sfruttare come si deve processori con core/thread count superiore a 4/8, ma ci avevo messo dentro la durata media delle console, ecco perché ho dubitato della scelta. Sono sicuro che prima o poi si riuscirà a sfruttare in qualche modo tanti core e thread, semplicemente non è successo per ora, e non succederà a breve, ribadisco che i test che sbandieri in giro di naughty dog non mostrano o provano proprio niente, e ribadisco anche che non tutti i giochi sono probabilmente parallelizzabili allo stesso modo.
Finché si parla di critiche tecniche, posso pure essere d'accordo, ma c'è di meglio, tipo valve.

Ed è l'unica cosa sensata che hai scritto finora, visto che io ho ampie conoscenze sia in ambito di architetture & microarchitetture

E questa è l'unica cosa che non smentisci mai: sei un pallone gonfiato. Nonostante le diverse dubbie figure che hai fatto, con la tua esperienza e sapienza di cui ti vai vantando in giro...Fortunatamente non sono l'unico ad averti inquadrato...

Perché continui a discutere e continuare a dimostrare la tua immensa ignoranza (nonché arroganza, visto i tuoi giudizi sul team di cui sopra) lo sai solo tu.

E tu il perché continui a discutere e continuare a dimostrare quanto pallone gonfiato sei, e che nonostante la tua cultura a riguardo, di cui continui a vantarti, caro pythonman, continui a sbagliarti, lo sai solo tu.

Finché ci sei tu a battermi al mio stesso lavoro continuerò, quando sarò solo forse smetterò. Sai che ti dico, le chiacchiere stanno a zero, vedremo poi alla fine chi avrà ragione, e chi avrà la serietà di ammetterlo poi, ne riparliamo fra un po' di tempo, questo thread non me lo scordo, come non mi sono scordato l'altro, quello dove si confermava l'uscita dei processori desktop intel entro ottobre...Ricordi? Stammi bene Cesare.
oxidized è offline   Rispondi citando il messaggio o parte di esso
Old 24-02-2020, 06:21   #232
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26107
Quote:
Originariamente inviato da oxidized Guarda i messaggi
Non smentisce niente, mostra solamente che tipo di carico di lavoro e che lavoro eseguono i core, e basta, non c'è niente riguardo la percentuale di utilizzo, del video ho visto l'ultima parte perché anche a detta tua "Infatti sono proprio gli ultimi secondi del video che mostrano il funzionamento del loro tool di debug in cui sono riportati i grafici di tutti i core / thread hardware della PS3 col loro bel carico di lavoro.", quindi diciamo che ho prestato maggiore attenzione a quelli, tralasciando poi il fatto che anche quelle mostrate sono delle slide e tralasciando che sono su 6 core, e probabilmente non sono neanche tutti utilizzati.
Continui a dimostrare di non aver capito nulla del contenuto di quella parte del video, che mostra chiaramente TUTTI i core/thread hardware presenti nella PS3, che peraltro NON sono affatto 6 (ma di più), e questo lo si evince a occhio (non serve nemmeno conoscere come sia fatta la console).

Ricapitolando: non sei in grado né di leggere un grafico sul carico di lavoro e né tanto meno di vedere l'informazione più semplice di questo mondo, ossia quanti core/thread hardware sono presenti (e utilizzati).
Quote:
Guarda che come ho dimostrato, e a differenza tua, non ho problemi ad ammettere di essere in torto una volta messo davanti fatti evidenti, vedi il discorso di AOTS, sul quale ho ammesso di aver sbagliato, e in altri discorsi su altri threads (su cui non eri presente tu fortunatamente, altrimenti è chiaro che quello ad aver ragione lì sei tu). Non sto facendo alcun vittimismo, stai ripetendo quello che dici di solito quando ti si fa notare il tuo modo di fare sul forum, non mi sento vittima di nessuno, perché per quanto esperto puoi sembrare od essere, rimani sempre un nome che leggo sul mio schermo, come evidentemente è anche per te.
Il mio nome è pubblico e chiunque può andare a vedere cos'ho fatto e faccio nella vita. Tu sei un sig. nessuno di cui non si sa nulla e che pretende di parlare di argomenti che chiaramente sconosce del tutto, avendo pure l'arroganza di giudicare il lavoro di professionisti del settore.

Quindi, ancora no: non siamo semplicemente dei nomi e basta. Non nel MIO caso.
Quote:
Le mie prove le ho postate, se volete continuare ad ignorarle non mi interessa, sono lì e potete anche cercarvele cercando una qualsiasi recensione di una qualsiasi scheda video e guardando nei test dei videogiochi.
Che ti mostrano come anche nei giochi in cui COMPLESSIVAMENTE non si fruttano tutti i core, il lavoro viene distribuito su quasi tutti core (con evidenti benefici di cui abbiamo già parlato con altri, e che hai sistematicamente escluso nei tuoi interventi).
Quote:
Ancora con 'ste sfere di cristallo...Anche sull'altro thread parlavi delle mi sfere di cristallo...Sfere che sono fatte di logica e di statistica seguendo i trend degli ultimi anni e seguendo il comportamento dei videogiochi negli ultimi anni.
La logica lasciala perdere, per piacere, che non sai dove stia di casa.

Della statistica t'ho chiesto i numeri, viste le tue ultime sparate, che ovviamente non hai mostrato e ti guardi bene dal portare alcunché.

Dunque sì: rimani uno che le spara e basta, e che fa previsioni basate sul nulla.
Quote:
Il mio consiglio è sempre quello di rileggerti attentamente il thread, o almeno i miei post, perché io non ho mai affermato che i giochi non riusciranno mai a sfruttare come si deve processori con core/thread count superiore a 4/8, ma ci avevo messo dentro la durata media delle console, ecco perché ho dubitato della scelta.
Falso: ho anche riportato il contenuto di uno dei tuoi primi commenti in prima pagina, che mostra la tua asserzione sull'assoluta impossibilità di usare più di 4 core.

Adesso continui a rimangiare quello che hai scritto, ma è troppo tardi. E dimostra, invece, la tua mancanza di onestà intellettuale, visto che cerchi di cambiare le carte in tavola.
Quote:
Sono sicuro che prima o poi si riuscirà a sfruttare in qualche modo tanti core e thread, semplicemente non è successo per ora, e non succederà a breve,
ROFL: non è successo ora? E quindi AOTS non esiste e nemmeno l'ultimo lavoro dei Naughty Dog.

Come riscrivere la realtà pur di continuare a sparare balle.
Quote:
ribadisco che i test che sbandieri in giro di naughty dog non mostrano o provano proprio niente,
Provano che tu non sei nemmeno in grado di leggere dei banali grafici, e riporti delle conclusioni completamente sballate, visto che non sai nemmeno contare quanti core/thread hardware sono utilizzati (qui bastava semplicemente contare quante barrette ci sono a video, eh! Mica l'arca di scienze infusa).
Quote:
naughty doge ribadisco anche che non tutti i giochi sono probabilmente parallelizzabili allo stesso modo.
Su quali basi? Te le ho chieste ma non riporti nulla, al solito: spari sentenze e non fornire alcuna prova.
Quote:
Finché si parla di critiche tecniche, posso pure essere d'accordo, ma c'è di meglio, tipo valve.
Tipo? Sii chiaro.
Quote:
Ed è l'unica cosa sensata che hai scritto finora, visto che io ho ampie conoscenze sia in ambito di architetture & microarchitetture

E questa è l'unica cosa che non smentisci mai: sei un pallone gonfiato. Nonostante le diverse dubbie figure che hai fatto,
Quali sarebbero? Riportale pure che ci facciamo altre risate.
Quote:
con la tua esperienza e sapienza di cui ti vai vantando in giro...Fortunatamente non sono l'unico ad averti inquadrato...
Viste le tue capacità di "comprensione" che hai dimostrato finora, è tutto dire.
Quote:
Perché continui a discutere e continuare a dimostrare la tua immensa ignoranza (nonché arroganza, visto i tuoi giudizi sul team di cui sopra) lo sai solo tu.

E tu il perché continui a discutere e continuare a dimostrare quanto pallone gonfiato sei, e che nonostante la tua cultura a riguardo, di cui continui a vantarti, caro pythonman, continui a sbagliarti, lo sai solo tu.
Veramente questi sbagli li sapresti solo tu, ma ogni volta che te ne chiedo prova sparisci. Chissà perché, caro il mio mistificatore e bugiardo seriale.
Quote:
Finché ci sei tu a battermi al mio stesso lavoro continuerò, quando sarò solo forse smetterò. Sai che ti dico, le chiacchiere stanno a zero, vedremo poi alla fine chi avrà ragione,
La fiera dell'ovvietà internettiana: i soliti leoni da tastiera che sparano balle colossali e quando sono con le spalle al muro recitano questa frase.
Quote:
e chi avrà la serietà di ammetterlo poi, ne riparliamo fra un po' di tempo, questo thread non me lo scordo,
E chi se lo scorda.
Quote:
come non mi sono scordato l'altro, quello dove si confermava l'uscita dei processori desktop intel entro ottobre...Ricordi?
Io sì, e t'ho pure risposto. Tu non ricordi nemmeno quello che hai mangiato ieri, e continui a cercare di infangarmi senza alcuna prova in merito, caro io mio diffamatore.

Come già detto numerose volte, continuo ancora ad aspettare le tue prove del fango che mi tiri addosso. Ma ogni volti o fuggi, oppure ti chiudi in muri di parole senza portare la benché minima prova o fatto.

Tanto basta per inquadrare che tipo sei: il nulla cosmico internettiano che è soltanto in grado di sparare sentenze e poi fugge.
Quote:
Stammi bene Cesare.
Idem.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Recensione Zenfone 11 Ultra: il flagship ASUS ritorna a essere un 'padellone' Recensione Zenfone 11 Ultra: il flagship ASUS ri...
Appian: non solo low code. La missione è l’ottimizzazione dei processi con l'IA Appian: non solo low code. La missione è ...
Lenovo ThinkVision 3D 27, la steroscopia senza occhialini Lenovo ThinkVision 3D 27, la steroscopia senza o...
La Formula E può correre su un tracciato vero? Reportage da Misano con Jaguar TCS Racing La Formula E può correre su un tracciato ...
Lenovo LEGION e LOQ: due notebook diversi, stessa anima gaming Lenovo LEGION e LOQ: due notebook diversi, stess...
eFootball taglia il traguardo dei 750 mi...
MS-DOS 4.0 diventa open source: Microsof...
Micron riceverà 6,1 miliardi di d...
STALKER 2 Heart of Chornobyl: nuovo trai...
Google: ancora un rinvio per lo stop ai ...
Lotus Evija X è la seconda auto elettric...
NIO e Lotus annunciano una grossa novit&...
Esclusive PlayStation su Xbox? Sì...
CATL: una nuova batteria per auto elettr...
TikTok al bando negli USA? Biden firma, ...
Taglio di prezzo di 150 euro per SAMSUNG...
Utenti Amazon Prime: torna a 148€ il min...
Microsoft sfiora i 62 miliardi di dollar...
Coca-Cola al cloud con un pizzico di IA:...
Prodotti TP-Link Tapo in offerta: videoc...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 02:36.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Served by www1v
1