PDA

View Full Version : Core i9-11900K migliore di Ryzen 9 5900X nel gaming, parola di Intel


Redazione di Hardware Upg
11-01-2021, 23:38
Link alla notizia: https://www.hwupgrade.it/news/cpu/core-i9-11900k-migliore-di-ryzen-9-5900x-nel-gaming-parola-di-intel_94662.html

Secondo Intel i nuovi processori Core di undicesima generazione desktop, nome in codice Rocket Lake, sono più veloci nel gaming dei Ryzen 5000. Un Core i9-11900K batte infatti nel gaming un 5900X dal 2% all'8% in Full HD.

Click sul link per visualizzare la notizia.

al135
11-01-2021, 23:46
ormai stanno oltre la frutta

demon77
11-01-2021, 23:54
Pare piuttosto chiaro che l'intento è quello di colpire a livello di marketing facendo davvero di tutto per poter tirare fuori un bench dove si supera seppur di poco la concorrenza.
Di tutto al punto di stare addirittura sui 14nm e ridurre il numero di core per ruzzare al massimo sul clock. Ricorda un po' i mitici "FX" di quando era AMD in svantaggio..

al135
11-01-2021, 23:59
Pare piuttosto chiaro che l'intento è quello di colpire a livello di marketing facendo davvero di tutto per poter tirare fuori un bench dove si supera seppur di poco la concorrenza.
Di tutto al punto di stare addirittura sui 14nm e ridurre il numero di core per ruzzare al massimo sul clock. Ricorda un po' i mitici "FX" di quando era AMD in svantaggio..

è pazzesca sta cosa....

Enderedge
12-01-2021, 00:12
Un colosso del genere con un. Reparto marketing dell’800 .... ridicoli

frankie
12-01-2021, 00:41
Ah ma non è Tejas.

Free Gordon
12-01-2021, 01:11
Praticamente il 4% medio nei giochi @1080p A MARZO 2021, per minimo 70W in più di consumo... :asd:

Capolavoro :sofico: :sofico: :sofico:

pengfei
12-01-2021, 01:52
Di tutto al punto di stare addirittura sui 14nm e ridurre il numero di core per ruzzare al massimo sul clock. Ricorda un po' i mitici "FX" di quando era AMD in svantaggio..

Penso che abbiano ridotto il numero di core anche perché è il backporting sui 14 nm di un core inizialmente pensato per un processo produttivo a 10 con tutt'altre densità, quindi diventa bello grosso da produrre

ciolla2005
12-01-2021, 02:21
Evvai di minestra riscaldata (mega inc. Per i B460 e H410)

Almeno gli Intel in questo momento si trovano.

AMD spariti tutti

mmorselli
12-01-2021, 05:58
Praticamente il 4% medio nei giochi @1080p A MARZO 2021, per minimo 70W in più di consumo... :asd:

E' (a detta loro) un +4% su AMD 5900X, che a sua volta vantava già un notevole salto nelle prestazioni, per cui non è affatto poco.

Il test a 1080p immagino sia per fare in modo che la GPU non faccia da collo di bottiglia, qui si parla di CPU per cui diventa interessante per chi ha giochi CPU bounded, problema onnipresente nei simulatori.

Il target è certamente il gaming, dove poco ti importa anche dei 70W in più di consumo, per tutto il resto suppongo che i molti più core di AMD faranno da padrone ancora a lungo.

cdimauro
12-01-2021, 07:10
@mmorselli: esattamente.
Penso che abbiano ridotto il numero di core anche perché è il backporting sui 14 nm di un core inizialmente pensato per un processo produttivo a 10 con tutt'altre densità, quindi diventa bello grosso da produrre
Infatti è proprio questo il motivo. C'è pura una foto del die, dove si vedono chiaramente gli 8 core: sono belli grossi.

Gyammy85
12-01-2021, 07:56
Praticamente il 4% medio nei giochi @1080p A MARZO 2021, per minimo 70W in più di consumo... :asd:

Capolavoro :sofico: :sofico: :sofico:

Conta che se loro dicono +2% in far cry sto coso sarà tanto che andrà uguale con 100 watt in più per essere massacrato nel resto...già mi vedo i video "5,5 ghz facili facili"

SinapsiTXT
12-01-2021, 08:12
Evvai di minestra riscaldata (mega inc. Per i B460 e H410)

Almeno gli Intel in questo momento si trovano.

AMD spariti tutti

E' un po' come quando vai dal panettiere e si sono presi tutti il pane migliore, rimangono quelle schifezze vegane/bio-vegetali-insapori che nessuno vuole però pur di non rimanere senza pane le prendi lo stesso :asd:

Gringo [ITF]
12-01-2021, 08:35
parola di Intel
Oste... il conto grazie.

Pkarer
12-01-2021, 09:22
Magari la serie 11 avrà funzionalità aggiornate però traspare tutto il limite dei 14nm punto e basta. Il TDP è di 125W con solo 8core (16th), siamo ben lontani dall'efficenza degli ARM.
Sta storia dei 14nm comincia a farsi pesante. E' un miracolo che funzionino a 5GHz...

Vash_85
12-01-2021, 09:29
Perché lo confrontano con il 5900x e non con il 5950x? :confused:

Ale55andr0
12-01-2021, 09:44
a 1080p (ma chi lo compra per giocare a quella preistorica risoluzione?) e consumando uno strafottio.

no_side_fx
12-01-2021, 09:47
a 1080p (ma chi lo compra per giocare a quella preistorica risoluzione?) e consumando uno strafottio.

oltre il 90% degli utenti su steam giocano a quella risoluzione preistorica
2k e 4k tutt'oggi sono ancora una piccola nicchia

StylezZz`
12-01-2021, 10:01
Curioso di vedere i consumi del 11700k.

Gringo [ITF]
12-01-2021, 10:07
Vorrei solo sapere se i prossimi con Big e Little costeranno in linea, quindi a parità di costo avrà 50% di core little in più, o se 8+8core costerà come un 16 core, in quel caso per quanto faccia gola i 16core puri di AMD sono sempre in vantaggio.
Se invece quel packaging con 8+8 costerà in linea con la precedente serie allora si sarà una novità.

mmorselli
12-01-2021, 10:24
a 1080p (ma chi lo compra per giocare a quella preistorica risoluzione?) e consumando uno strafottio.

Ma è una CPU o una GPU? Ha senso il test di una CPU "in 4K" ?

Si fa in 1080p per mostrare la capacità della CPU in condizioni in cui la GPU non fa da tappo, poi è chiaro che sarà acquistato da persone che monteranno una GPU adeguata e saliranno di risoluzione.

Forse dovrebbero metterci una didascalia in questi test, senza dare troppe cose per scontate, la gente ha imparato un po' di numeri e sigle, le ha associate a "meglio" e "peggio", e quelle vuole sentire... K, megapixel, core...

mmorselli
12-01-2021, 10:28
oltre il 90% degli utenti su steam giocano a quella risoluzione preistorica

E' anche quel 90% che non compra la CPU top di gamma però. Si spera però che l'altro 10%, visto che spende, sappia anche valutare i benchmark.

An.tani
12-01-2021, 10:34
Sono realmente impressionato....

5% di prestazioni in più di AMD a fronte di un clock maggiore del 10% (4.8 AMD vs 5.3 Intel)

Quindi l' IPC di AMD è maggiore

Bluknigth
12-01-2021, 10:48
Dal 4 all’ 8 % in più grazie alla frequenza di circa l’8% superiore.

Vorrei sapere chi si compra un 3080 per giocare a 1080p.

Vero che Il 90% degli utenti steam gioca a 1080p, ma c’è da dire che almeno il 70% ha configurazioni adatte o forse neanche a quella risoluzione.

Fare i test solo a 1080p su quella configurazione e usarlo come parametro di confronto è assurdo.

kabuby77
12-01-2021, 10:49
Considerando che usano un processo produttivo più vecchio di amd e riescono a spremere più clock dalla cpu, significa che si sono smazzati abbastanza per progettarlo. Purtropppo sul lato consumi non possono farci niente, dubito che abbiano fatto i test con l'infinity cache di amd abilitata. Considerando che la cpu ha metà core rispetto ad amd, per renderla appetibile dovrebbe uscire con un prezzo stracciato, ma conoscendo intel sarà il solito salasso. Comunque meglio spendere 100 euro in più sulla gpu che sulla cpu. Purtroppo per amd non appena intel avrà a disposizione un processo produttivo più recente saranno cavoli amari.

KD2
12-01-2021, 10:57
AMD ha una produttività sulle forniture ridicole, volevo prendere un portatile con 4600H o 4800H ma è il nulla assoluto e il poco che c'è, anche all'estero, è gonfiatissimo e non vale il costo, Intel invece è più presente ed è per questo che nonostante abbia performance inferiori riesce comunque a rimanere a galla.

Inoltre non ho mai avuto problemi con i processori Intel e la retrocompatibilità con vecchi OS od Os alternativi, cosa che gradisco molto.

leddlazarus
12-01-2021, 11:11
mi sembra strano che Intel non riesca ad uscire dalla litografia a 14nm.

o sta lavorando a qualcosa di grosso e per tappare i buchi usa questi escamotage, altrimenti ha dormito troppo sugli allori.

ma gia quella multa miliardaria dovuta ai truschini ai tempi di athlon64 presagivano qualcosa di non troppo chiaro sulla effettiva "potenza" di Intel.

Fino adesso pero non ha mai dato segni di cedimento.
Forte anche della posizione di vantaggio sulla cultura comune delle CPU.

Chi se ne intendeva poco è normale che conosceva solo Intel. qualunque PC commerciale ne aveva uno all'interno. Era quasi un lavaggio del cervello.

Adesso tra M1 e Ryzen che hanno dato un bello scossone al mercato e anche alla cultura comune, Intel inizia a sentire il fiato sul collo

leddlazarus
12-01-2021, 11:21
AMD ha una produttività sulle forniture ridicole, volevo prendere un portatile con 4600H o 4800H ma è il nulla assoluto e il poco che c'è, anche all'estero, è gonfiatissimo e non vale il costo, Intel invece è più presente ed è per questo che nonostante abbia performance inferiori riesce comunque a rimanere a galla.

Inoltre non ho mai avuto problemi con i processori Intel e la retrocompatibilità con vecchi OS od Os alternativi, cosa che gradisco molto.

scusa su trovaprezzi ci sono dei notebook 4800h.

ma come equivalente intel cosa intendi?

coschizza
12-01-2021, 11:26
Sono realmente impressionato....

5% di prestazioni in più di AMD a fronte di un clock maggiore del 10% (4.8 AMD vs 5.3 Intel)

Quindi l' IPC di AMD è maggiore

14nm contro 7 ci mancherebbe altro che non sia maggiore, non è proprio da ventarsi a essere a IPC paragonabile avendo a disposizione una litografia cosi superiore per AMD

leddlazarus
12-01-2021, 11:42
14nm contro 7 ci mancherebbe altro che non sia maggiore, non è proprio da ventarsi a essere a IPC paragonabile avendo a disposizione una litografia cosi superiore per AMD

penso che dipenda anche dallo schema della CPU.

forse lo schema di Intel si adatta male a ulteriori rimpicciolimenti.

batou83
12-01-2021, 11:49
Resta da vedere se con queste nuove cpu ci saranno problemi di reperibilità o di prezzi assurdi come con i ryzen serie 5000...

Eagle_76
12-01-2021, 12:02
Il problema di Amd è la mancanza assoluta di processori adesso sul mercato, specialmente la serie nuova è introvabile ( l'utente comune non va mica su telegram o altro e passa la giornata con il dito poggiato sullo schermo ad aspettare l'alert per fare l'acquisto...è ridicola come cosa e solo uno smanettone può pensare di farlo). In Amazzonia amd è praticamente scomparsa, quel poco che cè ha prezzi assurdi. Intel invece è presente con tutta la seria 10, dal 10100 al 10900k, e molti ovviamente se si devono fare un PC nuovo si orientano su intel, vuoi per il suo "Brand", vuoi per la mancanza cronica della controparte. Oggi conviene un pc su base Intel, cè poco da fare, si perderà qualche punto percentuale forse in game o in qualche applicativo, ma almeno si ha qualcosa ad un prezzo decente.

leddlazarus
12-01-2021, 12:11
Il problema di Amd è la mancanza assoluta di processori adesso sul mercato, specialmente la serie nuova è introvabile ( l'utente comune non va mica su telegram o altro e passa la giornata con il dito poggiato sullo schermo ad aspettare l'alert per fare l'acquisto...è ridicola come cosa e solo uno smanettone può pensare di farlo). In Amazzonia amd è praticamente scomparsa, quel poco che cè ha prezzi assurdi. Intel invece è presente con tutta la seria 10, dal 10100 al 10900k, e molti ovviamente se si devono fare un PC nuovo si orientano su intel, vuoi per il suo "Brand", vuoi per la mancanza cronica della controparte. Oggi conviene un pc su base Intel, cè poco da fare, si perderà qualche punto percentuale forse in game o in qualche applicativo, ma almeno si ha qualcosa ad un prezzo decente.

infatti la prima cosa da guardare è il rapporto prezzo/benefici.

prima era meglio AMD
ora meglio Intel.


ma se avessi a disposizione tutti e due cosa sceglieresti?

no_side_fx
12-01-2021, 12:57
infatti la prima cosa da guardare è il rapporto prezzo/benefici.

prima era meglio AMD
ora meglio Intel.

più che altro AMD adesso non è più l'alternativa economica ed ha tutte le ragioni, solo che la ggente non ha gradito perchè pretende i prezzi della serie precedente ma con le prestazioni superiori della concorrenza

poi che ora è meglio intel oddio, per i prezzi neanche più di tanto, per il resto parliamone...:mbe:

Giux-900
12-01-2021, 13:05
E' (a detta loro) un +4% su AMD 5900X, che a sua volta vantava già un notevole salto nelle prestazioni, per cui non è affatto poco.

Il test a 1080p immagino sia per fare in modo che la GPU non faccia da collo di bottiglia, qui si parla di CPU per cui diventa interessante per chi ha giochi CPU bounded, problema onnipresente nei simulatori.

Il target è certamente il gaming, dove poco ti importa anche dei 70W in più di consumo, per tutto il resto suppongo che i molti più core di AMD faranno da padrone ancora a lungo.

Ma è una CPU o una GPU? Ha senso il test di una CPU "in 4K" ?

Si fa in 1080p per mostrare la capacità della CPU in condizioni in cui la GPU non fa da tappo, poi è chiaro che sarà acquistato da persone che monteranno una GPU adeguata e saliranno di risoluzione.

Forse dovrebbero metterci una didascalia in questi test, senza dare troppe cose per scontate, la gente ha imparato un po' di numeri e sigle, le ha associate a "meglio" e "peggio", e quelle vuole sentire... K, megapixel, core...


Diciamola bene,
non è la rtx 3080 a fare ''collo di bottiglia'' o da ''tappo''. Aumentando risoluzione e filtri il carico di lavoro si sposta cosi tanto sulla GPU (che è perfettamente in grado di assolverlo, nessun tappo) che il ruolo delle CPU diventa difficilmente rilevabile per differenza in un confronto di comparativa.
Per questo si cerca una situazione a risoluzione 1080p, serve per evidenziare meglio le differenze.
:)

Eagle_76
12-01-2021, 13:32
infatti la prima cosa da guardare è il rapporto prezzo/benefici.

prima era meglio AMD
ora meglio Intel.


ma se avessi a disposizione tutti e due cosa sceglieresti?
Ma guarda sono passato da poco ad intel ma lo faccio esclusivamente per passione non per necessità. Oggi come oggi, visti i prezzi e la mancanza di disponibilità, consiglio Intel. Le ultime build assemblate tutte su base z390/z490. Alla persona " comune " poco importa se il socket è morto e bla bla bla. Il PC lo tiene almeno 10 anni.!!

DukeIT
12-01-2021, 13:56
oltre il 90% degli utenti su steam giocano a quella risoluzione preistorica
2k e 4k tutt'oggi sono ancora una piccola nicchia
Ma quel 90% non possiede hw top. Chi lo possiede non lo tiene certamente per giocare a 1080p.

DukeIT
12-01-2021, 14:02
Ma è una CPU o una GPU? Ha senso il test di una CPU "in 4K" ?

Si fa in 1080p per mostrare la capacità della CPU in condizioni in cui la GPU non fa da tappo, poi è chiaro che sarà acquistato da persone che monteranno una GPU adeguata e saliranno di risoluzione.

Forse dovrebbero metterci una didascalia in questi test, senza dare troppe cose per scontate, la gente ha imparato un po' di numeri e sigle, le ha associate a "meglio" e "peggio", e quelle vuole sentire... K, megapixel, core...
Se quell'HW viene utilizzato per giocare a risoluzioni più alte, è con quelle che va testato. Se poi i risultati non sono apprezzabili, significa che non danno alcun vantaggio. E questo è ciò che a chi compra interessa sapere.
Sapere che utilizzandolo con android (esempio inventato ovviamente) andrebbe velocissimo, sarebbe un'interessante esercitazione di stile ma di nullo interesse pratico.

mmorselli
12-01-2021, 15:10
Diciamola bene,
non è la rtx 3080 a fare ''collo di bottiglia'' o da ''tappo''. Aumentando risoluzione e filtri il carico di lavoro si sposta cosi tanto sulla GPU (che è perfettamente in grado di assolverlo, nessun tappo)

Perfettamente in grado di assolverlo? La mia 2080Ti non sarebbe d'accordo. Io devo limitarmi anche per non saturare gli 11 giga di RAM, infatti aspetto con ansia l'annuncio (e la disponibilità) della 3080Ti soprattutto per la memoria, perché devo pilotare due display 4K in VR, per cui in supersampling. Ho giochi dove devo accettare compromessi per fare 40 fps.

mmorselli
12-01-2021, 15:17
Se quell'HW viene utilizzato per giocare a risoluzioni più alte, è con quelle che va testato.

Ma a che risoluzioni? E che gioco? Perché se mi testi Cyberpunk in 4K, che mi frega a me che devo giocare a Elite Dangerous o DCS in VR? Non c'è un giocatore standard, c'è chi fa il computer top di gamma per i giochi racing a triplo monitor, chi vuole giocare in 2K a 144fps, chi a 4K a 60fps, chi vorrebbe provare a schiodare MS Flight Simulator 2020...

Se mi testi una serie di giochi in 1080p io ricavo tutto quello che mi interessa sapere della CPU. Poi quando andremo a testare la GPU faremo il contrario, proveremo giochi non cpu bounded a risoluzioni molto alte.

Giux-900
12-01-2021, 15:59
Perfettamente in grado di assolverlo? La mia 2080Ti non sarebbe d'accordo. Io devo limitarmi anche per non saturare gli 11 giga di RAM, infatti aspetto con ansia l'annuncio (e la disponibilità) della 3080Ti soprattutto per la memoria, perché devo pilotare due display 4K in VR, per cui in supersampling. Ho giochi dove devo accettare compromessi per fare 40 fps.

Vabbè, ma ''collo di bottiglia'' significa altro... da qui la precisazione. :)

Poi ovvio se ti serve più potenza fai gli upgrade necessari... ma è un altro discorso.

MirmiX
12-01-2021, 18:25
L'unica cosa interessante di questo lancio, è come reagirà in termini di prezzo il mercato. Spero vivamente che una maggior disponibilità di processori nuovi faccia tornare gli zen 3 a prezzi più vicini al listino.

mmorselli
12-01-2021, 18:59
Vabbè, ma ''collo di bottiglia'' significa altro... da qui la precisazione. :)

Dipende se misuri gli fps o il CPU frame time. In questo caso si diceva di aver fatto il test di Metro Exodus rilevando 156,54 FPS. Se è il test del gioco non vedi il CPU frame time, vedi proprio gli fps effettivi, e perché la CPU faccia 156 FPS occorre che la GPU faccia almeno altrettanto, altrimenti diventa, appunto, il collo di bottiglia.

Alekx
13-01-2021, 08:56
Domanda, ma in Intel non licenziano nessuno ?

No perche' da una casa del genere vedere certi post con CPU molto inferiori in termini di tecnologia a quella degli AMD fa veramente ridere e personalmente mi fanno capire che non hanno neanche progetti a medio/corto termine.

coschizza
13-01-2021, 08:58
Domanda, ma in Intel non licenziano nessuno ?

No perche' da una casa del genere vedere certi post con CPU molto inferiori in termini di tecnologia a quella degli AMD fa veramente ridere e personalmente mi fanno capire che non hanno neanche progetti a medio/corto termine.

Non è un problema di persone ma di fabbriche

Alekx
13-01-2021, 09:09
Non è un problema di persone ma di fabbriche

Si questo lo so, il discorso e' che hanno dormito prima, cullandosi.

cdimauro
14-01-2021, 06:58
Perché lo confrontano con il 5900x e non con il 5950x? :confused:
Probabilmente per la fascia di prezzo in cui si piazzerà.

A livello di puro hardware / core dovrebbe essere confrontato col 5800X, invece.
;47221633']Vorrei solo sapere se i prossimi con Big e Little costeranno in linea, quindi a parità di costo avrà 50% di core little in più, o se 8+8core costerà come un 16 core, in quel caso per quanto faccia gola i 16core puri di AMD sono sempre in vantaggio.
Se invece quel packaging con 8+8 costerà in linea con la precedente serie allora si sarà una novità.
E' chiaro che i core piccoli dovranno essere meno costosi, altrimenti avrebbe poco senso proporlo. Di quanto, non è dato saperlo, almeno per ora.
Ma è una CPU o una GPU? Ha senso il test di una CPU "in 4K" ?

Si fa in 1080p per mostrare la capacità della CPU in condizioni in cui la GPU non fa da tappo, poi è chiaro che sarà acquistato da persone che monteranno una GPU adeguata e saliranno di risoluzione.

Forse dovrebbero metterci una didascalia in questi test, senza dare troppe cose per scontate, la gente ha imparato un po' di numeri e sigle, le ha associate a "meglio" e "peggio", e quelle vuole sentire... K, megapixel, core...
This.
Ma a che risoluzioni? E che gioco? Perché se mi testi Cyberpunk in 4K, che mi frega a me che devo giocare a Elite Dangerous o DCS in VR? Non c'è un giocatore standard, c'è chi fa il computer top di gamma per i giochi racing a triplo monitor, chi vuole giocare in 2K a 144fps, chi a 4K a 60fps, chi vorrebbe provare a schiodare MS Flight Simulator 2020...

Se mi testi una serie di giochi in 1080p io ricavo tutto quello che mi interessa sapere della CPU. Poi quando andremo a testare la GPU faremo il contrario, proveremo giochi non cpu bounded a risoluzioni molto alte.
And this. Si deve usare una risoluzione quanto più bassa possibile se si vuole valutare la bontà di un processore per giocare.
mi sembra strano che Intel non riesca ad uscire dalla litografia a 14nm.
Infatti ha già presentato prodotti a 10nm.

Il problema sono le prestazioni per i prodotti "desktop".
o sta lavorando a qualcosa di grosso e per tappare i buchi usa questi escamotage, altrimenti ha dormito troppo sugli allori.
Tranquillo che non dorme.
ma gia quella multa miliardaria dovuta ai truschini ai tempi di athlon64 presagivano qualcosa di non troppo chiaro sulla effettiva "potenza" di Intel.
Cosa totalmente priva di senso.

La tecnologia diventa obsoleta già dopo appena un anno che è passato, e tu vorresti fare previsioni su eventi accaduti una quindicina d'anni fa...
Fino adesso pero non ha mai dato segni di cedimento.
E si vede pure che non conosci la storia di Intel.
Forte anche della posizione di vantaggio sulla cultura comune delle CPU.

Chi se ne intendeva poco è normale che conosceva solo Intel. qualunque PC commerciale ne aveva uno all'interno. Era quasi un lavaggio del cervello.
Si chiama marketing: se hai soldi pubblicizzi (bene) i tuoi prodotti.
Adesso tra M1 e Ryzen che hanno dato un bello scossone al mercato e anche alla cultura comune, Intel inizia a sentire il fiato sul collo
L'unica cosa mezza sensata che hai scritto. E' mezza perché hai "dimenticato" che i problemi di Intel sono dovuti ai nuovi processi produttivi, mentre Apple e AMD non ne hanno perché... non sono delle fonderie (si appoggiano a terzi).
penso che dipenda anche dallo schema della CPU.

forse lo schema di Intel si adatta male a ulteriori rimpicciolimenti.
Schema? Ma di cosa stai parlando?!? :confused:
Domanda, ma in Intel non licenziano nessuno ?
Sì, e le notizie passano e sono passate anche qui: basterebbe leggerle...
No perche' da una casa del genere vedere certi post con CPU molto inferiori in termini di tecnologia a quella degli AMD fa veramente ridere e personalmente mi fanno capire che non hanno neanche progetti a medio/corto termine.
Di quale tecnologia parli? Come dicevo sopra, AMD non ha fonderie, e si affida a terzi.

Per il resto, i progetti c'erano già parecchi anni fa, ma sono stati bloccati dai problemi ai processi produttivi.
Si questo lo so, il discorso e' che hanno dormito prima, cullandosi.
Ma assolutamente no: non sai di che parli.

Alekx
14-01-2021, 10:26
Si chiama marketing: se hai soldi pubblicizzi (bene) i tuoi prodotti.


Ma anche no e la storia dovresti saperla (bene), anche se per molti anni erano cmq le cpu di riferimento.

Per quanto concere i progetti puoi anche farli x cpu a "2nm" se poi pero' ti culli su come realizzarle e' chiaro che la colpa e' di qualcun altro, nel caso specfico delle fonderie.

Non dico che rinnovare una fonderia sia semplice, anzi tutt'altro, e se non erro INTEL mi sembra stia guardando a quelle di terze parti per farsi aiutare.

Quello che non capisco e' il mancato rinnovamento negli anni di queste fonderie specialmente da parte di un colosso come INTEL perche' ritengo che siano la parte vitale per poter poi dare seguito ai progetti di "rinnovamento" (non scopro l'acqua calda).

Basandomi sulle letture del web, giuste o sbagliate che siano, le CPU a 7nm di INTEL arriveranno a fine 2022 inizio 2023 quando probabilmente qualcun altro produrra' a 5nm (tutto da verificare) quindi ti ritroverai a rincorrere nonostante il rinnovamento.

leddlazarus
14-01-2021, 14:28
L'unica cosa mezza sensata che hai scritto. E' mezza perché hai "dimenticato" che i problemi di Intel sono dovuti ai nuovi processi produttivi, mentre Apple e AMD non ne hanno perché... non sono delle fonderie (si appoggiano a terzi).

Schema? Ma di cosa stai parlando?!? :confused:



oh è arrivato il tuttologo...

cdimauro
15-01-2021, 07:38
Ma anche no e la storia dovresti saperla (bene), anche se per molti anni erano cmq le cpu di riferimento.
La conosco molto bene sì, e di cosa stiamo parlando? Di roba di una quindicina d'anni fa, per l'appunto.
Per quanto concere i progetti puoi anche farli x cpu a "2nm" se poi pero' ti culli su come realizzarle e' chiaro che la colpa e' di qualcun altro, nel caso specfico delle fonderie.
Come ti ho già detto, Intel NON si sta cullando: ha lavorato ai 10nm e di recente anche ai 7nm.

Ma ha avuto problemi con entrambi. E' questo il nocciolo della questione.
Non dico che rinnovare una fonderia sia semplice, anzi tutt'altro, e se non erro INTEL mi sembra stia guardando a quelle di terze parti per farsi aiutare.
Certamente, ma anche perché non riesce a soddisfare la domanda con le sue fonderie.
Quello che non capisco e' il mancato rinnovamento negli anni di queste fonderie specialmente da parte di un colosso come INTEL perche' ritengo che siano la parte vitale per poter poi dare seguito ai progetti di "rinnovamento" (non scopro l'acqua calda).
Vedi sopra: i rinnovamenti (al plurale) ci sono stati, ma sono stati affetti da problematiche.
Basandomi sulle letture del web, giuste o sbagliate che siano, le CPU a 7nm di INTEL arriveranno a fine 2022 inizio 2023 quando probabilmente qualcun altro produrra' a 5nm (tutto da verificare) quindi ti ritroverai a rincorrere nonostante il rinnovamento.
Senz'altro. E' indietro. C'è poco da fare.
oh è arrivato il tuttologo...
Non sono un tuttologo, ma di quello che parlo almeno ho conoscenza.

Tu, invece,da quel che hai scritto, non hai la minima idea di come sia fatta una CPU...

Free Gordon
16-01-2021, 01:39
E' (a detta loro) un +4% su AMD 5900X, che a sua volta vantava già un notevole salto nelle prestazioni, per cui non è affatto poco.
Il test a 1080p immagino sia per fare in modo che la GPU non faccia da collo di bottiglia, qui si parla di CPU per cui diventa interessante per chi ha giochi CPU bounded, problema onnipresente nei simulatori.
Il target è certamente il gaming, dove poco ti importa anche dei 70W in più di consumo, per tutto il resto suppongo che i molti più core di AMD faranno da padrone ancora a lungo.


Certo... oggi ormai dei watt non frega più nulla a nessuno (non è riferito a te eh.. ;-) ) :asd:

Invece è molto importante sapere quanti fps fai con una 3090 a 800x600.. :rotfl:


oltre il 90% degli utenti su steam giocano a quella risoluzione preistorica

Sì.. e al 99,9% ci giocano con una 1650 o una 1060.. :asd: o peggio ancora... e non con una 3080! :)


Dei test del genere oggi, prendere le cpu e testarle in giochi tra l'altro non competitivi con GPU monster (3080 & co.) @1080p, hanno la stessa valenza di vedere quanto ci mettono le cpu ad eseguire bench tipo il vecchio Superpì single thread. :)

E' certamente interessante da un pdv "storico" e architetturale :D ma nei fatti non frega assolutamente una mazza a nessuno dato che sono situazioni in cui quelle stesse cpu non saranno mai usate... MAIIIIII :sofico:

Cioè servono.... MA solo al sistema pubblicitario della ditta che le produce e che gli sta dietro.
Ecco a questo servono sicuramente questi bench. ;)

cdimauro
16-01-2021, 06:44
Quei benchmark servono a testare le CPU in ambito gaming: si fanno in quel modo da tempo immemore, e lo fanno professionisti che fanno bene il loro lavoro.

Per gli altri rimane la farsa e buttarla in caciara. Come al solito.

mmorselli
16-01-2021, 13:55
Certo... oggi ormai dei watt non frega più nulla a nessuno (non è riferito a te eh.. ;-) ) :asd:


Però è vero che a me dei watt non frega nulla, fintanto che esiste un alimentatore che me li fornisce e un dissipatore che me li smaltisce, non è un problema che mi pongo, non vado a batteria.

Invece è molto importante sapere quanti fps fai con una 3090 a 800x600.. :rotfl:

La 3090 è una GPU, non una CPU, per cui mi interessa (a me in particolare) che prestazioni ha a risoluzioni molto alte, anche superiori a 4K, dove potrebbe essere la VRAM a fare da collo di bottiglia.

Il Core i9-11900K oggetto di questo articolo invece è una CPU, per cui mi interessa sapere che prestazioni ha a risoluzioni molto basse, così da escludere più che posso il contributo della GPU nel computo.

Come è possibile che un concetto così banale porti la gente a fare battutine, al posto che dire "ah, vero, non l'avevo guardata da questo punto di vista"?

Free Gordon
16-01-2021, 14:05
Quei benchmark servono a testare le CPU in ambito gaming: si fanno in quel modo da tempo immemore, e lo fanno professionisti che fanno bene il loro lavoro..


Questa frase non ha alcun senso Mauro... :sofico:

E' lo stesso motivo per cui non includerei nella suite di benchmark un 3dmark2001 (o meglio, io lo farei anche -ammesso che giri correttamente sotto 10- giusto per curiosità :) ) anche se una cpu dovesse risultare molto meglio di un'altra non interesserebbe a nessuno quel risultato.


Il fatto che questi FUTURI 11mila e rotti di Intel, ennesima evoluzione, siano un 4% medio @1080p più veloci degli ormai "passati" :D 5000 di amd non interessa assolutamente a nessuno alla prova dei fatti :asd: interessa solamente a chi vuole dimostrare (e a questo punto non capisco nemmeno bene il perché :doh: ) che questi proci servano ancora a qualcosa e non siano praticamente fuori mercato ancor prima di uscire... :)

Poi oh, prezzati giusti, tutti i proci son buoni... :) AMD è andata avanti a vendere l'errore BD ed evoluzioni con maquillage per anni, puntando tutto sul perf/price... ;) ma questo è un altro discorso. :oink: :oink: :oink:

Free Gordon
16-01-2021, 14:12
Però è vero che a me dei watt non frega nulla, fintanto che esiste un alimentatore che me li fornisce e un dissipatore che me li smaltisce, non è un problema che mi pongo, non vado a batteria.

Anche se a te non interessa, è in realtà un parametro di valutazione abbastanza importante.

Ed è più che ovvio il motivo... :)



La 3090 è una GPU, non una CPU,

Non se ne esce... :doh:
Grazie della spiegazione cmq... :asd:

maxsin72
16-01-2021, 16:49
Probabilmente per la fascia di prezzo in cui si piazzerà.

A livello di puro hardware / core dovrebbe essere confrontato col 5800X, invece.



Cesare secondo me ti sbagli: intel dichiara d avere la cpu desktop più veloce in ST e nei giochi sul mercato ma evita di confrontarla con la migliore della concorrenza ovvero il 5950X. Secondo me è solo marketing perchè già hanno faticato ad ottenere un 4% medio sul 5900x, figuriamoci sul 5950X. Sarei anche curioso di vedere poi che ram hanno utilizzato sul sistema di prova AMD: qualcosa mi dice, come già avvenuto in passato, che non abbiano utilizzato la configurazione migliore per AMD.

cdimauro
16-01-2021, 17:09
Questa frase non ha alcun senso Mauro... :sofico:
Cesare, non Mauro. :) E quella frase ha perfettamente senso ed è usata in italiano corrente. ;)
E' lo stesso motivo per cui non includerei nella suite di benchmark un 3dmark2001 (o meglio, io lo farei anche -ammesso che giri correttamente sotto 10- giusto per curiosità :) ) anche se una cpu dovesse risultare molto meglio di un'altra non interesserebbe a nessuno quel risultato.
Credo di aver già esplicitato innumerevoli volte la mia avversione ai benchmark sintetici, e alla richiesta di effettuarli soltanto con applicazioni reali.

Alcuni benchmark sintetici sono utili, ma soltanto a smanettoni a cui interessa indagare particolari aspetti di un sistema.
Il fatto che questi FUTURI 11mila e rotti di Intel, ennesima evoluzione, siano un 4% medio @1080p più veloci degli ormai "passati" :D 5000 di amd non interessa assolutamente a nessuno alla prova dei fatti :asd: interessa solamente a chi vuole dimostrare (e a questo punto non capisco nemmeno bene il perché :doh: ) che questi proci servano ancora a qualcosa e non siano praticamente fuori mercato ancor prima di uscire... :)
Al momento i benchmark riguardano soltanto i giochi, ma serve una test suite più completa ed eterogenea per capire come si comporta la nuova micro-architettura in altri ambiti.

Magari in altre situazioni il miglioramento prestazione è ben sopra il 5%. Basti pensare che RocketLake sdogani finalmente su desktop le AVX-512, che offrono un notevole incremento prestazionale in ambito di massiccio calcolo vettoriale.
Poi oh, prezzati giusti, tutti i proci son buoni... :) AMD è andata avanti a vendere l'errore BD ed evoluzioni con maquillage per anni, puntando tutto sul perf/price... ;) ma questo è un altro discorso. :oink: :oink: :oink:
Non è un altro discorso: è un discorso sicuramente importante, perché alla fine bisogna valutare anche il costo d'acquisto.

AMD, pur di vendere i suoi Bulldozer, ha dovuto calare molto il prezzo, e ha fatto bene perché almeno un po' di soldi li ha portati a casa, e tanta gente s'è fatta un PC potente a poco prezzo.

Anche questo è stato utile.

EDIT: visto un nuovo commento.
Cesare secondo me ti sbagli: intel dichiara d avere la cpu desktop più veloce in ST e nei giochi sul mercato ma evita di confrontarla con la migliore della concorrenza ovvero il 5950X. Secondo me è solo marketing perchè già hanno faticato ad ottenere un 4% medio sul 5900x, figuriamoci sul 5950X.
Se Intel afferma che è la migliore sul mercato in ambito gaming, lo dovrà essere ANCHE nei confronti del 5950X, ovviamente.

Tu sei sicuro che il 5950X sia SEMPRE migliore del 5900X in quest'ambito? ;)
Sarei anche curioso di vedere poi che ram hanno utilizzato sul sistema di prova AMD: qualcosa mi dice, come già avvenuto in passato, che non abbiano utilizzato la configurazione migliore per AMD.
Dovrebbe esserci sempre la configurazione dei sistemi utilizzati in calce alle slide.

maxsin72
17-01-2021, 13:18
Se Intel afferma che è la migliore sul mercato in ambito gaming, lo dovrà essere ANCHE nei confronti del 5950X, ovviamente.

Tu sei sicuro che il 5950X sia SEMPRE migliore del 5900X in quest'ambito? ;)

Dovrebbe esserci sempre la configurazione dei sistemi utilizzati in calce alle slide.

Il 5950X in generale va meglio in ST del 5900X per via del silicio più selezionato e della capacità di clock di conseguenza più alta.
E tu sei sicuro che l'11900K vada sempre meglio del 10900K nei giochi? Iniziano a trapelare leaks preoccupanti per intel ;) : https://twitter.com/harukaze5719/status/1350484374957932545

https://i.postimg.cc/tTBrwpy8/11900k.jpg

coschizza
17-01-2021, 13:22
Il 5950X in generale va meglio in ST del 5900X per via del silicio più selezionato e della capacità di clock di conseguenza più alta.
E tu sei sicuro che l'11900K vada sempre meglio del 10900K nei giochi? Iniziano a trapelare leaks preoccupanti per intel ;) : https://twitter.com/harukaze5719/status/1350484374957932545

https://pbs.twimg.com/media/Er3iN_lUwAEAi4b?format=jpg&name=large

dai grafici che hai postato direi che va meglio sempre la 11900k perché ha sempre i frame minimi superiori cosa piu importante di avere 200 o 220fps in certi titoli che pero non ti cambiano niente
si tratta sempre di un 8 core contro un 10

StylezZz`
17-01-2021, 14:05
È chiaro che i core in meno saranno uno svantaggio, bisognerà vedere se saranno compensati dall'architettura e ipc migliore.

E per quanto riguarda i giochi molto probabilmente useranno il trucchetto SAM + GPU PCI 4.0.

maxsin72
17-01-2021, 16:49
dai grafici che hai postato direi che va meglio sempre la 11900k perché ha sempre i frame minimi superiori cosa piu importante di avere 200 o 220fps in certi titoli che pero non ti cambiano niente
si tratta sempre di un 8 core contro un 10

Mah.. in tomb rider e assassin creed si equivalgono o addirittura fa un po' meglio il 10900k perchè non sono 2 fps in meno nel frame rate minimo (che si ha magari solo per qualche frazione di secondo in svariati minuti di gioco eche comunque è sotto le 60 fps anche per l'11900k) o anche nel 1% low che cambiano le cose mentre il frame rate medio del 10900k è addirittura più alto. E comunque l'11900k è tutt'altro che rivoluzionario nel gaming rispetto al 10900K e secondo me è un processore da scaffale perchè, quando uscirà, mancheranno pochi mesi al lancio di Zen4 e Alder Lake con DDR5 e li si che il salto dovrebbe essere molto più netto.
E chi non può aspettare le nuove piattaforme con DDR5, farebbe bene a optare per Zen3 che, a fronte di uno svantaggio praticamente inesistente in ST, supera rocket lake a mani basse in MT.

coschizza
17-01-2021, 17:00
Mah.. in tomb rider e assassin creed si equivalgono o addirittura fa un po' meglio il 10900k perchè non sono 2 fps in meno nel frame rate minimo o nel (che si ha magari solo per qualche frazione di secondo in svariati minuti di gioco eche comunque è sotto le 60 fps anche per l'11900k) o anche nel 1% low che cambiano le cose mentre il frame rate medio del 10900k è addirittura più alto. E comunque l'11900k è tutt'altro che rivoluzionario nel gaming rispetto al 10900K e secondo me è un processore da scaffale perchè, quando uscirà, mancheranno pochi mesi al lancio di Zen4 e Alder Lake con DDR5 e li si che il salto dovrebbe essere molto più netto.
E chi non può aspettare le nuove piattaforme con DDR5, farebbe bene a optare per Zen3 che, a fronte di uno svantaggio praticamente inesistente in ST, supera rocket lake a mani basse in MT.
Il problema è il solito i zen 3 sono introvabili e arriveremo a fine 2021 con buona disponibilità quando appunto usciranno i nuovi

maxsin72
17-01-2021, 17:22
Il problema è il solito i zen 3 sono introvabili e arriveremo a fine 2021 con buona disponibilità quando appunto usciranno i nuovi

Lo erano fino a qualche giorno fa, ieri e oggi i siti on line si sono riempiti di 5600X (intorno ai 370 euro) e, in misura minore, di 5800x (circa 470 euro). Nessun problema poi a trovare sia 5900x che 5950x che però hanno prezzi piuttosto alti.

StylezZz`
17-01-2021, 18:28
E chi non può aspettare le nuove piattaforme con DDR5, farebbe bene a optare per Zen3 che, a fronte di uno svantaggio praticamente inesistente in ST, supera rocket lake a mani basse in MT.

Lo erano fino a qualche giorno fa, ieri e oggi i siti on line si sono riempiti di 5600X (intorno ai 370 euro) e, in misura minore, di 5800x (circa 470 euro). Nessun problema poi a trovare sia 5900x che 5950x che però hanno prezzi piuttosto alti.

Zen3 è sovrapprezzato, 300 e passa euro di listino per un 5600x (esa core) non li spenderei mai, e i prezzi dei negozi sono ancora più ridicoli, quasi 400 euro.

maxsin72
17-01-2021, 19:03
Zen3 è sovrapprezzato, 300 e passa euro di listino per un 5600x (esa core) non li spenderei mai, e i prezzi dei negozi sono ancora più ridicoli, quasi 400 euro.

Si è vero, siamo ancora lontani dai prezzi di listino di AMD ma, se si inizia ad avere la disponibilità del prodotto, vuol dire che nel giro di poco scenderanno anche i prezzi.

coschizza
17-01-2021, 20:06
Lo erano fino a qualche giorno fa, ieri e oggi i siti on line si sono riempiti di 5600X (intorno ai 370 euro) e, in misura minore, di 5800x (circa 470 euro). Nessun problema poi a trovare sia 5900x che 5950x che però hanno prezzi piuttosto alti.

Improvvisamente sono pieni. Poi li cerco e li trovo a prezzi fuori mercato

maxsin72
17-01-2021, 20:16
Improvvisamente sono pieni. Poi li cerco e li trovo a prezzi fuori mercato

Prima se li cercavi non c'erano nemmeno e comunque, a differenza di quanto hai scritto tu, ora si trovano.
Che siano ancora fuori prezzo l'ho scritto io prima di te.

cdimauro
18-01-2021, 07:10
Il 5950X in generale va meglio in ST del 5900X per via del silicio più selezionato e della capacità di clock di conseguenza più alta.
Qui non parlavamo di prestazioni in ST né di clock in senso assoluto, ma esclusivamente delle prestazioni nei videogiochi, il cui uso dei core della CPU non è influenzato esclusivamente dai suddetti parametri.
E tu sei sicuro che l'11900K vada sempre meglio del 10900K nei giochi? Iniziano a trapelare leaks preoccupanti per intel ;) : https://twitter.com/harukaze5719/status/1350484374957932545

https://i.postimg.cc/tTBrwpy8/11900k.jpg
Qualche regressione rispetto a Skylake ci può stare, perché è una micro-architettura nuova, e ha punti di forza e debolezza diversi, per l'appunto.

Mentre 5900X e 5950X sono la stessa, identica, micro-architettura.

Comunque serve testare un buon numero di applicazioni per avere un'idea generale di come si comporti la nuova CPU. Specificamente, lo vedremo con diversi videgiochi.
È chiaro che i core in meno saranno uno svantaggio,
Non credo lo saranno per i giochi. ;)
bisognerà vedere se saranno compensati dall'architettura e ipc migliore.
Credo di sì. I test che sono trapelati sono incoraggianti.
E per quanto riguarda i giochi molto probabilmente useranno il trucchetto SAM + GPU PCI 4.0.
SAM sarebbe meglio lasciarla perdere: è una caratteristica che fa guadagnare poco in alcuni titoli, niente in tanti, ma che fa perdere molto (e anche moltissimo) in alcuni.

A mio avviso al momento non ne vale la pena, finché i giochi non riusciranno a sfruttarla senza alcuna regressione.
E comunque l'11900k è tutt'altro che rivoluzionario nel gaming rispetto al 10900K
La penso il maniera diametralmente opposta. Rocket Lake porterà benefici mediamente su qualunque area applicativa, inclusi i giochi.

Inoltre porta in dote le AVX-512, che quando cominceranno a essere sfruttate anche per i giochi daranno un netto contributo (come lo danno le AVX rispetto alle SSE per i giochi che le usano).

La concorrenza non ha niente del genere al momento, e nemmeno si sa se e quando le implementerà.
e secondo me è un processore da scaffale perchè, quando uscirà, mancheranno pochi mesi al lancio di Zen4 e Alder Lake con DDR5 e li si che il salto dovrebbe essere molto più netto.
Le DDR5 inizialmente non avranno frequenze molto elevate, con in più l'handicap delle latenze nettamente superiori. Le latenze nei giochi incidono più che gli aumenti della banda.

Inoltre, come dicevo sopra, bisogna vedere se Zen4 porterà finalmente le AVX-512 o rimarrà con le AVX.
E chi non può aspettare le nuove piattaforme con DDR5, farebbe bene a optare per Zen3 che, a fronte di uno svantaggio praticamente inesistente in ST, supera rocket lake a mani basse in MT.
Soltanto se ti serve l'MT. Cosa poco comune all'utilizzatore medio, e men che meno proprio in ambito gaming, dove ancora oggi non si sfruttano affatto tutti i core a disposizione.

Hanno più possibilità di essere sfruttate le AVX-512 che i core in più.

Rocketlake con 8 core, frequenze elevate, IPC aumentato, e AVX-512 è certamente un processore molto meglio bilanciato rispetto alla concorrenza.

DukeIT
18-01-2021, 09:05
Stiamo a vedere quando escono, quando si potranno testare prestazioni, prezzi e consumi a 360 gradi, al momento abbiamo solo le dichiarazioni di Intel.

StylezZz`
18-01-2021, 11:31
Non credo lo saranno per i giochi. ;)

Vedremo, perché da questi test l'11900k risulta andare meno del 10900k in giochi recenti come CP77 che sfruttano appunto più core:

https://wccftech.com/intel-core-i9-11900k-vs-core-i9-10900k-5-2-ghz-overclock-benchmarks-gaming-leak/

Mparlav
18-01-2021, 12:35
Vedremo se saranno competitivi vs Zen 3 anche sul fronte prezzi.

Dalle prime indiscrezioni, 11600K/KF e 11700 K/KF sembrano ben collocati vs 5600x e 5800x, ma l'11900 K/KF sarebbe fuori mercato.

maxsin72
18-01-2021, 21:42
Qui non parlavamo di prestazioni in ST né di clock in senso assoluto, ma esclusivamente delle prestazioni nei videogiochi, il cui uso dei core della CPU non è influenzato esclusivamente dai suddetti parametri.

Qualche regressione rispetto a Skylake ci può stare, perché è una micro-architettura nuova, e ha punti di forza e debolezza diversi, per l'appunto.

Mentre 5900X e 5950X sono la stessa, identica, micro-architettura.

Comunque serve testare un buon numero di applicazioni per avere un'idea generale di come si comporti la nuova CPU. Specificamente, lo vedremo con diversi videgiochi.



Il silicio del 5950X è quello più selezionato e in grado di raggiungere clock più alti, considera poi che, purtroppo, ci sono ancora divesi giochi tra i quali i simulatori (DCS, Microsoft flight simulator) che dipendono molto dalle prestazioni in ST.



La penso il maniera diametralmente opposta. Rocket Lake porterà benefici mediamente su qualunque area applicativa, inclusi i giochi.

Inoltre porta in dote le AVX-512, che quando cominceranno a essere sfruttate anche per i giochi daranno un netto contributo (come lo danno le AVX rispetto alle SSE per i giochi che le usano).
La concorrenza non ha niente del genere al momento, e nemmeno si sa se e quando le implementerà.



Le console di gioco, xbox e playstation, montano Ryzen con schede RDNA2 e quindi personalmente penso che i giochi di nuova generazione per PC, il cui codice sarà praticamento lo stesso di quello delle console, sfrutteranno ben poco le AVX-512



Le DDR5 inizialmente non avranno frequenze molto elevate, con in più l'handicap delle latenze nettamente superiori. Le latenze nei giochi incidono più che gli aumenti della banda.

Inoltre, come dicevo sopra, bisogna vedere se Zen4 porterà finalmente le AVX-512 o rimarrà con le AVX.

Soltanto se ti serve l'MT. Cosa poco comune all'utilizzatore medio, e men che meno proprio in ambito gaming, dove ancora oggi non si sfruttano affatto tutti i core a disposizione.

Hanno più possibilità di essere sfruttate le AVX-512 che i core in più.

Rocketlake con 8 core, frequenze elevate, IPC aumentato, e AVX-512 è certamente un processore molto meglio bilanciato rispetto alla concorrenza.

E sulle DDR5 ti sbagli e la cosa mi stupisce non poco perchè dovresti sapere che, a parità di frequenza e quindi di timings con le DDR4, avranno il 36% di banda in più e potranno ulteriormente avvantaggiarsi con clock ben più alti grazie ai quali l'ampiezza d banda sarà circa doppia https://www.tomshw.it/hardware/ram-ddr5-specifiche-tecniche/
Rocket Lake nasce morto e secondo me non ha nulla di equilibrato avendo solo 8 core e un TDP di 250W che gli serve per strappare quel 3-4% a Ryzen nelle solo prestazioni ST e, forse, nei giochi. Considera inoltre che Alder Lake e Zen4 nel giro di pochi mesi avranno prestazioni maggiori in ST, consumeranno un botto di meno e avranno come minimo il doppio di core ma anche che il mercato delle più importanti console è tutto AMD e tira le somme ;)
Insomma per me Rocket Lake è solo un giochino per chi ha tempo, soldi e voglia di farsi un pc con questa cpu ma non so quante persone possano corrispondere a questo identikit.

cdimauro
22-01-2021, 07:37
Vedremo, perché da questi test l'11900k risulta andare meno del 10900k in giochi recenti come CP77 che sfruttano appunto più core:

https://wccftech.com/intel-core-i9-11900k-vs-core-i9-10900k-5-2-ghz-overclock-benchmarks-gaming-leak/
I benchmark non riportano quanti core siano stati usati dai singoli giochi, e quindi nemmeno in CP77. Difficile fare valutazioni tecniche.
Il silicio del 5950X è quello più selezionato e in grado di raggiungere clock più alti, considera poi che, purtroppo, ci sono ancora divesi giochi tra i quali i simulatori (DCS, Microsoft flight simulator) che dipendono molto dalle prestazioni in ST.
Sì, OK, quindi il 5950X va sempre meglio del 5900X? Sei sicuro che i core in più del primo non incidano negativamente sulle prestazioni?
Le console di gioco, xbox e playstation, montano Ryzen con schede RDNA2 e quindi personalmente penso che i giochi di nuova generazione per PC, il cui codice sarà praticamento lo stesso di quello delle console, sfrutteranno ben poco le AVX-512
RDNA2 è l'architettura di una GPU, e non di una CPU, per cui non c'entra assolutamente col discorso che si stava facendo.

I giochi delle console usano Ryzen e quindi le AVX-2, e non c'è nessun motivo per cui il codice non possa essere riadattato per sfruttare le AVX-512 per fare le stesse cose (visto che NON è codice eseguito dalle GPU, per l'appunto, ma dalle unità SIMD del processore).
E sulle DDR5 ti sbagli e la cosa mi stupisce non poco perchè dovresti sapere che, a parità di frequenza e quindi di timings con le DDR4, avranno il 36% di banda in più e potranno ulteriormente avvantaggiarsi con clock ben più alti grazie ai quali l'ampiezza d banda sarà circa doppia https://www.tomshw.it/hardware/ram-ddr5-specifiche-tecniche/
Primo l'articolo non parla colpevolmente (perché avrebbe dovuto farlo) delle latenze delle DDR5.

Secondo io non mi sbaglio e tu evidentemente non hai idea di come funzionino le memorie dalle DDR in poi. Finché le frequenze delle DDR5 non arriveranno a circa il doppio di quelle delle DDR4 le latenze saranno necessariamente superiori a queste ultime, causa clock "base" utilizzato che al momento lavora, per l'appunto, a frequenze inferiori, visto che sono i primi modelli.
Rocket Lake nasce morto e secondo me non ha nulla di equilibrato avendo solo 8 core e un TDP di 250W che gli serve per strappare quel 3-4% a Ryzen nelle solo prestazioni ST e, forse, nei giochi.
Lasciamo che arrivi e poi ne riparliamo.
Considera inoltre che Alder Lake e Zen4 nel giro di pochi mesi avranno prestazioni maggiori in ST, consumeranno un botto di meno e avranno come minimo il doppio di core ma anche che il mercato delle più importanti console è tutto AMD e tira le somme ;)
Come già detto, non si sa ancora se Zen4 avrà le AVX-512, inoltre dovrebbe utilizzare un socket diverso dall'AM4.
Insomma per me Rocket Lake è solo un giochino per chi ha tempo, soldi e voglia di farsi un pc con questa cpu ma non so quante persone possano corrispondere a questo identikit.
Non puoi generalizzare: sarà il TUO caso d'uso, che non corrisponde a quello di tanti altri.

maxsin72
23-01-2021, 18:55
Sì, OK, quindi il 5950X va sempre meglio del 5900X? Sei sicuro che i core in più del primo non incidano negativamente sulle prestazioni?


Dalle recensioni che ho visto mediamente il 5950x va di più seppur di poco


RDNA2 è l'architettura di una GPU, e non di una CPU, per cui non c'entra assolutamente col discorso che si stava facendo.

Che sia l'architettura di una gpu e ben chiaro, quello che non hai capito è che essendo quello delle console un mercato enorme, ed essendo l'hardware delle console tutto prodotto da AMD, mi sembra naturale che gli sviluppatori di giochi tenderanno ad ottimizzare meglio per AMD, con una conseguente ricaduta anche per quanto riguarda i giochi dei PC.

I giochi delle console usano Ryzen e quindi le AVX-2, e non c'è nessun motivo per cui il codice non possa essere riadattato per sfruttare le AVX-512 per fare le stesse cose (visto che NON è codice eseguito dalle GPU, per l'appunto, ma dalle unità SIMD del processore).

Vedremo

Primo l'articolo non parla colpevolmente (perché avrebbe dovuto farlo) delle latenze delle DDR5.

Secondo io non mi sbaglio e tu evidentemente non hai idea di come funzionino le memorie dalle DDR in poi. Finché le frequenze delle DDR5 non arriveranno a circa il doppio di quelle delle DDR4 le latenze saranno necessariamente superiori a queste ultime, causa clock "base" utilizzato che al momento lavora, per l'appunto, a frequenze inferiori, visto che sono i primi modelli.


Primo se confronti ddr4 e ddr5 entrambe 3200 mhz il problema non si pone nel momento in cui le ddr5 hanno un 36% in più di banda perché è evidente che a parità di frequenza se le ddr5 performano meglio è perché le latenze in generale sono migliori.
Secondo ti confermo che ti sbagli perché forse non hai capito come funzionano le ddr5 che offrono anche due canali 40-bit indipendenti (contro uno solo delle ddr4) per ogni modulo di memoria, efficienza del bus e schemi di refresh migliorati e un maggior numero di bank group, così da aumentare le prestazioni del 36% a parità di clock

Lasciamo che arrivi e poi ne riparliamo.

Mi hai rubato le parole di bocca.

Come già detto, non si sa ancora se Zen4 avrà le AVX-512, inoltre dovrebbe utilizzare un socket diverso dall'AM4.

Lo sanno anche i muri che AMD con zen4 introdurranno un nuovo socket, del resto a fine anno saranno passati quasi cinque anni dalla sua uscita. Nel frattempo ho perso il conto di quanti ne ha cambiati intel.

Non puoi generalizzare: sarà il TUO caso d'uso, che non corrisponde a quello di tanti altri.
Infatti io non generalizzo mai e ho scritto "PER ME", che vuol dire a mio parere. Leggi bene :)

cdimauro
24-01-2021, 08:00
Dalle recensioni che ho visto mediamente il 5950x va di più seppur di poco
Avevo chiesto un'altra cosa...
Che sia l'architettura di una gpu e ben chiaro, quello che non hai capito è che essendo quello delle console un mercato enorme, ed essendo l'hardware delle console tutto prodotto da AMD, mi sembra naturale che gli sviluppatori di giochi tenderanno ad ottimizzare meglio per AMD, con una conseguente ricaduta anche per quanto riguarda i giochi dei PC.
No, quello che non hai capito tu è che non ha nessun senso tirare in ballo una GPU quando si sta parlando soltanto di processori, e dove quindi attiene alle capacità di essi nell'esecuzione del codice che compete esclusivamente loro quando si parla di videogiochi.

TU hai parlato di RDNA2, che non c'entra assolutamente nulla in questo contesto.
Primo se confronti ddr4 e ddr5 entrambe 3200 mhz il problema non si pone nel momento in cui le ddr5 hanno un 36% in più di banda
Io parlo di latenza, e tu c'infili la banda...
perché è evidente che a parità di frequenza se le ddr5 performano meglio è perché le latenze in generale sono migliori.
Sarà evidente a te, ma peccato che si parlasse d'altro. Le latenze aumentano aumentando la frequenza delle memorie, e in genere si riducono quando si arriva a doppiare la frequenza della precedenza generazione, perché si è raggiunto lo stesso clock "base".

Riporto un pezzo di AnandTech sulle specifiche delle DDR5 per far chiarezza: Insights into DDR5 Sub-timings and Latencies (https://www.anandtech.com/show/16143/insights-into-ddr5-subtimings-and-latencies), che è interessante perché ci sono anche le specifiche delle precedenti memorie, per cui si possono fare analisi e confronti.

Non la faccio lunga, ma si può vedere che partendo dalla stessa frequenza nominale della precedente generazione in genere le frequenze sono più alte. Quando poi si arriva il doppio si recupera, e negli ultimi anni la latenza è pure diminuita.

Le DDR4 hanno fatto bene, perché sono partite con la stessa latenza (13.75ns) alla stessa frequenza delle DDR3 (1600) e sono tornate ad avere la stessa latenza anche quando hanno doppiato la frequenza (3200).

Le DDR5 partono con la stessa latenza (13.75ns) con le 3200, ma si può vedere che arrivando alle 6400 la latenza è, invece, 14.38ns. Segno che, alle alte frequenze, c'è qualche problema con queste memorie.
Secondo ti confermo che ti sbagli perché forse non hai capito come funzionano le ddr5 che offrono anche due canali 40-bit indipendenti (contro uno solo delle ddr4) per ogni modulo di memoria, efficienza del bus e schemi di refresh migliorati e un maggior numero di bank group, così da aumentare le prestazioni del 36% a parità di clock
E niente, si parla di latenze e tu devi sentire il bisogno di continuare a parlare di tutt'altro...
Lo sanno anche i muri che AMD con zen4 introdurranno un nuovo socket, del resto a fine anno saranno passati quasi cinque anni dalla sua uscita. Nel frattempo ho perso il conto di quanti ne ha cambiati intel.
Irrilevante. Hai tirato in ballo Zen4 in un discorso dove è sostanzialmente inutile. Perché se il principio è che uno deve aspettare perché in futuro ci sarà di meglio, allora non comprerà mai.

Nella realtà se qualcuno deve comprare un PC, a breve si troverà la possibilità di RocketLake fra le scelte. E non Zen4. Dunque i confronti li farà con l'offerta corrente di AMD e di Intel. E RocketLake potrà tranquillamente dire la sua, come già spiegato.

maxsin72
24-01-2021, 11:41
Avevo chiesto un'altra cosa...

Ti è stato risposto, non far finta di non capire: se il 5950x va mediamente poco più del 5900x vuol dire che nella maggior parte dei casi andrà di più ma ci sarà anche qualche eccezione in cui il 5900x farà 1 fps in più.


No, quello che non hai capito tu è che non ha nessun senso tirare in ballo una GPU quando si sta parlando soltanto di processori, e dove quindi attiene alle capacità di essi nell'esecuzione del codice che compete esclusivamente loro quando si parla di videogiochi.

TU hai parlato di RDNA2, che non c'entra assolutamente nulla in questo contesto.

E anche qui fai finta di non capire: ho riportato un dato di fatto ovvero che nel mondo delle console CPU e GPU sono totalmente AMD (e tutti sanno quanto questo sia importante per il porting verso PC e quanto possa favorire AMD) e questo vuol dire che, sul lato CPU, i giochi verranno sviluppati e ottimizzati al meglio senza le AVX512. E poi, ma non è da te, forse stai invecchiando, forse ti sfugge il fatto che SAM ad esempio è una tecnologia che migliora le prestazione che inizialmente era supportata solo su sistemi completamente AMD ed è solo perchè AMD fornirà supporto ad intel e nvidia che tale tecnologia sarà fruibile su sistemi non AMD. Tutto questo, inevitabilmente, fornirà un vantaggio ad AMD rispetto alla concorrenza e le AVX512 potrebbero passare in secondo piano.


Io parlo di latenza, e tu c'infili la banda...

Sarà evidente a te, ma peccato che si parlasse d'altro. Le latenze aumentano aumentando la frequenza delle memorie, e in genere si riducono quando si arriva a doppiare la frequenza della precedenza generazione, perché si è raggiunto lo stesso clock "base".


E anche qui continui a fare il finto tonto, rispondi a questa domanda: perchè le DDR5 3200 sono più prestanti delle DDR4 3200? Questo è un dato di fatto che già da solo fa valere la pena di aspettare i nuovi socket, tantopiù che, quando sarà uscito rocket lake, mancheranno pochi mesi.


Riporto un pezzo di AnandTech sulle specifiche delle DDR5 per far chiarezza: Insights into DDR5 Sub-timings and Latencies (https://www.anandtech.com/show/16143/insights-into-ddr5-subtimings-and-latencies), che è interessante perché ci sono anche le specifiche delle precedenti memorie, per cui si possono fare analisi e confronti.

Link che conferma quello che dico io perchè, a parità di clock a 3200 mhz, ddr4 e ddr5 hanno le stesse latenze ma nel link da me riportato la banda delle ddr5 è il 36% superiore dando quindi migliori prestazioni.

Non la faccio lunga, ma si può vedere che partendo dalla stessa frequenza nominale della precedente generazione in genere le frequenze sono più alte. Quando poi si arriva il doppio si recupera, e negli ultimi anni la latenza è pure diminuita.

Come già scritto sopra, vanno già meglio a parità di clock

Le DDR4 hanno fatto bene, perché sono partite con la stessa latenza (13.75ns) alla stessa frequenza delle DDR3 (1600) e sono tornate ad avere la stessa latenza anche quando hanno doppiato la frequenza (3200).

Le DDR5 partono con la stessa latenza (13.75ns) con le 3200, ma si può vedere che arrivando alle 6400 la latenza è, invece, 14.38ns. Segno che, alle alte frequenze, c'è qualche problema con queste memorie.

Ti sfugge che le ddr5 6000 hanno 14 ns di latenza che sono molto vicini a 13,75: è una differenza del 1,8% che però porta ad un raddoppio quasi della banda passante con un enorme beneficio per le cpu con tanti core.

E niente, si parla di latenze e tu devi sentire il bisogno di continuare a parlare di tutt'altro...

Vedi sopra e non fare il finto tonto

Irrilevante. Hai tirato in ballo Zen4 in un discorso dove è sostanzialmente inutile. Perché se il principio è che uno deve aspettare perché in futuro ci sarà di meglio, allora non comprerà mai.

Sbagliato, si tratta di aspettare pochissimo per non buttare soldi su qualcosa che nasce vecchio, con pochi core e il tdp di una stufa a legna ovvero 250w per 8 core quando ci sono già cpu da mesi in commercio con prestazioni praticamente uguali in st e più che doppie in mt che hanno un tdp che è meno della metà. E' come comprare un auto euro 6 quando dopo 4/5 mesi usciranno le prime euro 7. A mio parere solo un pollo lo farebbe: sai che bello spendere un sacco di soldi per comprare qualcosa che dopo 5 mesi verrebbe asfaltata dal nuovo step tecnologico?

Nella realtà se qualcuno deve comprare un PC, a breve si troverà la possibilità di RocketLake fra le scelte. E non Zen4. Dunque i confronti li farà con l'offerta corrente di AMD e di Intel. E RocketLake potrà tranquillamente dire la sua, come già spiegato.
Direi proprio non tranquillamente per tutte le ragioni spiegate sopra

cdimauro
25-01-2021, 07:10
Ti è stato risposto, non far finta di non capire: se il 5950x va mediamente poco più del 5900x vuol dire che nella maggior parte dei casi andrà di più ma ci sarà anche qualche eccezione in cui il 5900x farà 1 fps in più.
Hai pure misurato pure gli FPS in più...
E anche qui fai finta di non capire: ho riportato un dato di fatto ovvero che nel mondo delle console CPU e GPU sono totalmente AMD (e tutti sanno quanto questo sia importante per il porting verso PC e quanto possa favorire AMD) e questo vuol dire che, sul lato CPU, i giochi verranno sviluppati e ottimizzati al meglio senza le AVX512. E poi, ma non è da te, forse stai invecchiando, forse ti sfugge il fatto che SAM ad esempio è una tecnologia che migliora le prestazione che inizialmente era supportata solo su sistemi completamente AMD ed è solo perchè AMD fornirà supporto ad intel e nvidia che tale tecnologia sarà fruibile su sistemi non AMD. Tutto questo, inevitabilmente, fornirà un vantaggio ad AMD rispetto alla concorrenza e le AVX512 potrebbero passare in secondo piano.
E' inutile che cerchi di cambiare discorso e lo sai bene.

Che i giochi saranno ottimizzati più per le console è pacifico e nessuno l'ha messo in discussione. Ma tu hai tirato in ballo la GPU quando si stava parlando esplicitamente dell'uso del processore nell'esecuzione del gioco, e questo non c'entra assolutamente nulla, come ho già chiarito più volte.

Per il resto Intel potrebbe anche adottare la strategia di nVidia: finanziare lo sviluppo dei giochi per far sfruttare le funzionalità dei suoi processori, in modo da mettere un solco più netto con la concorrenza. A partire dall'Unreal Engine e da Unity, fino ai singoli giochi tripla AAA più quotati.
E anche qui continui a fare il finto tonto, rispondi a questa domanda: perchè le DDR5 3200 sono più prestanti delle DDR4 3200? Questo è un dato di fatto che già da solo fa valere la pena di aspettare i nuovi socket, tantopiù che, quando sarà uscito rocket lake, mancheranno pochi mesi.
E due: ti ho detto che è inutile cercare di cambiare discorso con me, e continui a farlo per pura disperazione a questo punto.

Ripeto: si parlava di LATENZA in QUESTA PARTE della discussione. Punto.

Che poi le DDR5 offrano una maggior banda a disposizione qui nessuno l'ha mai negato, ma sei liberissimo di riportare link e quote se la pensi diversamente.
Link che conferma quello che dico io perchè, a parità di clock a 3200 mhz, ddr4 e ddr5 hanno le stesse latenze
Questo l'avevo già scritto io, ma avevo scritto anche altro, che ovviamente tu hai saltato a pié pari: chi l'avrebbe mai detto...
ma nel link da me riportato la banda delle ddr5 è il 36% superiore dando quindi migliori prestazioni.
E di nuovo cambi discorso passando dalla latenze alla banda, di cui nessuno ha messo in dubbio alcunché.

Che dire: sei nella disperazione più cupa, ormai, perché ricadi continuamente nello stesso ciclico tentativo inutile di cambiare le carte in tavola...
Come già scritto sopra, vanno già meglio a parità di clock
Si parlava di latenza, a parità di clock vanno uguali nel caso delle 3200. Uguali: non meglio.
Ti sfugge che le ddr5 6000 hanno 14 ns di latenza che sono molto vicini a 13,75: è una differenza del 1,8%
Ma va! A parte la differenza che c'è, per l'appunto, ma hai preso l'esempio sbagliato. Avresti dovuto prendere le 6400, che hanno una latenza di 14.38ns. Ti sei perso per strada il discorso che avevo fatto...
che però porta ad un raddoppio quasi della banda passante con un enorme beneficio per le cpu con tanti core.
E questo chi l'avrebbe negato? Hai presente di cosa si parlava in questa parte della discussione? Rullo di tamburi... suspence... di LA-TEN-ZAAAAAAA!
Vedi sopra e non fare il finto tonto
No, io vedo soltanto che continui a parlare di cose diverse quando l'oggetto della discussione qui erano soltanto le latenze.

Tipico di chi ha finito gli argomenti e non sa più far altro che cercare di cambiare continuamente la discussione, come hai ripetutamente dimostrato.
Sbagliato, si tratta di aspettare pochissimo per non buttare soldi su qualcosa che nasce vecchio, con pochi core e il tdp di una stufa a legna ovvero 250w per 8 core quando ci sono già cpu da mesi in commercio con prestazioni praticamente uguali in st e più che doppie in mt che hanno un tdp che è meno della metà. E' come comprare un auto euro 6 quando dopo 4/5 mesi usciranno le prime euro 7. A mio parere solo un pollo lo farebbe: sai che bello spendere un sacco di soldi per comprare qualcosa che dopo 5 mesi verrebbe asfaltata dal nuovo step tecnologico?
E certo, perché giustamente sono tutti come te: anche se hanno bisogno di comprare assolutamente un computer è meglio che si mettano a braccia conserte e aspettino un po' di mesi.

Ti s'è rotto il computer? Dedicati al bricolage, vai a giocare a carte al centro anziani, fatti una vacanza di 6-7 mesi in Antartide o vai a svernare in Australia: l'importante è che aspetti perché è meglio non comprarlo adesso, perché lo dice maxsin72...
Direi proprio non tranquillamente per tutte le ragioni spiegate sopra
Ottime ragioni, sì sì...

maxsin72
25-01-2021, 09:58
Hai pure misurato pure gli FPS in più...

E' inutile che cerchi di cambiare discorso e lo sai bene.

Che i giochi saranno ottimizzati più per le console è pacifico e nessuno l'ha messo in discussione. Ma tu hai tirato in ballo la GPU quando si stava parlando esplicitamente dell'uso del processore nell'esecuzione del gioco, e questo non c'entra assolutamente nulla, come ho già chiarito più volte.

Per il resto Intel potrebbe anche adottare la strategia di nVidia: finanziare lo sviluppo dei giochi per far sfruttare le funzionalità dei suoi processori, in modo da mettere un solco più netto con la concorrenza. A partire dall'Unreal Engine e da Unity, fino ai singoli giochi tripla AAA più quotati.

E due: ti ho detto che è inutile cercare di cambiare discorso con me, e continui a farlo per pura disperazione a questo punto.

Ripeto: si parlava di LATENZA in QUESTA PARTE della discussione. Punto.

Che poi le DDR5 offrano una maggior banda a disposizione qui nessuno l'ha mai negato, ma sei liberissimo di riportare link e quote se la pensi diversamente.

Questo l'avevo già scritto io, ma avevo scritto anche altro, che ovviamente tu hai saltato a pié pari: chi l'avrebbe mai detto...

E di nuovo cambi discorso passando dalla latenze alla banda, di cui nessuno ha messo in dubbio alcunché.

Che dire: sei nella disperazione più cupa, ormai, perché ricadi continuamente nello stesso ciclico tentativo inutile di cambiare le carte in tavola...

Si parlava di latenza, a parità di clock vanno uguali nel caso delle 3200. Uguali: non meglio.

Ma va! A parte la differenza che c'è, per l'appunto, ma hai preso l'esempio sbagliato. Avresti dovuto prendere le 6400, che hanno una latenza di 14.38ns. Ti sei perso per strada il discorso che avevo fatto...

E questo chi l'avrebbe negato? Hai presente di cosa si parlava in questa parte della discussione? Rullo di tamburi... suspence... di LA-TEN-ZAAAAAAA!

No, io vedo soltanto che continui a parlare di cose diverse quando l'oggetto della discussione qui erano soltanto le latenze.

Tipico di chi ha finito gli argomenti e non sa più far altro che cercare di cambiare continuamente la discussione, come hai ripetutamente dimostrato.

E certo, perché giustamente sono tutti come te: anche se hanno bisogno di comprare assolutamente un computer è meglio che si mettano a braccia conserte e aspettino un po' di mesi.

Ti s'è rotto il computer? Dedicati al bricolage, vai a giocare a carte al centro anziani, fatti una vacanza di 6-7 mesi in Antartide o vai a svernare in Australia: l'importante è che aspetti perché è meglio non comprarlo adesso, perché lo dice maxsin72...

Ottime ragioni, sì sì...

Cesare, hai mai pensato di darti alla politica? :D Riesci a stravolgere la realtà in modo tale che anche un bambino di 2 anni se ne accorgerebbe. Ti ho ampiamente motivato il fatto che rocket lake nasce morto e sepolto avendo pochi core, tdp da centrale nucleare, buone performance in st al pari o un 3/4% in più della concorrenza AMD ma pietose in mt (andrà meno della metà della concorrenza) ma quando uscirà mancherà poco alle piattaforme con DDR5 che andranno DA SUBITO (E TI HO POSTATO TUTTI I DATI MA FAI FINTA DI NON CAPIRE) meglio delle ddr4. Ma per te sarà un'ottima cpu da prendere in considerazione :D :D :D rido per non piangere e mi auguro solo che qualche "pollo" leggendoti non ti dia retta.
Ah, leggi questa fresca fresca: a settembre potrebbe esserci il lancio di Alder Lake https://www.hwupgrade.it/news/cpu/cpu-intel-core-di-12esima-generazione-perche-potrebbero-arrivare-proprio-a-settembre-2021_95001.html
Evidentemente anche per intel stessa rocket lake è così buona che la rimpiazzeranno 5 mesi dopo :D :D :D :D :D :D :D
Ripeto... fai ridere per non piangere :D :D :D :D :D :D :D

In ultimo sulle latenze delle ddr5: a parità di clock di 3200 mhz nell'articolo che ti ho riportato le ddr5 hanno il 36% di banda in più rispetto alle DDR4 mentre nell'articolo che riporti tu ddr4 e ddr5 a 3200mhz hanno le STESSE, leggasi le STESSE IDENTICHE LATENZE, è quindi evidente che, a parità di clock è possibile ottenere maggiori prestazioni con le DDR5 DA SUBITO perchè se esistono DDR5 CHE A PARITA' DI CLOCK MIGLIORANO LA BANDA DEL 36% (vedere il link che ti ho riportato) PUO' SOLO VOLER DIRE CHE HANNO LATENZE PIU' BASSE altrimenti avrebbero la STESSA BANDA come nell'articolo che hai riportato tu in cui hanno le STESSE LATENZE E LO STESSO CLOCK DI 3200MHZ!!!!!!!!!!! Se poi le DDR5 6000 mi danno il miglior compromesso tra LATENZA (praticamente uguale alle migliori DDR4) e banda passante asfaltando qualsiasi altra ddr4 mi spieghi chi se ne frega delle dd5 6400 al momento del lancio delle stesse ddr5? Risposta: solo tu perchè hai torto ma cerchi di aver ragione ribaltando le cose. E adesso prova ad arrampicarti ancora sugli specchi.....

mmorselli
25-01-2021, 11:36
Ti ho ampiamente motivato il fatto che rocket lake nasce morto e sepolto avendo pochi core, tdp da centrale nucleare, buone performance in st al pari o un 3/4% in più della concorrenza AMD ma pietose in mt

Però se si propone come CPU da gaming... Per qualcuno il PC da gaming è lo stesso con cui "lavorano", ma altri, come me, li separano, il PC da gioco sta nella sua stanzetta insieme ad altri ammennicoli da gaming, per cui cose come TPD o performance MT sono irrilevanti, l'unica cosa che potrebbe interessarmi è quel 3/4% in ST

Poi magari io sono un caso atipico e quindi ne venderanno pochi, non ne ho idea, ma non significherebbe essere nato morto, ma rivolgersi ad una categoria verticale.

maxsin72
25-01-2021, 13:57
Però se si propone come CPU da gaming... Per qualcuno il PC da gaming è lo stesso con cui "lavorano", ma altri, come me, li separano, il PC da gioco sta nella sua stanzetta insieme ad altri ammennicoli da gaming, per cui cose come TPD o performance MT sono irrilevanti, l'unica cosa che potrebbe interessarmi è quel 3/4% in ST

Poi magari io sono un caso atipico e quindi ne venderanno pochi, non ne ho idea, ma non significherebbe essere nato morto, ma rivolgersi ad una categoria verticale.

Nasce morto perchè 5 mesi dopo esce alder lake che avrà un 25% in più in ST, tdp dimezzato, il doppio dei core e più del doppio di performance in mt e ddr5. Così dovrebbe essere più chiaro, poi se preferisci prendere subito rocket lake ad aprile e non ti interessa alder lake rispetto il tuo parere ma per me è uno spreco bello e buono per un processo produttivo e una piattaforma vecchia.

maxsin72
26-01-2021, 01:05
Addirittura a questo link https://tekdeeps.com/will-intel-alder-lake-bring-a-50-increase-in-ipc/ si parla di un possibile aumento di ipc da rocket lake ad alder lake di oltre il 50%.... e si rocket lake sembra proprio un affare... destinato a scomparire in 5 mesi...

cdimauro
26-01-2021, 07:15
Cesare, hai mai pensato di darti alla politica? :D
Già fatto attivamente per una decina d'anni, ma anche lì alla gente non interessano i fatti...
Riesci a stravolgere la realtà in modo tale che anche un bambino di 2 anni se ne accorgerebbe.
Almeno lui se ne accorgerebbe...
Ti ho ampiamente motivato il fatto che rocket lake nasce morto e sepolto avendo pochi core, tdp da centrale nucleare, buone performance in st al pari o un 3/4% in più della concorrenza AMD ma pietose in mt (andrà meno della metà della concorrenza)
Immagino che tu abbia prenotato direttamente gli Epic da 64 core e 128 thread hardware a questo punto: "più core per tutti!" (cit).

Anzi, circolano notizie che AMD abbia spostato tutta la produzione sui suddetti Epic proprio per questo motivo, tagliando tutto il resto. D'ora in poi forniranno esclusivamente processori con il massimo numero di core possibili, perché "è la gente che lo vuole!" (cit.)
ma quando uscirà mancherà poco alle piattaforme con DDR5 che andranno DA SUBITO (E TI HO POSTATO TUTTI I DATI MA FAI FINTA DI NON CAPIRE) meglio delle ddr4. Ma per te sarà un'ottima cpu da prendere in considerazione :D :D :D rido per non piangere e mi auguro solo che qualche "pollo" leggendoti non ti dia retta.
Ah, leggi questa fresca fresca: a settembre potrebbe esserci il lancio di Alder Lake https://www.hwupgrade.it/news/cpu/cpu-intel-core-di-12esima-generazione-perche-potrebbero-arrivare-proprio-a-settembre-2021_95001.html
Evidentemente anche per intel stessa rocket lake è così buona che la rimpiazzeranno 5 mesi dopo :D :D :D :D
Ripeto... fai ridere per non piangere :D :D :D :D
Vediamo un po'. Se le suddette voci (perché al momento quelle sono) fossero confermate il mercato dovrebbe completamente fermarsi fino a Settembre per valutare questi nuovi processori.

Quindi da questo momento in poi non si venderanno più computer: lo dice il neo-Valentine (cit.), che sa cos'è meglio di tutti cos'è meglio per tutti, a prescindere dalle proprie esigenze. "S'ha da soffrì" (cit.) altri OTTO mesi (almeno) fino a Settembre.

Ma sappiamo pure che a fine anno o inizio dell'anno nuovo arriverà pure Zen4? E che fa, non gliela diamo una sbirciatina pure a questo per vedere cosa offrirà? Quindi estendiamo l'attesa anche a più di UN ANNO, ma chi se ne frega: è per una buona causa. Poi lo dice il neo-Valentine, e quindi dobbiamo credergli sulla parola. E non si venderanno più computer per un anno...

Poi arriva la mia sfera di cristallo, che mi fa vedere qualcosina, un po' sfuocata, ma riesco a capire che... meraviglia delle meraviglie... alla fine del prossimo anno potrebbero arrivare altri processori Intel. E allora non è meglio aspettare anche quelli per vedere come vanno e fare una scelta più ponderata? La logica del neo-Valentine non può sbagliare, no?

Poi subentra anche la logica del buon vecchio BASIC, che sintetizza il tutto in un paio di righe:
10 PRINT "ASPETTA, CHE STANNO ARRIVANDO NUOVI PROCESSORI"
20 GOTO 10
In ultimo sulle latenze delle ddr5: a parità di clock di 3200 mhz nell'articolo che ti ho riportato le ddr5 hanno il 36% di banda in più rispetto alle DDR4 mentre nell'articolo che riporti tu ddr4 e ddr5 a 3200mhz hanno le STESSE, leggasi le STESSE IDENTICHE LATENZE, è quindi evidente che, a parità di clock è possibile ottenere maggiori prestazioni con le DDR5 DA SUBITO perchè se esistono DDR5 CHE A PARITA' DI CLOCK MIGLIORANO LA BANDA DEL 36% (vedere il link che ti ho riportato) PUO' SOLO VOLER DIRE CHE HANNO LATENZE PIU' BASSE altrimenti avrebbero la STESSA BANDA come nell'articolo che hai riportato tu in cui hanno le STESSE LATENZE E LO STESSO CLOCK DI 3200MHZ!!!!!!!!!!!
LOL, ma qui ormai siamo arrivati a livelli che nemmeno le Zichicche... :rotfl:

Ricapitolando:
1) l'articolo dice che a 3200Mhz DDR4 e DDR5 hanno "le stesse identiche latenze" (cit.);
2) però le seconde hanno "maggiori prestazioni" (cit.);
3) allora la conclusione è che le seconde "hanno latenze più basse" (cit.).

MERAVIGLIOSO! Un cortocircuito logico come questo, in cui hai fatto tutto da solo, e per giunta buttando maiuscole a destra e a manca per rimarcarlo prepotentemente è a dir poco impagabile.

Ho visto cose che voi umani... :asd: :asd: :asd:

Per il resto vista l'arroganza che ti caratterizza non perderò nemmeno del tempo per sbatterti in faccia il contenuto del tuo stesso link per dimostrare quanto grande sia la ignoranza in materia.
Se poi le DDR5 6000 mi danno il miglior compromesso tra LATENZA (praticamente uguale alle migliori DDR4) e banda passante asfaltando qualsiasi altra ddr4 mi spieghi chi se ne frega delle dd5 6400 al momento del lancio delle stesse ddr5? Risposta: solo tu perchè hai torto ma cerchi di aver ragione ribaltando le cose. E adesso prova ad arrampicarti ancora sugli specchi.....
E niente, ormai le spari a ruota libera, e se non continui a renderti ridicolo non ti senti a posto col tuo ego.

Il motivo per cui ho scritto di andare a vedere le 6400 è insito in quello che avevo già scritto un bel po' di commenti fa, e di cui evidentemente o non hai capito nulla o non vuoi capirlo. Ma quale che sia la situazione a me non frega assolutamente: rimangono sempre problemi tuoi, mio caro genio mancato dell'informatica...
Però se si propone come CPU da gaming... Per qualcuno il PC da gaming è lo stesso con cui "lavorano", ma altri, come me, li separano, il PC da gioco sta nella sua stanzetta insieme ad altri ammennicoli da gaming, per cui cose come TPD o performance MT sono irrilevanti, l'unica cosa che potrebbe interessarmi è quel 3/4% in ST

Poi magari io sono un caso atipico e quindi ne venderanno pochi, non ne ho idea, ma non significherebbe essere nato morto, ma rivolgersi ad una categoria verticale.
Esattamente. Intel presenterà dei prodotti Rocket Lake fino a 8 core, che copriranno un po' di fasce di mercato.

Se a qualcuno servirà un PC potrà scegliergli, visto che a livello di caratteristiche saranno la piattaforma più completa, considerato le prestazioni mediamente più elevate e le AVX-512.
Addirittura a questo link https://tekdeeps.com/will-intel-alder-lake-bring-a-50-increase-in-ipc/ si parla di un possibile aumento di ipc da rocket lake ad alder lake di oltre il 50%.... e si rocket lake sembra proprio un affare... destinato a scomparire in 5 mesi...
Posto che sono sempre delle voci, ma anche se fosse non cambierebbe di una virgola quanto detto sopra.

A chi servirà comprare un PC nei prossimi mesi, lo farà, a prescindere che arrivi il superfico AlderLake, Zen4, o qualsiasi altro prodotto, soltanto perché lo dici che è meglio aspettare.

Se uno non può aspettare compra quello che si trova. Punto.

Jeck.bleck
26-01-2021, 07:35
Vale sempre il concetto del rapporto qualità prezzo, se è troppo sproporzionato ha poco senso che sia poco più potente

maxsin72
26-01-2021, 09:55
Già fatto attivamente per una decina d'anni, ma anche lì alla gente non interessano i fatti...

Almeno lui se ne accorgerebbe...

Immagino che tu abbia prenotato direttamente gli Epic da 64 core e 128 thread hardware a questo punto: "più core per tutti!" (cit).

Anzi, circolano notizie che AMD abbia spostato tutta la produzione sui suddetti Epic proprio per questo motivo, tagliando tutto il resto. D'ora in poi forniranno esclusivamente processori con il massimo numero di core possibili, perché "è la gente che lo vuole!" (cit.)

Vediamo un po'. Se le suddette voci (perché al momento quelle sono) fossero confermate il mercato dovrebbe completamente fermarsi fino a Settembre per valutare questi nuovi processori.

Quindi da questo momento in poi non si venderanno più computer: lo dice il neo-Valentine (cit.), che sa cos'è meglio di tutti cos'è meglio per tutti, a prescindere dalle proprie esigenze. "S'ha da soffrì" (cit.) altri OTTO mesi (almeno) fino a Settembre.

Ma sappiamo pure che a fine anno o inizio dell'anno nuovo arriverà pure Zen4? E che fa, non gliela diamo una sbirciatina pure a questo per vedere cosa offrirà? Quindi estendiamo l'attesa anche a più di UN ANNO, ma chi se ne frega: è per una buona causa. Poi lo dice il neo-Valentine, e quindi dobbiamo credergli sulla parola. E non si venderanno più computer per un anno...


Poi arriva la mia sfera di cristallo, che mi fa vedere qualcosina, un po' sfuocata, ma riesco a capire che... meraviglia delle meraviglie... alla fine del prossimo anno potrebbero arrivare altri processori Intel. E allora non è meglio aspettare anche quelli per vedere come vanno e fare una scelta più ponderata? La logica del neo-Valentine non può sbagliare, no?

Poi subentra anche la logica del buon vecchio BASIC, che sintetizza il tutto in un paio di righe:
10 PRINT "ASPETTA, CHE STANNO ARRIVANDO NUOVI PROCESSORI"
20 GOTO 10



E niente come politico tutto parole e niente fatti non ti batte nessuno e, ovviamente, come tutti i politici, spari caratteri a raffica sulla tastierà ma produci solo spostamenti d'aria... la bellezza di 311 parole per non dire NIENTE:sofico:
Ma gran genio dell'informatica che non sei altro :D ma è ovvio che se mi si fulmina il PC non posso aspettare ne alder lake ne zen4 ma a quanta gente pensi che si fulmini il pc? E in ogni casoZen 3 la vedo al 95% come alternativa migliore a rocket lake. Ma se uno ha una qualunque piattaforma funzionante e non ha esigenze "improvvise" conviene tutta la vita aspettare 5 mesi, caro il mio genio.:D


LOL, ma qui ormai siamo arrivati a livelli che nemmeno le Zichicche... :rotfl:

Ricapitolando:
1) l'articolo dice che a 3200Mhz DDR4 e DDR5 hanno "le stesse identiche latenze" (cit.);
2) però le seconde hanno "maggiori prestazioni" (cit.);
3) allora la conclusione è che le seconde "hanno latenze più basse" (cit.).

MERAVIGLIOSO! Un cortocircuito logico come questo, in cui hai fatto tutto da solo, e per giunta buttando maiuscole a destra e a manca per rimarcarlo prepotentemente è a dir poco impagabile.

Ho visto cose che voi umani... :asd: :asd: :asd:

Per il resto vista l'arroganza che ti caratterizza non perderò nemmeno del tempo per sbatterti in faccia il contenuto del tuo stesso link per dimostrare quanto grande sia la ignoranza in materia.

E niente, ormai le spari a ruota libera, e se non continui a renderti ridicolo non ti senti a posto col tuo ego.

Il motivo per cui ho scritto di andare a vedere le 6400 è insito in quello che avevo già scritto un bel po' di commenti fa, e di cui evidentemente o non hai capito nulla o non vuoi capirlo. Ma quale che sia la situazione a me non frega assolutamente: rimangono sempre problemi tuoi, mio caro genio mancato dell'informatica...

Esattamente. Intel presenterà dei prodotti Rocket Lake fino a 8 core, che copriranno un po' di fasce di mercato.

Se a qualcuno servirà un PC potrà scegliergli, visto che a livello di caratteristiche saranno la piattaforma più completa, considerato le prestazioni mediamente più elevate e le AVX-512.

Posto che sono sempre delle voci, ma anche se fosse non cambierebbe di una virgola quanto detto sopra.

A chi servirà comprare un PC nei prossimi mesi, lo farà, a prescindere che arrivi il superfico AlderLake, Zen4, o qualsiasi altro prodotto, soltanto perché lo dici che è meglio aspettare.

Se uno non può aspettare compra quello che si trova. Punto.


Altro sproloquio di oltre 300 parole in cui dimostri grante ignoranza perchè i dati che si desumono dai link sono i seguenti:

1. da tuo link DDR4 E DDR5 con stesso clock a 3200mhz e stesse latenze hanno stessa banda passante
2. da mio link viene riportato che nel confronto tra DDR4 E DDR5 con stesso clock a 3200mhz le DDR5 hanno il 36% in più di banda passante, vorresti forse sostenere che in questo caso la ragione della maggior banda passante è dovuta (ti ricordo allo stesso clock di 3200mhz) a maggiori latenze delle DDR5? Dai su , rispondi geniaccio che qui casca l'asino arrogante che sei :ciapet: Lo sa anche un bambino di 2 anni che, a parità di clock, se una ram ha più banda passante è perchè beneficia di minori latenze :ciapet:

cdimauro
27-01-2021, 06:56
Vale sempre il concetto del rapporto qualità prezzo, se è troppo sproporzionato ha poco senso che sia poco più potente
Certamente. Ma nell'ultimo periodo AMD ha alzato i prezzi coi suoi Ryzen 5000, mentre Intel li ha abbassati un po' con alcune soluzioni più mainstream. Mi aspetto che la situazione si mantenga, e che quindi ci sia un maggior ventaglio di possibilità per chi debba comprare un nuovo PC o rinnovarlo.
E niente come politico tutto parole e niente fatti non ti batte nessuno e, ovviamente, come tutti i politici, spari caratteri a raffica sulla tastierà ma produci solo spostamenti d'aria... la bellezza di 311 parole per non dire NIENTE:sofico:
Ma gran genio dell'informatica che non sei altro :D ma è ovvio che se mi si fulmina il PC non posso aspettare ne alder lake ne zen4 ma a quanta gente pensi che si fulmini il pc?
Quella era soltanto un'iperbole. Mica ti si deve fulminare il PC per comprarne uno nuovo o aggiornalo.
E in ogni casoZen 3 la vedo al 95% come alternativa migliore a rocket lake.
LOL Adesso arrivano pure le percentuali sparate ad muzzum :asd:, ma nemmeno ti chiedo come ci sia arrivato a quel numeretto.
Ma se uno ha una qualunque piattaforma funzionante e non ha esigenze "improvvise" conviene tutta la vita aspettare 5 mesi, caro il mio genio.:D
E questo chi l'avrebbe negato, novello Gödel?
Altro sproloquio di oltre 300 parole in cui dimostri grante ignoranza perchè i dati che si desumono dai link sono i seguenti:

1. da tuo link DDR4 E DDR5 con stesso clock a 3200mhz e stesse latenze hanno stessa banda passante
2. da mio link viene riportato che nel confronto tra DDR4 E DDR5 con stesso clock a 3200mhz le DDR5 hanno il 36% in più di banda passante, vorresti forse sostenere che in questo caso la ragione della maggior banda passante è dovuta (ti ricordo allo stesso clock di 3200mhz) a maggiori latenze delle DDR5? Dai su , rispondi geniaccio che qui casca l'asino arrogante che sei :ciapet:
Ecco la mia risposta: quando mai avrei anche lontanamente lasciato pensare una cosa del genere?

Io mi limito e mi attengo esclusivamente a quanto affermato da JEDEC: DDR4 e DDD5 hanno la STESSA latenza a 3200Mhz. Punto.

Non serve essere genii: è sufficiente affidarsi all'ente che standardizza le memorie, che dovrebbe sapere meglio di chiunque altro come stiano le cose. :read:
Lo sa anche un bambino di 2 anni che, a parità di clock, se una ram ha più banda passante è perchè beneficia di minori latenze :ciapet:
Ma LOL :D Ancora con questa colossale sciocchezza! Ma sei proprio di coccio. E sì che l'hai appena appena riportato tu stesso qui sopra, al tuo punto 1, che quelle memorie hanno la STESSA latenza. :rotfl:

Fai una cosa allora: vaglielo a spiegare al JEDEC che si stanno sbagliando e riportando informazioni sbagliate. Perché no, quelle memorie non possono avere la stessa latenza, eh! Lo dice l'anonimo genio incompreso di un forum: saprà meglio lui come funzionino le memorie e quali siano i loro parametri di targa, anziché l'ente che le ha ratificate. :asd: :asd: :asd:

Poi fammi sapere cosa ti rispondono, che intanto preparo i popcorn. :ciapet:

maxsin72
27-01-2021, 08:54
Certamente. Ma nell'ultimo periodo AMD ha alzato i prezzi coi suoi Ryzen 5000, mentre Intel li ha abbassati un po' con alcune soluzioni più mainstream. Mi aspetto che la situazione si mantenga, e che quindi ci sia un maggior ventaglio di possibilità per chi debba comprare un nuovo PC o rinnovarlo.

Quella era soltanto un'iperbole. Mica ti si deve fulminare il PC per comprarne uno nuovo o aggiornalo.

LOL Adesso arrivano pure le percentuali sparate ad muzzum :asd:, ma nemmeno ti chiedo come ci sia arrivato a quel numeretto.

E questo chi l'avrebbe negato, novello Gödel?

Ecco la mia risposta: quando mai avrei anche lontanamente lasciato pensare una cosa del genere?

Io mi limito e mi attengo esclusivamente a quanto affermato da JEDEC: DDR4 e DDD5 hanno la STESSA latenza a 3200Mhz. Punto.

Non serve essere genii: è sufficiente affidarsi all'ente che standardizza le memorie, che dovrebbe sapere meglio di chiunque altro come stiano le cose. :read:

Ma LOL :D Ancora con questa colossale sciocchezza! Ma sei proprio di coccio. E sì che l'hai appena appena riportato tu stesso qui sopra, al tuo punto 1, che quelle memorie hanno la STESSA latenza. :rotfl:

Fai una cosa allora: vaglielo a spiegare al JEDEC che si stanno sbagliando e riportando informazioni sbagliate. Perché no, quelle memorie non possono avere la stessa latenza, eh! Lo dice l'anonimo genio incompreso di un forum: saprà meglio lui come funzionino le memorie e quali siano i loro parametri di targa, anziché l'ente che le ha ratificate. :asd: :asd: :asd:

Poi fammi sapere cosa ti rispondono, che intanto preparo i popcorn. :ciapet:

... e niente non ce la possiamo fare o fai finta di non capire o proprio non ci riesci.
Adesso te la metto giù semplice semplice: lascia perdere il tuo link e guarda questo https://youtu.be/j3m2cfZigY4?t=113 https://i.postimg.cc/QC9yFMyy/Screen-Hunter-889-Jan-27-08-41.jpg
Ora spiegami com'è possibile che Micron affermi che le sue DDR5 3200 abbiano, il 36% in più di banda passante rispetto alle DDR4 3200. A parità di clock, l'unica spegazione per una banda così ampia a favore delle DDR5 sono le migliori latenze complessive. Ma un genio della politica e dell'informatica come te avrà sicuramente la spiegazione illuminante, dai su facci sognare Rambo:D :sofico:
In ultimo, cosa non da poco, a beneficiare della banda in più data dalle DDR5 saranno anche le cpu a 16 core, o forse anche meno, che grazie ad AMD sono arrivate alla portata di molte più persone, non servono quindi quelle a 64 core, come si è già visto dal fatto che il threadripper 16 core beneficia molto del passaggio tra dual e quad channel.

cdimauro
28-01-2021, 06:26
... e niente non ce la possiamo fare o fai finta di non capire o proprio non ci riesci.
LOL Come ribaltare completamente la realtà. Per la serie: non ho la minima idea di come funzioni le memorie, sparo colossali sciocchezze da diversi post, e pretendo pure di dare lezioni... :rotfl:
Adesso te la metto giù semplice semplice: lascia perdere il tuo link e guarda questo https://youtu.be/j3m2cfZigY4?t=113 https://i.postimg.cc/QC9yFMyy/Screen-Hunter-889-Jan-27-08-41.jpg
Ora spiegami com'è possibile che Micron affermi che le sue DDR5 3200 abbiano, il 36% in più di banda passante rispetto alle DDR4 3200.
Hai sbagliato grafico (tanto per cambiare :asd:).

Poi perché dovrei spiegarlo a un arrogante che non ha nemmeno l'umiltà di chiedere qualcosa per colmare la sua evidente ignoranza.
A parità di clock, l'unica spegazione per una banda così ampia a favore delle DDR5 sono le migliori latenze complessive.
E' l'unica soltanto spiegazione per chi ha evidenti limiti sia di conoscenza sia di logica. :asd:
Ma un genio della politica e dell'informatica come te avrà sicuramente la spiegazione illuminante, dai su facci sognare Rambo:D :sofico:
Ti svelo un segreto: non serve essere dei genii per capire quanto richiesto. Basterebbe semplicemente aprire e leggere i link che, peraltro, hai tu stesso postato. :read:

Per la serie: vado a caccia di link per sostenere le mie tesi, ma non ho nemmeno idea del loro contenuto. :asd:

E non ho intenzione di dirti come stiano le cose, visto il tuo atteggiamento arrogante: preferisco continuare a farti sguazzare nella tua immensa ignoranza.
In ultimo, cosa non da poco, a beneficiare della banda in più data dalle DDR5 saranno anche le cpu a 16 core, o forse anche meno, che grazie ad AMD sono arrivate alla portata di molte più persone, non servono quindi quelle a 64 core, come si è già visto dal fatto che il threadripper 16 core beneficia molto del passaggio tra dual e quad channel.
E chi se ne frega, visto che si parlava d'altro qui.

maxsin72
28-01-2021, 08:52
LOL Come ribaltare completamente la realtà. Per la serie: non ho la minima idea di come funzioni le memorie, sparo colossali sciocchezze da diversi post, e pretendo pure di dare lezioni... :rotfl:

Hai sbagliato grafico (tanto per cambiare :asd:).

Poi perché dovrei spiegarlo a un arrogante che non ha nemmeno l'umiltà di chiedere qualcosa per colmare la sua evidente ignoranza.

E' l'unica soltanto spiegazione per chi ha evidenti limiti sia di conoscenza sia di logica. :asd:

Ti svelo un segreto: non serve essere dei genii per capire quanto richiesto. Basterebbe semplicemente aprire e leggere i link che, peraltro, hai tu stesso postato. :read:

Per la serie: vado a caccia di link per sostenere le mie tesi, ma non ho nemmeno idea del loro contenuto. :asd:

E non ho intenzione di dirti come stiano le cose, visto il tuo atteggiamento arrogante: preferisco continuare a farti sguazzare nella tua immensa ignoranza.

E chi se ne frega, visto che si parlava d'altro qui.

Ed ecco che l'asino arrogante quale sei non sa come rispondere e la butta in caciara.
Rispondendo a me risponderesti anche a tutte quelle persone che leggono per informarsi. Il problema è che sai anche tu di aver toppato e stai facendo come in una regione italiana dove hanno sbagliato a trasmetttere dei dati ma quando gli chiedono di entrare nel merito dicono che è colpa degli altri :sofico:

Giusto per essere più chiari e smontarti ulteriormente, le specifiche jedec lasciano il tempo che trovano perchè il mercato è pieno di moduli RAM che hanno latenze e/o bande migliori.
Nel caso specifico di Micron, loro affermano che le loro DDR5, a parità di clock di 3200mhz, hanno il 36% in più di banda rispetto alle DDR4. E' quindi straevidente che le DDR5 3200 di micron abbiano delle latenze complessive migliori delle corrispondenti DDR4 3200 perchè altrimenti non si spiegherebbe diversamente tutta quella banda passante in più.
Dai Rambo, illuminaci con la tua scienza adesso:sofico:

cdimauro
29-01-2021, 07:31
Ed ecco che l'asino arrogante quale sei non sa come rispondere e la butta in caciara.
Rispondendo a me risponderesti anche a tutte quelle persone che leggono per informarsi. Il problema è che sai anche tu di aver toppato e stai facendo come in una regione italiana dove hanno sbagliato a trasmetttere dei dati ma quando gli chiedono di entrare nel merito dicono che è colpa degli altri :sofico:
E perché dovrei risponderti, quando l'ha già fatto il JEDEC per me? DDR4 e DDR5 a 3200Mhz hanno la STESSA latenza. Punto. :read:

Tanto basta per farti fare la figura dell'ignorante, e non ho alcun interesse a mostrarti dove sbagli, visto come ti sei comportato e come continui a fare: continua pure a sguazzare nella melma in cui ti sei infilato da solo. :asd:
Giusto per essere più chiari e smontarti ulteriormente, le specifiche jedec lasciano il tempo che trovano perchè il mercato è pieno di moduli RAM che hanno latenze e/o bande migliori.
Questo è un ALTRO discorso. Non sai più a cos'altro aggrapparti ormai... :rolleyes:
Nel caso specifico di Micron, loro affermano che le loro DDR5, a parità di clock di 3200mhz, hanno il 36% in più di banda rispetto alle DDR4.
Corretto. E chi l'avrebbe negato questo?
E' quindi straevidente che le DDR5 3200 di micron abbiano delle latenze complessive migliori delle corrispondenti DDR4 3200 perchè altrimenti non si spiegherebbe diversamente tutta quella banda passante in più.
Dai Rambo, illuminaci con la tua scienza adesso:sofico:
LOL :rotfl: Ancora questa stupidaggine: siccome non sai pensare ad altre possibilità (per evidenti limiti, a questo punto) dev'essere per forza la latenza inferiore, andando contro le dichiarazioni dello stesso JEDEC (ma tu nei sai sicuramente di più di loro :asd:), e non essendo nemmeno in grado di leggere il link che tu stesso hai portato.

Continua pure a mangiarti la coda, genio della logica. :asd: :asd: :asd:

maxsin72
29-01-2021, 08:57
E perché dovrei risponderti, quando l'ha già fatto il JEDEC per me? DDR4 e DDR5 a 3200Mhz hanno la STESSA latenza. Punto. :read:

Tanto basta per farti fare la figura dell'ignorante, e non ho alcun interesse a mostrarti dove sbagli, visto come ti sei comportato e come continui a fare: continua pure a sguazzare nella melma in cui ti sei infilato da solo. :asd:

Questo è un ALTRO discorso. Non sai più a cos'altro aggrapparti ormai... :rolleyes:

Corretto. E chi l'avrebbe negato questo?

LOL :rotfl: Ancora questa stupidaggine: siccome non sai pensare ad altre possibilità (per evidenti limiti, a questo punto) dev'essere per forza la latenza inferiore, andando contro le dichiarazioni dello stesso JEDEC (ma tu nei sai sicuramente di più di loro :asd:), e non essendo nemmeno in grado di leggere il link che tu stesso hai portato.

Continua pure a mangiarti la coda, genio della logica. :asd: :asd: :asd:

:asd: ma sei ridicolo:D
Continui a fare il gradasso ma non rispondi perchè sai che hai torto:D :D :D

Eppure la domanda, per un Rambo delle scienze informatiche e delle ingegnierie elettroniche come te, dovrebbe essere molto semplice:

cosa rende possibile il 36% di banda passante in più nelle DDR5 micron rispetto alle DDR4, a parità di clock di 3200mhz?

Dai su rispondi Rambo, altrimenti tutto lo sproloquio che hai prodotto fino ad adesso poteva essere utilizzato per ridurre le emissioni di anidride carbonica in atmosfera :sofico: :D :D :D Ma quando eri in politica eri nel partito di meno tasse per tutti e più ammore :D :D :D?

cdimauro
30-01-2021, 07:24
:asd: ma sei ridicolo:D
Questo lascialo giudicare a chi legge. :O :cool:
Continui a fare il gradasso ma non rispondi perchè sai che hai torto:D :D
Ma io ho già risposto: mi attengo esattamente a quanto riportato dal JEDEC. E quindi le latenze di DDR4 e DDR5 a 3200Mhz sono IDENTICHE.

Sei tu che hai sparato la colossale minchiata che le seconde avrebbero latenze minori, e quindi l'onere della prova sta a te e non a me, come scienza e coscienza comandano. :read:

A me rimane soltanto l'arduo compito di vagliare le sciocchezze che continui a riportare in merito. :D
Eppure la domanda, per un Rambo delle scienze informatiche e delle ingegnierie elettroniche come te
ingegnIerie elettroniche: anche questo fa parte del tuo bagaglio "culturale", immagino. :asd:
, dovrebbe essere molto semplice:

cosa rende possibile il 36% di banda passante in più nelle DDR5 micron rispetto alle DDR4, a parità di clock di 3200mhz?
E io t'ho già risposto: NON le latenze inferiori, visto che secondo il JEDEC sono ESATTAMENTE LE STESSE. E se sono le stesse... rullo di tamburi... NON possono essere inferiori, logica elementarissima alla mano. :read:

Quindi qui la questione è molto semplice: o ha ragione il JEDEC o hai ragione tu. Io ovviamente sono allineato al primo. E siccome dubito fortemente che il JEDEC abbia torto, non rimane che la conclusione più logica e sensata: hai torto tu.
Dai su rispondi Rambo, altrimenti tutto lo sproloquio che hai prodotto fino ad adesso poteva essere utilizzato per ridurre le emissioni di anidride carbonica in atmosfera :sofico: :D :D
Come già detto, t'ho risposto. Sei tu che continui a riportare stupidaggini senza dimostrarle. :mc:
Ma quando eri in politica eri nel partito di meno tasse per tutti e più ammore :D :D?
Ero in quello che leggeva, capiva, e sputtanava le magagne degli altri politici. Quindi, come vedi, la situazione non è molto cambiata. :asd:

Tu, invece, continui a militare nel movimento degli ignoranti che non sanno leggere nemmeno degli articoli tecnici scritti a scopo di mera divulgazione (quindi generalmente potabili a chi bazzica in siti come questo), e che non capiscono delle cose semplici anche se le hanno proprio davanti al naso.

Ed è proprio questo il punto: la soluzione al tuo dilemma ce l'hai proprio davanti al naso, ma sei completamente incapace di vederla. Il bello è che il link l'hai riportato proprio tu. :rotfl:

A questo punto il mio suggerimento è di chiedere a qualche altro utente del forum, che magari mosso a compassione ti farà vedere dov'è che sbagli, perché altrimenti non ne esci più dal tunnel del divertimento (altrui :asd:).

megamitch
30-01-2021, 09:17
Perché on vi insultate in privato invece che sul thread ? Vi serve un pubblico?

Fantapollo
30-01-2021, 10:09
C'è una data d'uscita per questi 11900K?

Per il mio prossimo PC mi sembrano la scelta migliore :D

maxsin72
30-01-2021, 11:07
Questo lascialo giudicare a chi legge. :O :cool:

Ma io ho già risposto: mi attengo esattamente a quanto riportato dal JEDEC. E quindi le latenze di DDR4 e DDR5 a 3200Mhz sono IDENTICHE.

Sei tu che hai sparato la colossale minchiata che le seconde avrebbero latenze minori, e quindi l'onere della prova sta a te e non a me, come scienza e coscienza comandano. :read:

A me rimane soltanto l'arduo compito di vagliare le sciocchezze che continui a riportare in merito. :D

ingegnIerie elettroniche: anche questo fa parte del tuo bagaglio "culturale", immagino. :asd:

E io t'ho già risposto: NON le latenze inferiori, visto che secondo il JEDEC sono ESATTAMENTE LE STESSE. E se sono le stesse... rullo di tamburi... NON possono essere inferiori, logica elementarissima alla mano. :read:

Quindi qui la questione è molto semplice: o ha ragione il JEDEC o hai ragione tu. Io ovviamente sono allineato al primo. E siccome dubito fortemente che il JEDEC abbia torto, non rimane che la conclusione più logica e sensata: hai torto tu.

Come già detto, t'ho risposto. Sei tu che continui a riportare stupidaggini senza dimostrarle. :mc:

Ero in quello che leggeva, capiva, e sputtanava le magagne degli altri politici. Quindi, come vedi, la situazione non è molto cambiata. :asd:

Tu, invece, continui a militare nel movimento degli ignoranti che non sanno leggere nemmeno degli articoli tecnici scritti a scopo di mera divulgazione (quindi generalmente potabili a chi bazzica in siti come questo), e che non capiscono delle cose semplici anche se le hanno proprio davanti al naso.

Ed è proprio questo il punto: la soluzione al tuo dilemma ce l'hai proprio davanti al naso, ma sei completamente incapace di vederla. Il bello è che il link l'hai riportato proprio tu. :rotfl:

A questo punto il mio suggerimento è di chiedere a qualche altro utente del forum, che magari mosso a compassione ti farà vedere dov'è che sbagli, perché altrimenti non ne esci più dal tunnel del divertimento (altrui :asd:).

Tante parole per non rispondere sono l'ammissione del fatto che hai torto.
Jedec fissa parametri standard, poi i prodotti immessi sul mercato e accessibili a tutti potranno avere caratteristiche migliori e nettamente superiori alle generazioni precedenti, punto. È questo quello che interessa, caro il mio politico da strapazzo, il balzo reale delle prestazioni e non quello che c'è scritto su carta.
Micron afferma che le sue ddr5 a 3200mhz avranno il 36% di banda passante in più rispetto alle ddr4 3200, è evidente, al di la di quelli che sono i parametri standard di Jedec su carta, che le ddr5 avranno già da subito margini di miglioramento notevoli. Chi sei tu per affermare il contrario di quello che dice micron? Sei solo un pulcinella triste e arrogante che spara bufale come quella che haswell ha un IPC maggiore di zen2... :asd:

StylezZz`
30-01-2021, 11:18
Qua continuate a parlare di DDR5, PCI 5, Nanometri...ma la gente se ne frega e guarda principalmente questi -----> $$$

Per come la vedo io, le DDR5 saranno un altra bella scusa per alzare i prezzi dei componenti (spero di sbagliarmi), e chi ha aspettato se la prenderà in quel posto...la situazione con il covid durerà ancora per chissà quanto, e ci vorrà molto tempo per recuperare.

Le DDR4 continueranno a essere valide per anni (come lo sono state le DDR3), soprattutto i banchi ad alta frequenza (3600 e superiori), e il PCI 4 farà la stessa fine del PCI 3.

biometallo
30-01-2021, 11:24
C'è una data d'uscita per questi 11900K?

Per il mio prossimo PC mi sembrano la scelta migliore :D

La serie Rocket Lake dovrebbe essere ormai prossima, in giro mi pare si parli di marzo...

cdimauro
30-01-2021, 11:24
Tante parole per non rispondere sono l'ammissione del fatto che hai torto.
Ha risposto il JEDEC per me, e tanto basta. :read: :O :cool:
Jedec fissa parametri standard, poi i prodotti immessi sul mercato e accessibili a tutti potranno avere caratteristiche migliori e nettamente superiori alle generazioni precedenti, punto. È questo quello che interessa, caro il mio politico da strapazzo, il balzo reale delle prestazioni e non quello che c'è scritto su carta.
Ed ecco che cambi discorso andando a parlare d'altro: chi l'avrebbe mai detto. :D
Micron afferma che le sue ddr5 a 3200mhz avranno il 36% di banda passante in più rispetto alle ddr4 3200, è evidente, al di la di quelli che sono i parametri standard di Jedec su carta, che le ddr5 avranno già da subito margini di miglioramento notevoli. Chi sei tu per affermare il contrario di quello che dice micron?
Uno che ha letto la sua presentazione, dal TUO link, che non ha proprio nulla da dire in merito, considerato che Micron NON afferma ciò che vorresti far passare. :read:
Sei solo un pulcinella triste e arrogante che spara bufale
LOL detto da te che non sai nemmeno leggere i documenti che tu stesso hai riportato, con tanto di immaginette coi disegnini che spiegano esattamente il tuo dilemma esistenziale. :rotfl:
come quella che haswell ha un IPC maggiore di zen2... :asd:
Link alla discussione? Così ci facciamo quattro risate anche su questo. :D
La serie Rocket Lake dovrebbe essere ormai prossima, in giro mi pare si parli di marzo...
Esattamente. Siamo già nel Q1 2021.

maxsin72
30-01-2021, 22:16
Ha risposto il JEDEC per me, e tanto basta. :read: :O :cool:

Ed ecco che cambi discorso andando a parlare d'altro: chi l'avrebbe mai detto. :D

Uno che ha letto la sua presentazione, dal TUO link, che non ha proprio nulla da dire in merito, considerato che Micron NON afferma ciò che vorresti far passare. :read:

LOL detto da te che non sai nemmeno leggere i documenti che tu stesso hai riportato, con tanto di immaginette coi disegnini che spiegano esattamente il tuo dilemma esistenziale. :rotfl:


Va bene, prendo atto che hai gettato la spugna e ammetti di avere torto :asd: :asd: Del resto, ignorare da parte tua quanto affermato da micron, non può portare che a questa conclusione.



Link alla discussione? Così ci facciamo quattro risate anche su questo. :D



Con me caschi male perchè, trovare le corbellerie che hai sparato in passato, è facile e basta solo un po' di pazienza :asd:

Affermavi che haswell ha un IPC superiore del 10% a Zen1 e che addirittura Ivy bridge ha IPC superiore a Zen1, il tutto senza che si conoscessero le configurazioni di prova utilizzate da un noto sito che notoriamente è molto a favore di intel :asd:

https://www.hwupgrade.it/forum/showpost.php?p=45889682&postcount=387

https://www.hwupgrade.it/forum/showthread.php?t=2883773&page=2

Ma test fatti correttamente danno zen1 in dual channel superiore ad haswell-e in quad channel, quindi figuriamoci contro haswell normale:

https://www.hwupgrade.it/forum/showpost.php?p=46220163&postcount=38

E sei anche ulteriormente stato smontato dall'ottimo K0nt3:

https://www.hwupgrade.it/forum/showpost.php?p=46226014&postcount=66

Il tutto, per renderti ancora più ridicolo, in una discussione in cui affermavi anche che intel non aveva bisogno del genio di Keller :asd:

https://www.hwupgrade.it/forum/showpost.php?p=46211267&postcount=17

E niente, si vede che la tua missione di vita è quella di allietare il mondo facendolo ridere :asd:

cdimauro
31-01-2021, 06:59
Va bene, prendo atto che hai gettato la spugna e ammetti di avere torto :asd: :asd:
Come già detto, l'onere della prova è tuo e non mio: sei TU che hai affermato la colossale sciocchezza che le DDR5 a 3200Mhz avrebbero una latenza inferiore alle DDR4 di pari clock, quando il JEDEC riporta lo STESSO valore. Quindi sei TU che lo devi dimostrare, e non l'hai ancora fatto. :read:
Del resto, ignorare da parte tua quanto affermato da micron, non può portare che a questa conclusione.
Ah, ma io non ignoro affatto quello che hanno scritto e ho già detto che sono totalmente d'accordo con quanto Micron abbia riportato nella presentazione. E lo sono proprio perché ho letto e capito tutto quello di cui hanno parlato, mentre tu ancora non riesci nemmeno a trovare la slide di quella presentazione che fa luce sulla minchiata che hai scritto. :asd:
Con me caschi male perchè, trovare le corbellerie che hai sparato in passato, è facile e basta solo un po' di pazienza :asd:

Affermavi che haswell ha un IPC superiore del 10% a Zen1 e che addirittura Ivy bridge ha IPC superiore a Zen1, il tutto senza che si conoscessero le configurazioni di prova utilizzate
Soltanto alcune cose non erano note, come chiarito anche nella discussione, e il tizio che ha fatto le prove è il più noto overclocker nonché esperto di hardware AMD al mondo. Tanto che i parametri su come far funzionare meglio le memorie dei Ryzen li ha scoperti e forniti lui ai produttori di schede madri, e alcuni hanno pure messo dei profili nei loro BIOS col suo nome.

Quindi tutto si può dire tranne che non sapesse fare i test o che addirittura fosse pro-Intel.
da un noto sito che notoriamente è molto a favore di intel :asd:
Primo AnandTech NON è certo un sito a favore di Intel. Questa te la sei inventata di sana pianta. Forse ti sei confuso con Tom's, e visto che sei perennemente confuso la cosa non mi sorprenderebbe. :D

Secondo AnandTech è soltanto l'host del forum in cui c'è stata quella discussione. Quindi il sito, di per sé, non c'entra nulla, perché è stata una discussione fra utenti.

Di nuovo confuso e felice... :rotfl:
https://www.hwupgrade.it/forum/showpost.php?p=45889682&postcount=387
Appunto. I dati mi danno ragione. :cool:
https://www.hwupgrade.it/forum/showthread.php?t=2883773&page=2
Questo perché l'hai riportato, per far vedere ancora una volta che non capisci nulla di quello che scrivi e mistifichi a ruota libera? :asd:
Ma test fatti correttamente danno zen1 in dual channel superiore ad haswell-e in quad channel, quindi figuriamoci contro haswell normale:
https://www.hwupgrade.it/forum/showpost.php?p=46220163&postcount=38
ROTFL: ancora con questi test farlocchi? Si parlava di IPC e tu hai riportato DUE (DU-E) test (peraltro esclusivamente di rendering: complimenti per la variegata scelta :asd:) eseguiti su PIU' core. :rotfl:

Per la serie: non so nulla di quello che si sta parlando, ma mi permetto di spararle a caso lo stesso. :asd:
E sei anche ulteriormente stato smontato dall'ottimo K0nt3:

https://www.hwupgrade.it/forum/showpost.php?p=46226014&postcount=66
A cui ho risposto: https://www.hwupgrade.it/forum/showpost.php?p=46226246&postcount=68 :read: :O
Il tutto, per renderti ancora più ridicolo, in una discussione in cui affermavi anche che intel non aveva bisogno del genio di Keller :asd:

https://www.hwupgrade.it/forum/showpost.php?p=46211267&postcount=17
Esattamente, e il motivo l'avevo già scritto, ma te lo sei perso nuovamente per strada. Ecco qui: https://www.hwupgrade.it/forum/showpost.php?p=46212284&postcount=19

E dire che hai perso un sacco di tempo a cercare la discussione, ma capisco che comprendere quello era stato scritto ti richiede un colossale sforzo, anche se non porta frutti, però. :D
E niente, si vede che la tua missione di vita è quella di allietare il mondo facendolo ridere :asd:
E continui a volerti porre come giudice, non avendone la caratura.

Qui possono giudicare tutti chi sia il giullare della discussione, leggendo quello che è stato scritto. :read:

maxsin72
31-01-2021, 13:30
Come già detto, l'onere della prova è tuo e non mio: sei TU che hai affermato la colossale sciocchezza che le DDR5 a 3200Mhz avrebbero una latenza inferiore alle DDR4 di pari clock, quando il JEDEC riporta lo STESSO valore. Quindi sei TU che lo devi dimostrare, e non l'hai ancora fatto. :read:

Ah, ma io non ignoro affatto quello che hanno scritto e ho già detto che sono totalmente d'accordo con quanto Micron abbia riportato nella presentazione. E lo sono proprio perché ho letto e capito tutto quello di cui hanno parlato, mentre tu ancora non riesci nemmeno a trovare la slide di quella presentazione che fa luce sulla minchiata che hai scritto. :asd:

Soltanto alcune cose non erano note, come chiarito anche nella discussione, e il tizio che ha fatto le prove è il più noto overclocker nonché esperto di hardware AMD al mondo. Tanto che i parametri su come far funzionare meglio le memorie dei Ryzen li ha scoperti e forniti lui ai produttori di schede madri, e alcuni hanno pure messo dei profili nei loro BIOS col suo nome.

Quindi tutto si può dire tranne che non sapesse fare i test o che addirittura fosse pro-Intel.

Primo AnandTech NON è certo un sito a favore di Intel. Questa te la sei inventata di sana pianta. Forse ti sei confuso con Tom's, e visto che sei perennemente confuso la cosa non mi sorprenderebbe. :D

Secondo AnandTech è soltanto l'host del forum in cui c'è stata quella discussione. Quindi il sito, di per sé, non c'entra nulla, perché è stata una discussione fra utenti.

Di nuovo confuso e felice... :rotfl:

Appunto. I dati mi danno ragione. :cool:

Questo perché l'hai riportato, per far vedere ancora una volta che non capisci nulla di quello che scrivi e mistifichi a ruota libera? :asd:

ROTFL: ancora con questi test farlocchi? Si parlava di IPC e tu hai riportato DUE (DU-E) test (peraltro esclusivamente di rendering: complimenti per la variegata scelta :asd:) eseguiti su PIU' core. :rotfl:

Per la serie: non so nulla di quello che si sta parlando, ma mi permetto di spararle a caso lo stesso. :asd:

A cui ho risposto: https://www.hwupgrade.it/forum/showpost.php?p=46226246&postcount=68 :read: :O

Esattamente, e il motivo l'avevo già scritto, ma te lo sei perso nuovamente per strada. Ecco qui: https://www.hwupgrade.it/forum/showpost.php?p=46212284&postcount=19

E dire che hai perso un sacco di tempo a cercare la discussione, ma capisco che comprendere quello era stato scritto ti richiede un colossale sforzo, anche se non porta frutti, però. :D

E continui a volerti porre come giudice, non avendone la caratura.

Qui possono giudicare tutti chi sia il giullare della discussione, leggendo quello che è stato scritto. :read:

No caro, l'onere della prova spetta a te perchè sei tu che dici che le DDR5 non costituiranno un salto prestazionale netto rispetto alle DDR4, cosa palesemente falsa. Lasciamo poi perdere tutte le altre corbellerie che scrivi :doh: come quella che i dati riportati da te da anandtech sono seri ed affidabili: già a suo tempo ti era stato detto che, non essendoci la minima traccia delle configurazioni utilizzate soprattutto per quanto riguarda timings e frequenze delle ram, quella era spazzatura altro che test fatti seriamente :asd:
Ride ancora tutto il mondo della tua affermazione che Ivy Bridge ha un ipc superiore a Zen :D :D :D

cdimauro
31-01-2021, 14:00
No caro, l'onere della prova spetta a te perchè sei tu che dici che le DDR5 non costituiranno un salto prestazionale netto rispetto alle DDR4, cosa palesemente falsa.
E quando l'avrei detto questo, caro il mio mistificatore seriale? Quote e link, altrimenti sei un bugiardo nonché pubblico mentitore!
Lasciamo poi perdere tutte le altre corbellerie che scrivi :doh:
Elenca, elenca pure che ci facciamo altre risate. Preparo i popcorn. :D
come quella che i dati riportati da te da anandtech sono seri ed affidabili: già a suo tempo ti era stato detto che, non essendoci la minima traccia delle configurazioni utilizzate
Falso: c'era la maggior parte delle informazioni, come si può leggere dal thread, appunto.
soprattutto per quanto riguarda timings e frequenze delle ram,
Che sono arrivate dopo, e quindi ci sono. Ma il thread l'hai letto o hai soltanto riportato il link a caso?
quella era spazzatura altro che test fatti seriamente :asd:
Se lo dici tu dobbiamo crederci proprio. :D
Ride ancora tutto il mondo della tua affermazione che Ivy Bridge ha un ipc superiore a Zen :D :D :D
Non lo dico io, ma i ben 32 (TRENTADUE) test che sono stati fatti. :read:

Poi che ti siano andati di traverso soltanto perché ormai da anni ce l'hai con Intel, è un tuo problema personale.

maxsin72
31-01-2021, 18:25
E quando l'avrei detto questo, caro il mio mistificatore seriale? Quote e link, altrimenti sei un bugiardo nonché pubblico mentitore!

Elenca, elenca pure che ci facciamo altre risate. Preparo i popcorn. :D

Falso: c'era la maggior parte delle informazioni, come si può leggere dal thread, appunto.

Che sono arrivate dopo, e quindi ci sono. Ma il thread l'hai letto o hai soltanto riportato il link a caso?

Se lo dici tu dobbiamo crederci proprio. :D

Non lo dico io, ma i ben 32 (TRENTADUE) test che sono stati fatti. :read:

Poi che ti siano andati di traverso soltanto perché ormai da anni ce l'hai con Intel, è un tuo problema personale.

Sei stato ampiamente sbugiardato sulla questione dei test di anandtech e non sei stato in grado di fornire la configurazione con la quale sono stati eseguiti i test, gli unici test in tutta la rete in cui Zen ha un ipc inferiore non solo ad haswell ma anche ad ivy bridge quando invece per il resto del mondo Zen è sopra ad entrambi in ipc e i link alla discussione con la tua solita figura di palta li ho riportati.
E visto che lo chiedi eccoti il link dove scrivi l'ennesima balla: https://www.hwupgrade.it/forum/showpost.php?p=47231820&postcount=69

Testualmente scrivi Le DDR5 inizialmente non avranno frequenze molto elevate, con in più l'handicap delle latenze nettamente superiori. Le latenze nei giochi incidono più che gli aumenti della banda.
che sono ovviamente balle e solo balle perchè ad oggi nessuno sa quali saranno le specifiche delle memorie che usciranno sul mercato. E non tirare fuori la scusa di jedec che fissa solo i parametri standard quando sul mercato escono poi soluzioni ben più veloci.
Sei una gioia sai, ti si smonta sempre in 2 secondi :D :D :D

cdimauro
31-01-2021, 19:43
Sei stato ampiamente sbugiardato sulla questione dei test di anandtech e non sei stato in grado di fornire la configurazione con la quale sono stati eseguiti i test,
Checché tu ne dica, i link dimostrano l'esatto contrario: basta leggersi tutta la discussione.
gli unici test in tutta la rete in cui Zen ha un ipc inferiore non solo ad haswell ma anche ad ivy bridge quando invece per il resto del mondo Zen è sopra ad entrambi in ipc
In quale resto del mondo? Nessuno ha fatto test IPC così esaustivi e variegati come quelli. Nessuno.

Ma visto che a quanto pare conosci tutto il resto del mondo che, a tuo dire, direbbe il contrario di quei test, sei liberissimo di portare link a dimostrazione. Anzi, l'onere della prova è tuo, come al solito. E immagino che ne porterai a vagonate, a questo punto, visto quello che hai detto.
e i link alla discussione con la tua solita figura di palta li ho riportati.
Meno male che li hai riportati, così almeno chiunque può verificare quante sciocchezze hai scritto nonché continui tentativi di mistificare. :read:
E visto che lo chiedi eccoti il link dove scrivi l'ennesima balla: https://www.hwupgrade.it/forum/showpost.php?p=47231820&postcount=69
Testualmente scrivi Le DDR5 inizialmente non avranno frequenze molto elevate, con in più l'handicap delle latenze nettamente superiori. Le latenze nei giochi incidono più che gli aumenti della banda.
che sono ovviamente balle e solo balle perchè ad oggi nessuno sa quali saranno le specifiche delle memorie che usciranno sul mercato.
Sono balle soltanto perché lo dici tu? Ma il link che TU STESSO hai riportato che dice in merito? Lo sai, o l'hai già dimenticato? :O
E non tirare fuori la scusa di jedec che fissa solo i parametri standard quando sul mercato escono poi soluzioni ben più veloci.
Il fatto che escano fuori soluzioni ANCHE più veloce non vuol dire assolutamente nulla, perché lo stesso si è verificato con tutte le precedenti memorie. :read:
Sei una gioia sai, ti si smonta sempre in 2 secondi :D :D :D
Si vede proprio, mister 36% di prestazioni in più = minor latenza. :rotfl: :asd:

To':
https://www.jedec.org/contact
https://www.micron.com/forms/contact-us

scrivi pure al JEDEC e alla Micron per fargli sapere che si sono sbagliati. :D

maxsin72
31-01-2021, 20:52
Checché tu ne dica, i link dimostrano l'esatto contrario: basta leggersi tutta la discussione.

In quale resto del mondo? Nessuno ha fatto test IPC così esaustivi e variegati come quelli. Nessuno.

Ma visto che a quanto pare conosci tutto il resto del mondo che, a tuo dire, direbbe il contrario di quei test, sei liberissimo di portare link a dimostrazione. Anzi, l'onere della prova è tuo, come al solito. E immagino che ne porterai a vagonate, a questo punto, visto quello che hai detto.

Meno male che li hai riportati, così almeno chiunque può verificare quante sciocchezze hai scritto nonché continui tentativi di mistificare. :read:

Sono balle soltanto perché lo dici tu? Ma il link che TU STESSO hai riportato che dice in merito? Lo sai, o l'hai già dimenticato? :O

Il fatto che escano fuori soluzioni ANCHE più veloce non vuol dire assolutamente nulla, perché lo stesso si è verificato con tutte le precedenti memorie. :read:

Si vede proprio, mister 36% di prestazioni in più = minor latenza. :rotfl: :asd:

To':
https://www.jedec.org/contact
https://www.micron.com/forms/contact-us

scrivi pure al JEDEC e alla Micron per fargli sapere che si sono sbagliati. :D

Io i link te liho riportati tutti, ma tu, da buon bugiardo seriale, non hai mai fornito i timings delle ddr utilizzate ad esempio, quindi di che parli? Se stai zitto fai più bella figura.
Per il resto mi confermi che le balle che spari si basano sugli standard jedec quando invece il mercato sarà, come sempre, inondato di prodotti che daranno prestazioni ben migliori.
Dai che anche per oggi sei riuscito nell'impresa di renderti ridicolo :D Puoi andare a dormire soddisfatto :D

cdimauro
31-01-2021, 21:53
Io i link te liho riportati tutti, ma tu, da buon bugiardo seriale, non hai mai fornito i timings delle ddr utilizzate ad esempio, quindi di che parli? Se stai zitto fai più bella figura.
Non leggi nemmeno i link che tu stesso riporti. Come al solito...

E continui a sparare balle a nastro, senza fornire alcuna prova. Dove sono le tonnellate di test dell'IPC di cui ti sei tanto riempito la bocca? Mi sa che sono rimasti nella tua fervida immaginazione. Chi l'avrebbe mai detto... :D
Per il resto mi confermi che le balle che spari si basano sugli standard jedec quando invece il mercato sarà, come sempre, inondato di prodotti che daranno prestazioni ben migliori.
Esattamente come per tutte le altre memorie che sono uscite prima, quindi è un'invariante. :read: Tradotto: non hai detto proprio nulla...
Dai che anche per oggi sei riuscito nell'impresa di renderti ridicolo :D Puoi andare a dormire soddisfatto :D
Ah, su quello ci puoi contare: vado a dormire pensando al 36% di prestazioni in più che sarebbero dovute alla minore latenza delle DD5, quando JEDEC e Micron riportano la stessa latenza delle DDR4 a 3200Mhz. :asd: :asd: :asd:

Aspetta e spera che qualcuno di buon cuore posti la slide del tuo stesso link che mostri da dove arrivi quell'aumento pur mantenendo le stesse latenze, visto che sono giorni che ce l'hai davanti al naso ma sei talmente incompetente da non riuscire a capirlo. :rotfl:

maxsin72
31-01-2021, 22:28
Non leggi nemmeno i link che tu stesso riporti. Come al solito...

E continui a sparare balle a nastro, senza fornire alcuna prova. Dove sono le tonnellate di test dell'IPC di cui ti sei tanto riempito la bocca? Mi sa che sono rimasti nella tua fervida immaginazione. Chi l'avrebbe mai detto... :D

Esattamente come per tutte le altre memorie che sono uscite prima, quindi è un'invariante. :read: Tradotto: non hai detto proprio nulla...

Ah, su quello ci puoi contare: vado a dormire pensando al 36% di prestazioni in più che sarebbero dovute alla minore latenza delle DD5, quando JEDEC e Micron riportano la stessa latenza delle DDR4 a 3200Mhz. :asd: :asd: :asd:

Aspetta e spera che qualcuno di buon cuore posti la slide del tuo stesso link che mostri da dove arrivi quell'aumento pur mantenendo le stesse latenze, visto che sono giorni che ce l'hai davanti al naso ma sei talmente incompetente da non riuscire a capirlo. :rotfl:

I link con i test di ipc dove il 1800x batte il 5960x in quad channel ci sono nella discussione che ti ho linkato e, sempre nella stessa discussione, tu non hai mai fornito i timings dei test spazzatura che riporti tu.
E comunque vai pure a letto convinto che, quando usciranno le ddr5, avranno solo specifiche come quelle riportate da jedec senza che ci siano kit molto più spinti.
Sai una cosa? Invidio il tuo essere così stolto e il fatto che credi alle bufale ce spari perchè sono convinto che tu viva molto meglio delle persone che ragionano e ponderano quello che dicono :D

cdimauro
31-01-2021, 23:26
I link con i test di ipc dove il 1800x batte il 5960x in quad channel ci sono nella discussione che ti ho linkato e,
E ne abbiamo già parlato, per l'appunto: il fatto che in ALCUNI test venga battuto non significa che lo faccia sempre. :read:

Per il resto... è tutto qui quello che hai affermato essere "tutto il resto del mondo"? E' davvero molto piccolo questo tutto il resto del mondo. :rotfl:
sempre nella stessa discussione, tu non hai mai fornito i timings
Ci sono, ci sono. E ti meraviglieresti pure di vedere dove si trovano e chi li ha postati. Ma anche a memoria sappiamo bene che sei messo molto male. :asd:
dei test spazzatura che riporti tu.
Che però piacciono anche ai fanboy AMD, visto che idolatrano TheStilt.

Per il resto il fatto che un completo incompetente affermi che siano spazzatura lascia il tempo che trova.
E comunque vai pure a letto convinto che, quando usciranno le ddr5, avranno solo specifiche come quelle riportate da jedec senza che ci siano kit molto più spinti.
Mai detto né lasciato intendere nulla del genere. Ancora una volta mistificazioni: chi l'avrebbe mai detto...

D'altra parte anche nell'altra discussione hai seguito pedissequamente lo stesso pattern quando le cose non ti andavano giù: mettermi in bocca roba che non avevo detto.

Nulla di nuovo: è tipico di chi non ha più argomenti. :read:
Sai una cosa? Invidio il tuo essere così stolto e il fatto che credi alle bufale ce spari perchè sono convinto che tu viva molto meglio delle persone che ragionano e ponderano quello che dicono :D
Ma almeno su questo hai ragione: hai parecchio da invidiarmi. Visto che almeno io ho beccato immediatamente il motivo di quel 36% in più, mentre i tuoi sforzi sovraumani nel cercare di capirlo non hanno ancora prodotto alcun risultato dopo diversi giorni. :asd: :asd: :asd:

maxsin72
31-01-2021, 23:29
E ne abbiamo già parlato, per l'appunto: il fatto che in ALCUNI test venga battuto non significa che lo faccia sempre. :read:

Per il resto... è tutto qui quello che hai affermato essere "tutto il resto del mondo"? E' davvero molto piccolo questo tutto il resto del mondo. :rotfl:

Ci sono, ci sono. E ti meraviglieresti pure di vedere dove si trovano e chi li ha postati. Ma anche a memoria sappiamo bene che sei messo molto male. :asd:

Che però piacciono anche ai fanboy AMD, visto che idolatrano TheStilt.

Per il resto il fatto che un completo incompetente affermi che siano spazzatura lascia il tempo che trova.

Mai detto né lasciato intendere nulla del genere. Ancora una volta mistificazioni: chi l'avrebbe mai detto...

D'altra parte anche nell'altra discussione hai seguito pedissequamente lo stesso pattern quando le cose non ti andavano giù: mettermi in bocca roba che non avevo detto.

Nulla di nuovo: è tipico di chi non ha più argomenti. :read:

Ma almeno su questo hai ragione: hai parecchio da invidiarmi. Visto che almeno io ho beccato immediatamente il motivo di quel 36% in più, mentre i tuoi sforzi sovraumani nel cercare di capirlo non hanno ancora prodotto alcun risultato dopo diversi giorni. :asd: :asd: :asd:

Mi riferisco ai timings usati per Zen, caro, se ci sono metti il link che non hai mai messo :D
E vai a dormire che è meglio: da riposato, alle 6 del mattino del lunedì e degli altri giorni lavorativi, le spari meglio le balle a raffica :D :D

cdimauro
31-01-2021, 23:33
Mi riferisco ai timings usati per Zen, caro, se ci sono metti il link che non hai mai messo :D
Il link l'hai fornito tu stesso. E manco questo ricordi. :asd:
E vai a dormire che è meglio: da riposato, alle 6 del mattino del lunedì e degli altri giorni lavorativi, le spari meglio le balle a raffica :D :D
A te non servirebbe nemmeno un anno di assoluto di riposo per evitare di spararle grosse: ce l'hai nel sangue... :asd:

36% :read:

maxsin72
01-02-2021, 00:25
Il link l'hai fornito tu stesso. E manco questo ricordi. :asd:

A te non servirebbe nemmeno un anno di assoluto di riposo per evitare di spararle grosse: ce l'hai nel sangue... :asd:

36% :read:

Parlo del link dei test di anandtech, dove dovrebbero esserci i timings utilizzati per i test su Zen, che dovevi mettere tu, visto che quei test sono validi solo per te e li hai riportati solo tu.
Vai a dormire che è meglio che domani ricominci alle 6 :D :sofico:

cdimauro
01-02-2021, 06:48
Parlo del link dei test di anandtech, dove dovrebbero esserci i timings utilizzati per i test su Zen, che dovevi mettere tu, visto che quei test sono validi solo per te e li hai riportati solo tu.
Ma io parlo proprio di quei test, eh! Mica di roba aliena. Ma tu non sono passate nemmeno 24 ore e non ricordi nemmeno il contenuto dei link che tu stesso hai postato. :rotfl:
Vai a dormire che è meglio che domani ricominci alle 6 :D :sofico:
Vediamo se a te il riposo abbia giovato, ma ne dubito fortemente. :asd:

Comunque aspettiamo ancora la dimostrazione di quel 36% di prestazioni in più che secondo TE (e solo te: il neo genio della micro-elettronica) sarebbero dovute a latenze inferiori. :read:
Suvvia, non farmi invecchiare: DIMOSTRALO una buona volta. Non l'hai detto tu? Sei così bravo (LOL :asd:) a cercare link, che non dovresti avere difficoltà a farlo per te stesso, una buona volta.

Ma posso farlo io al posto tuo, se ammetti di essere un ignorante che ha voluto fare l'arrogante. E allora l'immaginetta della slide te la forniscono in pochi secondi. :O

maxsin72
01-02-2021, 08:57
Ma io parlo proprio di quei test, eh! Mica di roba aliena. Ma tu non sono passate nemmeno 24 ore e non ricordi nemmeno il contenuto dei link che tu stesso hai postato. :rotfl:

Vediamo se a te il riposo abbia giovato, ma ne dubito fortemente. :asd:

Comunque aspettiamo ancora la dimostrazione di quel 36% di prestazioni in più che secondo TE (e solo te: il neo genio della micro-elettronica) sarebbero dovute a latenze inferiori. :read:
Suvvia, non farmi invecchiare: DIMOSTRALO una buona volta. Non l'hai detto tu? Sei così bravo (LOL :asd:) a cercare link, che non dovresti avere difficoltà a farlo per te stesso, una buona volta.

Ma posso farlo io al posto tuo, se ammetti di essere un ignorante che ha voluto fare l'arrogante. E allora l'immaginetta della slide te la forniscono in pochi secondi. :O

Ripeto che dei test spazzatura sul forum di anandtech da te riportati mancavano i timings e non sono stato di certo io che ti sono venuto in soccorso :D

E poi non rigirare la frittata: sei tu che per primo hai affermato che all'uscita le ddr5 non sarebbero andate bene tanto quanto le ddr4, a te il mago Otelma fa un baffo :D

E comunque metti le immaginette che vuoi o fai come ti pare perchè sei totalmente bollito e ti si smonta i 2 secondi :asd:

cdimauro
02-02-2021, 06:49
Ripeto che dei test spazzatura sul forum di anandtech
E di nuovo. Lo saranno per te anonimo pinco pallino qualsiasi internettiano che tecnicamente sei una nullità, visto che non capisci nemmeno i link che tu stesso hai riportato, come hai dimostrato più volte (mica sono casi isolati).

Dall'altra parte abbiamo il miglior overclocker AMD (quindi nemmeno Intel!) che ha dimostrato più volte di dare lezioni ai costruttori di schede madri (e sì: proprio con le memorie).

Io non ho alcun dubbio da quale parte schierarmi.
da te riportati mancavano i timings e non sono stato di certo io che ti sono venuto in soccorso :D
Hai detto bene: MANCAVANO. In italiano potabile è un'azione passata, che però successivamente si è perfezionata. :read:

Poi che tu, nonostante abbia portato proprio tu I link (I -> quindi al plurale. La discussione te la sei letta, ma hai portato a caso soltanto i link ai post che, secondo te, ti darebbero ragione), nemmeno ne ricordi i contenuti, anche qui non è nulla di nuovo, perché l'hai dimostrato più volte, come peraltro traspare anche in quella discussione (ma mica è l'unica, eh!).

Quindi non soltanto sei zero tecnicamente, ma hai anche altri problemi di tuo: non ti fai mancare proprio niente, eh! :asd:
E poi non rigirare la frittata: sei tu che per primo hai affermato che all'uscita le ddr5 non sarebbero andate bene tanto quanto le ddr4, a te il mago Otelma fa un baffo :D
E ancora a mistificare, mettendomi in bocca parole che non ho detto. Io ho parlato in maniera precisa di latenza, non in generale delle prestazioni in generale.

Quindi oltre alle incapacità tecniche, ai tuoi problemi di memoria e comprensione, aggiungiamo anche le menzogne e le mistificazioni all'elenco dei problemi che ti porti dietro.

Direi che ce n'è abbastanza: sei proprio un caso disperato... :rotfl:
E comunque metti le immaginette che vuoi o fai come ti pare perchè sei totalmente bollito e ti si smonta i 2 secondi :asd:
E perché dovrei farlo? Pensi che sia così stupido da prendermi carico delle TUE responsabilità?

Sei TU che hai affermato che il 36% di prestazioni migliori delle DDR5 sarebbero dovute a presunte latenze inferiori, quando JEDEC e Micron dimostrano, TUO link alla mano, che sono esattamente le stesse.

Dunque TUO è l'onere di provare questa colossale minchiata che hai spiattellato. :read:

Io mi sono offerto di dimostrarti come stiano realmente le cose, ma non aggratis: soltanto a condizione che tu cali le corna e ammetta di non sapere che pesci pigliare.

Tanto non ti devi preoccupare di fare una figuraccia: sei un signor nessuno senza arte né parte che si nasconde comodamente dietro un nickname, che gli garantisce di porter sparare tecno stupidaggini a nastro senza avere ripercussioni nella vita reale. Una posizione molto comoda, a differenza di altri.

Dunque per una volta nella tua vita prenditi le tue responsabilità, e non avrò problemi a darti soddisfazione, sciogliendo il dilemma.

k0nt3
02-02-2021, 09:24
Scusate ma si può evitare questo inutile sproloquio privo di contenuti? State fancendo entrambi una pessima figura.
maxsin72 ha scritto che le latenze delle ddr5 saranno migliori di quelle delle ddr4, mentre cdimauro ha scritto che saranno nettamente superiori (testuali parole, andatevi a rileggere i post di un paio di pagine fa).
Ebbene avete scritto entrambi una falsità, ci vuole tanto ad ammetterlo? :doh:

maxsin72
02-02-2021, 09:30
E di nuovo. Lo saranno per te anonimo pinco pallino qualsiasi internettiano che tecnicamente sei una nullità, visto che non capisci nemmeno i link che tu stesso hai riportato, come hai dimostrato più volte (mica sono casi isolati).

Dall'altra parte abbiamo il miglior overclocker AMD (quindi nemmeno Intel!) che ha dimostrato più volte di dare lezioni ai costruttori di schede madri (e sì: proprio con le memorie).

Io non ho alcun dubbio da quale parte schierarmi.

Hai detto bene: MANCAVANO. In italiano potabile è un'azione passata, che però successivamente si è perfezionata. :read:

Poi che tu, nonostante abbia portato proprio tu I link (I -> quindi al plurale. La discussione te la sei letta, ma hai portato a caso soltanto i link ai post che, secondo te, ti darebbero ragione), nemmeno ne ricordi i contenuti, anche qui non è nulla di nuovo, perché l'hai dimostrato più volte, come peraltro traspare anche in quella discussione (ma mica è l'unica, eh!).

Quindi non soltanto sei zero tecnicamente, ma hai anche altri problemi di tuo: non ti fai mancare proprio niente, eh! :asd:

E ancora a mistificare, mettendomi in bocca parole che non ho detto. Io ho parlato in maniera precisa di latenza, non in generale delle prestazioni in generale.

Quindi oltre alle incapacità tecniche, ai tuoi problemi di memoria e comprensione, aggiungiamo anche le menzogne e le mistificazioni all'elenco dei problemi che ti porti dietro.

Direi che ce n'è abbastanza: sei proprio un caso disperato... :rotfl:

E perché dovrei farlo? Pensi che sia così stupido da prendermi carico delle TUE responsabilità?

Sei TU che hai affermato che il 36% di prestazioni migliori delle DDR5 sarebbero dovute a presunte latenze inferiori, quando JEDEC e Micron dimostrano, TUO link alla mano, che sono esattamente le stesse.

Dunque TUO è l'onere di provare questa colossale minchiata che hai spiattellato. :read:

Io mi sono offerto di dimostrarti come stiano realmente le cose, ma non aggratis: soltanto a condizione che tu cali le corna e ammetta di non sapere che pesci pigliare.

Tanto non ti devi preoccupare di fare una figuraccia: sei un signor nessuno senza arte né parte che si nasconde comodamente dietro un nickname, che gli garantisce di porter sparare tecno stupidaggini a nastro senza avere ripercussioni nella vita reale. Una posizione molto comoda, a differenza di altri.

Dunque per una volta nella tua vita prenditi le tue responsabilità, e non avrò problemi a darti soddisfazione, sciogliendo il dilemma.

Ed eccolo il nostro eroe che imperterrito si mette a scrivere le corbellerie delle 6 del mattino :D :asd:
Sei tu che hai affermato che le prime ddr5 andranno peggio delle ddr4 senza nemmeno sapere cosa ci sarà in commercio quando usciranno e ignorando da ignorante arrogante il fatto che potrannoesserci prodotti molto migliori rispetto a qunto messo su carta da jedec. Ma evidentemente pensi di poter leggere nel futuro. Smettila di blaterare e dimostra quello che hai scritto, altrimenti taci!:D
E comunque non hai nessun dilemma da sciogliere... anzi no uno c'è: ma ci sei o ci fai?:sofico:
E comunque sono ancora in attesa da 2 anni del link con i timings utilizzati da anandtech per i test spazzatura da te postati su zen.:D

maxsin72
02-02-2021, 09:47
Scusate ma si può evitare questo inutile sproloquio privo di contenuti? State fancendo entrambi una pessima figura.
maxsin72 ha scritto che le latenze delle ddr5 saranno migliori di quelle delle ddr4, mentre cdimauro ha scritto che saranno nettamente superiori (testuali parole, andatevi a rileggere i post di un paio di pagine fa).
Ebbene avete scritto entrambi una falsità, ci vuole tanto ad ammetterlo? :doh:

In realtà io ho affermato, come da slide micron, che ddr5 3200 avranno il 36% di banda passante in più rispetto a ddr4 3200.
Per jedec invece a parità di latenze per entrambe le ddr 3200 viene dato lo stesso picco di banda come è giusto che sia.
Tra le motivazioni credo ci sia il doppio canale a 32 bit delle ddr5 contro quello singolo delle ddr4 che sicuramente contribuisce ad avvicinarle al picco teorico, oltre a molte altre migliorie come ho anche scritto.
Come ho anche scritto che quindi le ddr5 saranno sicuramente migliori fin dall'uscita. Secondo te è lecito quindi attenderci che delle DDR5 3200 abbiano una banda passante REALE (non teorica) come quella di ipotetiche DDR4 4352 (3200 +36%) ma latenze migliori oppure no?

k0nt3
02-02-2021, 20:09
In realtà io ho affermato, come da slide micron, che ddr5 3200 avranno il 36% di banda passante in più rispetto a ddr4 3200.

Mi riferisco a questo passaggio in particolare

Primo se confronti ddr4 e ddr5 entrambe 3200 mhz il problema non si pone nel momento in cui le ddr5 hanno un 36% in più di banda perché è evidente che a parità di frequenza se le ddr5 performano meglio è perché le latenze in generale sono migliori.



Per jedec invece a parità di latenze per entrambe le ddr 3200 viene dato lo stesso picco di banda come è giusto che sia.
Tra le motivazioni credo ci sia il doppio canale a 32 bit delle ddr5 contro quello singolo delle ddr4 che sicuramente contribuisce ad avvicinarle al picco teorico, oltre a molte altre migliorie come ho anche scritto.
Come ho anche scritto che quindi le ddr5 saranno sicuramente migliori fin dall'uscita. Secondo te è lecito quindi attenderci che delle DDR5 3200 abbiano una banda passante REALE (non teorica) come quella di ipotetiche DDR4 4352 (3200 +36%) ma latenze migliori oppure no?
Sono anche io dell'opinione che le DDR5 porteranno ad un miglioramento delle prestazioni sin da subito, se è vero che le latenze saranno simili. Però è impossibile rispondere alla tua domanda specifica senza conoscere il CAS.
Tra l'altro Anandtech lo definisce in maniera errata:
CAS: Column Address Strobe: the time between sending a column address and the response
Non si tratta di tempo, ma di cicli di clock.
Consiglio a tutti una lettura di questo articolo per schiarire le idee https://www.crucial.com/articles/about-memory/difference-between-speed-and-latency

maxsin72
02-02-2021, 21:12
Mi riferisco a questo passaggio in particolare


Nel passaggio a cui ti riferisci ho scritto un concetto sbagliato :D Non ho nessun problema ad ammetterlo con chi ha voglia di ragionare in modo costruttivo e si pone con sincerità :)


Sono anche io dell'opinione che le DDR5 porteranno ad un miglioramento delle prestazioni sin da subito, se è vero che le latenze saranno simili. Però è impossibile rispondere alla tua domanda specifica senza conoscere il CAS.
Tra l'altro Anandtech lo definisce in maniera errata:

Non si tratta di tempo, ma di cicli di clock.
Consiglio a tutti una lettura di questo articolo per schiarire le idee https://www.crucial.com/articles/about-memory/difference-between-speed-and-latency

Rimane invece secondo me interessate il discorso sul confronto del rapporto banda passante reale/latenze tra DDR5 e DDR4.
Purtroppo Jedec non ha stabilito delle latenze standard per delle DDR4 4350 ma, considerato che per le migliori ddr5 3200 e le migliori ddr4 3200, jedec ha messo su carta le stesse latenze e gli stessi timings e, considerato che un ipotetico standard jedec per le ddr4 4350 vedrebbe timings sicuramente più alti delle ddr4 e delle ddr5 3200 suddette e con una banda passante reale corrispondente circa alle ddr5 3200, mi viene da ipotizzare che le ddr5 3200, in virtù di timings migliori, pur se da rapportare al clock, potrebbero anche avere latenze leggermente migliori.
E in ogni caso, anche appena uscite, c'è da ribadire che sicuramente le ddr5 saranno migliori delle ddr4.

k0nt3
02-02-2021, 23:53
Nel passaggio a cui ti riferisci ho scritto un concetto sbagliato :D Non ho nessun problema ad ammetterlo con chi ha voglia di ragionare in modo costruttivo e si pone con sincerità :)

:cincin:

Rimane invece secondo me interessate il discorso sul confronto del rapporto banda passante reale/latenze tra DDR5 e DDR4.
Purtroppo Jedec non ha stabilito delle latenze standard per delle DDR4 4350 ma, considerato che per le migliori ddr5 3200 e le migliori ddr4 3200, jedec ha messo su carta le stesse latenze e gli stessi timings e, considerato che un ipotetico standard jedec per le ddr4 4350 vedrebbe timings sicuramente più alti delle ddr4 e delle ddr5 3200 suddette e con una banda passante reale corrispondente circa alle ddr5 3200, mi viene da ipotizzare che le ddr5 3200, in virtù di timings migliori, pur se da rapportare al clock, potrebbero anche avere latenze leggermente migliori.
E in ogni caso, anche appena uscite, c'è da ribadire che sicuramente le ddr5 saranno migliori delle ddr4.
Sinceramente non capisco perché ti ostini a comparare le ddr5 3200 con delle ipotetiche ddr4 che non esistono nemmeno.
Non basta dire che a parità di frequenza ddr5 offre circa il 35% di banda effettiva in più mantenendo la latenza sostanzialmente invariata? A questo aggiungiamoci il fatto che le frequenze saranno superiori e che la maggiore densità permetterà quantitativi di memoria molto più elevati e mi sembra chiaro che il passo in avanti sia notevole sulla carta.

maxsin72
03-02-2021, 00:17
:cincin:

Sinceramente non capisco perché ti ostini a comparare le ddr5 3200 con delle ipotetiche ddr4 che non esistono nemmeno.
Non basta dire che a parità di frequenza ddr5 offre circa il 35% di banda effettiva in più mantenendo la latenza sostanzialmente invariata? A questo aggiungiamoci il fatto che le frequenze saranno superiori e che la maggiore densità permetterà quantitativi di memoria molto più elevati e mi sembra chiaro che il passo in avanti sia notevole sulla carta.

Basta e avanza anche :)
Il ragionamento "ostinato" è dovuto al fatto che mi incuriosisce capire se la banda reale in più a favore delle DDR5 può essere tra virgolette sfruttata per avere, sempre a parità di banda reale con le ddr4, latenze migliori. E il tutto è nato dall'assurdo discorso con cdimauro che, mannaggia a me, dovrei lasciare li dov'è quando inizia a trollare invece di dargli corda :D

cdimauro
03-02-2021, 07:13
Scusate ma si può evitare questo inutile sproloquio privo di contenuti? State fancendo entrambi una pessima figura.
maxsin72 ha scritto che le latenze delle ddr5 saranno migliori di quelle delle ddr4, mentre cdimauro ha scritto che saranno nettamente superiori (testuali parole, andatevi a rileggere i post di un paio di pagine fa).
Ebbene avete scritto entrambi una falsità, ci vuole tanto ad ammetterlo? :doh:
Non ho alcun problema a confermare quanto scritto prima, ma ovviamente respingo il tuo giudizio. Giudizio che deriva dalla tua non conoscenza della situazione delle memorie, che a questo punto riporto brevemente numeri alla mano, così ci togliamo questo dente una volta per tutte.

Un link l'avevo già riportato in merito: Insights into DDR5 Sub-timings and Latencies (https://www.anandtech.com/show/16143/insights-into-ddr5-subtimings-and-latencies). Da cui riporto le parti rilevanti:
"At the end of DDR3, and through DDR4, JEDEC introduced additional sub-timing specifications for each data rate - for each of the data rates, JEDEC has specified an ‘A’ fast standard, a ‘B’ common standard, and a ‘C’ looser standard – technically the looser standard is more applicable to higher capacity modules. It means that each data rate can cast a wide range of performance based on the quality of the silicon used.

Starting with the lowest data rate, the DDR5-3200A standard supports 22-22-22 sub-timings. At a theoretical peak of 25.6 GB/s bandwidth per channel, this equates to a single access latency of 13.75 nanoseconds."
Quindi sappiamo che lo standard A, il più veloce, comporta una latenza di 13.75 ns.

Purtroppo per le DDR4 a 3200Mhz Anandtech NON ha riportato i valori dello standard A, ma quelli dello standard B, quindi quelli delle memorie "normali". Su AnandTech non ho trovato una tabella dei timing delle DDR4, ma l'ho trovata su Wikipedia (https://en.wikipedia.org/wiki/DDR4_SDRAM#Modules), che per lo standard A riporta:
"Timings CL-tRCD-tRP: 20-20-20 CAS latency (ns): 12.5"
Quindi le DDR5 non hanno nemmeno le stesse latenze delle DDR4 a 3200Mhz, ma sono più lente del 10%. :read:

Da notare che alle frequenze introduttive di 1600Mhz le DDR4 hanno le stesse specifiche di CAS e latenza. Cosa che, invece, NON avviene con le DDR5. Infatti per le programmate memorie a 6400Mhz troviamo i seguenti valori:
"46 46 46 e 14.38ns"
Per cui rispetto alle 3200Mhz abbiamo un aumento delle latenze del 5%.

In sintesi: le DDR5 non solo partono con latenze ben più superiori rispetto alle DDR4, ma scalano pure peggio, perché raddoppiando il clock non riescono a mantenere gli stessi valori di CAS e quindi latenza, come invece facevano le DDR4.

Quindi le DDR5 sono intrinsecamente peggiori delle DDR4 a livello di latenza.
Ed eccolo il nostro eroe che imperterrito si mette a scrivere le corbellerie delle 6 del mattino :D :asd:
E' per farti partire bene la giornata... :D
Sei tu che hai affermato che le prime ddr5 andranno peggio delle ddr4 senza nemmeno sapere cosa ci sarà in commercio quando usciranno
Come già detto e ripeto, non sono stato io a dirlo, ma lo stesso JEDEC.
e ignorando da ignorante arrogante il fatto che potrannoesserci prodotti molto migliori rispetto a qunto messo su carta da jedec.
Di nuovo falsità e mistificazioni: MAI DETTO NULLA DEL GENERE!
Ma evidentemente pensi di poter leggere nel futuro. Smettila di blaterare e dimostra quello che hai scritto, altrimenti taci!:D
E che ci vuole? Ecco cosa avevo già scritto in merito (https://www.hwupgrade.it/forum/showpost.php?p=47256270&postcount=106):
"Esattamente come per tutte le altre memorie che sono uscite prima, quindi è un'invariante. Tradotto: non hai detto proprio nulla..."
Questo a dimostrazione che sei soltanto un bugiardo e un mistificatore.

Infatti, anche per le DDR4 sono state commercializzate memorie nettamente migliori rispetto alle specifiche standard del JEDEC.
Esempio: XPG SPECTRIX D50 Xtreme, memorie fino a 5000 MHz da ADATA (https://www.hwupgrade.it/news/memorie/xpg-spectrix-d50-xtreme-memorie-fino-a-5000-mhz-da-adata_92203.html) i cui dati di targa sono: "CL 19-26-26".
E comunque non hai nessun dilemma da sciogliere... anzi no uno c'è: ma ci sei o ci fai?:sofico:
Ah, ma non sono certo problemi miei: io sto comodamente in attesa che sia TU a portare prove sulle colossali balle che hai scritto. :read:
E comunque sono ancora in attesa da 2 anni del link con i timings utilizzati da anandtech
Il link l'hai già postato tu, e chiunque andando a leggersi la discussione li può trovare. :read:

Il tuo problema è il solito: posti link di cui non conosci nemmeno il contenuto. Ed è un tuo problema endemico, come è dimostrato in ogni discussione. Sei messo proprio male. :asd:
per i test spazzatura da te postati su zen.:D
Non è che se riporti ogni volta le stesse sciocchezze poi diventano vere, eh!

L'ho già detto: è la parola di un'anonima nullità che di tecnologia non ne capisce (come ampiamente dimostrato), contro quella del miglior overclocker AMD.
In realtà io ho affermato, come da slide micron, che ddr5 3200 avranno il 36% di banda passante in più rispetto a ddr4 3200.
Per jedec invece a parità di latenze per entrambe le ddr 3200 viene dato lo stesso picco di banda come è giusto che sia.
Tra le motivazioni credo ci sia il doppio canale a 32 bit delle ddr5 contro quello singolo delle ddr4 che sicuramente contribuisce ad avvicinarle al picco teorico, oltre a molte altre migliorie come ho anche scritto.
Ah, ecco che cominci a calare le braghe e andare sul merito. Ce n'è voluto, eh!

Ma in che modo questo doppio canale contribuirebbe? L'hai capito questo, o l'hai buttata lì a caso?
Come ho anche scritto che quindi le ddr5 saranno sicuramente migliori fin dall'uscita. Secondo te è lecito quindi attenderci che delle DDR5 3200 abbiano una banda passante REALE (non teorica) come quella di ipotetiche DDR4 4352 (3200 +36%) ma latenze migliori oppure no?
Come già ripetuto miliardi di volte, le latenze sono e rimangono QUELLE. NON sono migliori. Anzi, dati alla mano le DDR5 fanno peggio delle DDR4 a parità di frequenza, come ho dimostrato sopra.
Rimane invece secondo me interessate il discorso sul confronto del rapporto banda passante reale/latenze tra DDR5 e DDR4.
Purtroppo Jedec non ha stabilito delle latenze standard per delle DDR4 4350 ma, considerato che per le migliori ddr5 3200 e le migliori ddr4 3200, jedec ha messo su carta le stesse latenze e gli stessi timings e, considerato che un ipotetico standard jedec per le ddr4 4350 vedrebbe timings sicuramente più alti delle ddr4 e delle ddr5 3200 suddette e con una banda passante reale corrispondente circa alle ddr5 3200, mi viene da ipotizzare che le ddr5 3200, in virtù di timings migliori, pur se da rapportare al clock, potrebbero anche avere latenze leggermente migliori.
E non è così, dati alla mano, e come dimostrato sopra.
E in ogni caso, anche appena uscite, c'è da ribadire che sicuramente le ddr5 saranno migliori delle ddr4.
Dati alla mano NON lo sono, visto che hanno latenze nettamente superiori a parità di clock. E con lo scalare in frequenza la situazione peggiora pure.
:cincin:

Sinceramente non capisco perché ti ostini a comparare le ddr5 3200 con delle ipotetiche ddr4 che non esistono nemmeno.
Non basta dire che a parità di frequenza ddr5 offre circa il 35% di banda effettiva in più mantenendo la latenza sostanzialmente invariata?
Purtroppo non è così: vedi sopra.
A questo aggiungiamoci il fatto che le frequenze saranno superiori e che la maggiore densità permetterà quantitativi di memoria molto più elevati e mi sembra chiaro che il passo in avanti sia notevole sulla carta.
La densità è un'invariante e non un'esclusiva delle DDR5: i migliori processi produttivi si possono usare per qualunque chip.
Basta e avanza anche :)
Il ragionamento "ostinato" è dovuto al fatto che mi incuriosisce capire se la banda reale in più a favore delle DDR5 può essere tra virgolette sfruttata per avere, sempre a parità di banda reale con le ddr4, latenze migliori.
Non è così, e ti puoi mettere l'anima in pace: vedi sopra.
E il tutto è nato dall'assurdo discorso con cdimauro che, mannaggia a me, dovrei lasciare li dov'è quando inizia a trollare invece di dargli corda :D
Dovresti lasciar perdere in generale quando si parla di questioni tecniche, perché è evidente che non è roba che riesci a masticare.

Dedicati a qualcos'altro.

maxsin72
03-02-2021, 08:51
Non ho alcun problema a confermare quanto scritto prima, ma ovviamente respingo il tuo giudizio. Giudizio che deriva dalla tua non conoscenza della situazione delle memorie, che a questo punto riporto brevemente numeri alla mano, così ci togliamo questo dente una volta per tutte.

Un link l'avevo già riportato in merito: Insights into DDR5 Sub-timings and Latencies (https://www.anandtech.com/show/16143/insights-into-ddr5-subtimings-and-latencies). Da cui riporto le parti rilevanti:
"At the end of DDR3, and through DDR4, JEDEC introduced additional sub-timing specifications for each data rate - for each of the data rates, JEDEC has specified an ‘A’ fast standard, a ‘B’ common standard, and a ‘C’ looser standard – technically the looser standard is more applicable to higher capacity modules. It means that each data rate can cast a wide range of performance based on the quality of the silicon used.

Starting with the lowest data rate, the DDR5-3200A standard supports 22-22-22 sub-timings. At a theoretical peak of 25.6 GB/s bandwidth per channel, this equates to a single access latency of 13.75 nanoseconds."
Quindi sappiamo che lo standard A, il più veloce, comporta una latenza di 13.75 ns.

Purtroppo per le DDR4 a 3200Mhz Anandtech NON ha riportato i valori dello standard A, ma quelli dello standard B, quindi quelli delle memorie "normali". Su AnandTech non ho trovato una tabella dei timing delle DDR4, ma l'ho trovata su Wikipedia (https://en.wikipedia.org/wiki/DDR4_SDRAM#Modules), che per lo standard A riporta:
"Timings CL-tRCD-tRP: 20-20-20 CAS latency (ns): 12.5"
Quindi le DDR5 non hanno nemmeno le stesse latenze delle DDR4 a 3200Mhz, ma sono più lente del 10%. :read:

Da notare che alle frequenze introduttive di 1600Mhz le DDR4 hanno le stesse specifiche di CAS e latenza. Cosa che, invece, NON avviene con le DDR5. Infatti per le programmate memorie a 6400Mhz troviamo i seguenti valori:
"46 46 46 e 14.38ns"
Per cui rispetto alle 3200Mhz abbiamo un aumento delle latenze del 5%.

In sintesi: le DDR5 non solo partono con latenze ben più superiori rispetto alle DDR4, ma scalano pure peggio, perché raddoppiando il clock non riescono a mantenere gli stessi valori di CAS e quindi latenza, come invece facevano le DDR4.

Quindi le DDR5 sono intrinsecamente peggiori delle DDR4 a livello di latenza.

E' per farti partire bene la giornata... :D

Come già detto e ripeto, non sono stato io a dirlo, ma lo stesso JEDEC.

Di nuovo falsità e mistificazioni: MAI DETTO NULLA DEL GENERE!

E che ci vuole? Ecco cosa avevo già scritto in merito (https://www.hwupgrade.it/forum/showpost.php?p=47256270&postcount=106):
"Esattamente come per tutte le altre memorie che sono uscite prima, quindi è un'invariante. Tradotto: non hai detto proprio nulla..."
Questo a dimostrazione che sei soltanto un bugiardo e un mistificatore.

Infatti, anche per le DDR4 sono state commercializzate memorie nettamente migliori rispetto alle specifiche standard del JEDEC.
Esempio: XPG SPECTRIX D50 Xtreme, memorie fino a 5000 MHz da ADATA (https://www.hwupgrade.it/news/memorie/xpg-spectrix-d50-xtreme-memorie-fino-a-5000-mhz-da-adata_92203.html) i cui dati di targa sono: "CL 19-26-26".

Ah, ma non sono certo problemi miei: io sto comodamente in attesa che sia TU a portare prove sulle colossali balle che hai scritto. :read:

Il link l'hai già postato tu, e chiunque andando a leggersi la discussione li può trovare. :read:

Il tuo problema è il solito: posti link di cui non conosci nemmeno il contenuto. Ed è un tuo problema endemico, come è dimostrato in ogni discussione. Sei messo proprio male. :asd:

Non è che se riporti ogni volta le stesse sciocchezze poi diventano vere, eh!

L'ho già detto: è la parola di un'anonima nullità che di tecnologia non ne capisce (come ampiamente dimostrato), contro quella del miglior overclocker AMD.

Ah, ecco che cominci a calare le braghe e andare sul merito. Ce n'è voluto, eh!

Ma in che modo questo doppio canale contribuirebbe? L'hai capito questo, o l'hai buttata lì a caso?

Come già ripetuto miliardi di volte, le latenze sono e rimangono QUELLE. NON sono migliori. Anzi, dati alla mano le DDR5 fanno peggio delle DDR4 a parità di frequenza, come ho dimostrato sopra.

E non è così, dati alla mano, e come dimostrato sopra.

Dati alla mano NON lo sono, visto che hanno latenze nettamente superiori a parità di clock. E con lo scalare in frequenza la situazione peggiora pure.

Purtroppo non è così: vedi sopra.

La densità è un'invariante e non un'esclusiva delle DDR5: i migliori processi produttivi si possono usare per qualunque chip.

Non è così, e ti puoi mettere l'anima in pace: vedi sopra.

Dovresti lasciar perdere in generale quando si parla di questioni tecniche, perché è evidente che non è roba che riesci a masticare.

Dedicati a qualcos'altro.

Ahi ahi Cesare, questa mattina hai dormito 1 ora in più ma ti sei svegliato scrivendo sempre le stesse corbellerie.
Affermare che le DDR5 all'uscita avranno latenze molto più alte delle DDR4, prendendo come prova gli standard jedec, è semplicemente falso, sono solo tue speculazioni prive di ogni fondamento come tante te ne ho viste scrivere negli anni: aspetto ancora, da anni, i timings dei test anandtech spazzatura sull'ipc di Zen, ma tanto non arriveranno mai.
E' grave che un addetto ai lavori come te si spacci come esperto per poi scivolare, nella sua vana gloria e arroganza, su errori così macroscopici.
Come per le DDR4, anche per le DDR5 usciranno in commercio prodotti che miglioreranno notevolmente jedec e la banda passante delle DDR5 così superiore a quella delle DDR4 , avrà grande importanza nel dare maggiori prestazioni a giochi e applicativi sempre più pesanti altrimenti non ci saremmo mossi dalle DDR 400 con CAS 1.5 :D Come pure arriverà il momento, molto presto, in cui avere più core farà sempre più la differenza perchè è una strada sulla quale intel sta (in)seguendo AMD.
Ci provi sempre ma il bello è che ti si smonta sempre in 2 secondi :asd: :sofico:
Sottolineo poi quanto tu sia ridicolo a consigliare, anche a chi può aspettare e non ha urgenze, rocket lake a 5 mesi dall'uscita di alder lake (prima architettura completamente progettata da Keller del cui genio intel aveva evidentemente bisogno): sarebbe stato come consigliare di prendere l'ultimo pentium 4 a 5 mesi dall'uscita della prima architettura core :asd: :asd: semplicemente, una volta di più, ri-di-co-lo :asd:

Free Gordon
03-02-2021, 13:53
Mah.. in tomb rider e assassin creed si equivalgono o addirittura fa un po' meglio il 10900k perchè non sono 2 fps in meno nel frame rate minimo (che si ha magari solo per qualche frazione di secondo in svariati minuti di gioco eche comunque è sotto le 60 fps anche per l'11900k) o anche nel 1% low che cambiano le cose mentre il frame rate medio del 10900k è addirittura più alto. E comunque l'11900k è tutt'altro che rivoluzionario nel gaming rispetto al 10900K e secondo me è un processore da scaffale perchè, quando uscirà, mancheranno pochi mesi al lancio di Zen4 e Alder Lake con DDR5 e li si che il salto dovrebbe essere molto più netto.
E chi non può aspettare le nuove piattaforme con DDR5, farebbe bene a optare per Zen3 che, a fronte di uno svantaggio praticamente inesistente in ST, supera rocket lake a mani basse in MT.


ma certo...
Sti proci 11xxx nascono già morti prima ancora di apparire sul mercato. :)


E cmq vale sempre il solito discorso: al giusto prezzo, tutto è buono.

Anche a 250W!!!! :asd:



PS. il fatto che abbiano consumi così stellari è la cosa che mi fa' più ridere di tutte... :rotfl:

k0nt3
03-02-2021, 23:55
Non ho alcun problema a confermare quanto scritto prima, ma ovviamente respingo il tuo giudizio. Giudizio che deriva dalla tua non conoscenza della situazione delle memorie, che a questo punto riporto brevemente numeri alla mano, così ci togliamo questo dente una volta per tutte.

Ahah questa è buona :rotfl:
Mi sono letteralmente basato sulle informazione che tu stesso hai riportato e più volte ribadito nei tuoi post precedenti e te ne esci con questa frecciatina gratuita? :doh:

Purtroppo per le DDR4 a 3200Mhz Anandtech NON ha riportato i valori dello standard A, ma quelli dello standard B, quindi quelli delle memorie "normali". Su AnandTech non ho trovato una tabella dei timing delle DDR4, ma l'ho trovata su Wikipedia (https://en.wikipedia.org/wiki/DDR4_SDRAM#Modules), che per lo standard A riporta:
"Timings CL-tRCD-tRP: 20-20-20 CAS latency (ns): 12.5"
Quindi le DDR5 non hanno nemmeno le stesse latenze delle DDR4 a 3200Mhz, ma sono più lente del 10%. :read:

Da notare che alle frequenze introduttive di 1600Mhz le DDR4 hanno le stesse specifiche di CAS e latenza. Cosa che, invece, NON avviene con le DDR5. Infatti per le programmate memorie a 6400Mhz troviamo i seguenti valori:
"46 46 46 e 14.38ns"
Per cui rispetto alle 3200Mhz abbiamo un aumento delle latenze del 5%.

In sintesi: le DDR5 non solo partono con latenze ben più superiori rispetto alle DDR4, ma scalano pure peggio, perché raddoppiando il clock non riescono a mantenere gli stessi valori di CAS e quindi latenza, come invece facevano le DDR4.

Quindi le DDR5 sono intrinsecamente peggiori delle DDR4 a livello di latenza.

Grazie per le informazioni, non si capiva dall'articolo di anandtech in effetti. Anche loro perdono colpi a quanto pare, vedi anche l'errore nella definizione di CAS.
In ogni caso il discorso sulle prestazioni non è limitato alla sola latenza, se anche ci sarà un peggioramente del 10% dall'altro lato ci sarà un miglioramento superiore al 100% sulla banda effettiva e questo farà senzaltro bene ai processori con tanti core e alle soluzioni con grafica integrata.
Come ho scritto prima: "le DDR5 porteranno ad un miglioramento delle prestazioni sin da subito, se è vero che le latenze saranno simili".
Se invece non sarà così va da sè che le DDR4 potrebbero andare meglio in alcune situazioni di nicchia dove la banda non è importante e la latenza è tutto.
Per l'uso che ne faccio io del PC l'aumento di banda sarà manna dal cielo, quindi non vedo l'ora di passare ad una piattaforma con DDR5.

La densità è un'invariante e non un'esclusiva delle DDR5: i migliori processi produttivi si possono usare per qualunque chip.

Mi spiace ma questo è semplicemente falso, le DDR5 infatti quadruplicano la capacità massima di ciascun modulo.
https://www.techradar.com/news/jedec-finalizes-ddr5-standard-terabyte-sized-ddr5-6400-modules-incoming
Quadrupling capacity

The DDR4 specification defines memory devices featuring up to 16 Gb capacity, which limits capacity of server-grade octal-ranked RDIMMs that use 4-Hi 16 Gb stacks to 256 GB. Due to prohibitively high cost and predictably low performance, no module maker produces 512 GB DDR4 RDIMMs today, but 256 GB modules have been available for a while. The new DDR5 standard brings support for 24 Gb, 32 Gb, and 64 Gb DRAMs, which will eventually enable manufacturers to build server memory modules featuring enormous sizes using 16-Hi 32 Gb stacks or 8-Hi 64 Gb stacks (think 2 TB) in the distant future.

cdimauro
04-02-2021, 07:20
Ahi ahi Cesare, questa mattina hai dormito 1 ora in più ma ti sei svegliato scrivendo sempre le stesse corbellerie.
No, mi alzo più o meno alla stessa ora, solo che a differenza tua non riporto link ad muzzum senza nemmeno averli letti, ma riporto anche dati, fatti e valutazioni: tutta roba che porta via tempo.

Tu scrivi e liquidi velocemente le cose scritte dagli altri perché sei privo di contenuti, e quindi te ne esci in pochi minuti, anche se a volte editi i post aggiungendo altra roba, perché nel frattempo hai "pensato bene" di aggiungere altre sciocchezze e mistificazioni, visto che, per l'appunto, non hai contenuti e non ti rimane altro da fare per allungare il brodo.
Affermare che le DDR5 all'uscita avranno latenze molto più alte delle DDR4, prendendo come prova gli standard jedec, è semplicemente falso, sono solo tue speculazioni prive di ogni fondamento
Sono dati del JEDEC, non miei, e quindi non sono falsi. Non sai più a cos'altro aggrapparti ormai...
come tante te ne ho viste scrivere negli anni: aspetto ancora, da anni, i timings dei test anandtech spazzatura sull'ipc di Zen, ma tanto non arriveranno mai.
Il link l'hai fornito tu stesso, e chiunque può andare trovare quei dati e verificare come stiano le cose. :read:

Certo, la cosa surreale è che proprio tu non sai nemmeno di cosa parli. :asd: Ma ormai con te è una prassi, visto che, come dicevo, butti link ad muzzum, senza nemmeno conoscerne il contenuto...
E' grave che un addetto ai lavori come te si spacci come esperto per poi scivolare, nella sua vana gloria e arroganza, su errori così macroscopici.
Certo, certo: sono errori. Manda pure una mail al JEDEC e digli che si sono sbagliati. :rotfl:
Come per le DDR4, anche per le DDR5 usciranno in commercio prodotti che miglioreranno notevolmente jedec e la banda passante delle DDR5 così superiore a quella delle DDR4 ,
E questo chi l'avrebbe mai negato? Ma lo leggi quello che scrive la gente, o rispondi sempre ad muzzum, soltanto perché hai una tastiera davanti?

Prima ho portato anche un link a memorie DDR4 a 5000Mhz: quindi ben oltre le specifiche del JEDEC! :read:
avrà grande importanza nel dare maggiori prestazioni a giochi e applicativi sempre più pesanti altrimenti non ci saremmo mossi dalle DDR 400 con CAS 1.5 :D
Ma va: chi l'avrebbe mai detto...
Come pure arriverà il momento, molto presto, in cui avere più core farà sempre più la differenza perchè è una strada sulla quale intel sta (in)seguendo AMD.
Addirittura molto presto. Sì sì, come no. E poi sarei io il divino Otelma che fa previsioni strampalate. :rotfl:

Sono più di 20 (VEN-TI!) anni che Intel ha introdotto il multithreading hardware col primo Pentium 4, e si vede proprio quanto software sia stato scritto per sfruttare più di un core/thread...

Ma qui abbiamo davanti il prossimo premio Turing, a quanto pare: "molto presto" ne arriveranno a vagonate. L'ha detto lui, e dobbiamo crederci... :asd:
Ci provi sempre ma il bello è che ti si smonta sempre in 2 secondi :asd: :sofico:
Nella tua fervida immaginazione. La realtà rimane scolpita nei commenti, dove non solo vengono fatte a pezzi le sciocchezze che scrivi dalla nullità quale hai dimostrato di essere, ma dalle quali tenti disperatamente di fuggire per non dover rispondere.

Ma tanto io te lo rinfaccio lo stesso, e ti chiedo di nuovo: a cosa sarebbe dovuto il 36% di prestazioni in più delle DDR5 a parità dei frequenza? Alle latenze inferiori, come hai assurdamente affermato finora?

Ce le fai a rispondere a questa TUA affermazione, o sei come Fonzie che non vuol ammettere di aver sbagliato? Tanto cercare di scappare è perfettamente inutile.
Sottolineo poi quanto tu sia ridicolo a consigliare, anche a chi può aspettare e non ha urgenze,
Ed ecco nuovamente le mistificazioni, da bugiardo matricolato quale hai ampiamente dimostrato di essere: MAI DETTO NULLA DEL GENERE! :rolleyes:

Link e quote, caro il mio pubblico mentitore!
rocket lake a 5 mesi dall'uscita di alder lake (prima architettura completamente progettata da Keller del cui genio intel aveva evidentemente bisogno):
LOL. Ma in questo thread non si finisce mai con le chicche. :rotfl:

Dove l'hai letto che Alder Lake sarebbe completamente progettata da Keller? Fonte?
sarebbe stato come consigliare di prendere l'ultimo pentium 4 a 5 mesi dall'uscita della prima architettura core :asd: :asd: semplicemente, una volta di più, ri-di-co-lo :asd:
Ridicolo è chi arrivato a tali livelli di disperazione da essere costretto a inventarsi delle menzogne di sana pianta, visto che non ha argomenti per sostenere una discussione.

Non soltanto sei una completa nullità a livello tecnico, ma sei pure un vile mentitore: non sai cosa siano la dignità e l'onestà intellettuale...
ma certo...
Sti proci 11xxx nascono già morti prima ancora di apparire sul mercato. :)


E cmq vale sempre il solito discorso: al giusto prezzo, tutto è buono.

Anche a 250W!!!! :asd:



PS. il fatto che abbiano consumi così stellari è la cosa che mi fa' più ridere di tutte... :rotfl:
Ci mancava pure il compagno di merende... :rolleyes:
Ahah questa è buona :rotfl:
Mi sono letteralmente basato sulle informazione che tu stesso hai riportato e più volte ribadito nei tuoi post precedenti e te ne esci con questa frecciatina gratuita? :doh:
Mi permetto di farti notare che mi avevi accusato di dire falsità.
Grazie per le informazioni, non si capiva dall'articolo di anandtech in effetti. Anche loro perdono colpi a quanto pare, vedi anche l'errore nella definizione di CAS.
In effetti sono rimasto deluso: non è da loro.
In ogni caso il discorso sulle prestazioni non è limitato alla sola latenza,
Assolutamente. Infatti non ho avuto nulla da dire sull'aumento di banda e sulla migliore efficienza.

Ma, considerate le implicazioni, ho fatto notare che la situazione con la latenze non fosse messa bene.
se anche ci sarà un peggioramente del 10% dall'altro lato ci sarà un miglioramento superiore al 100% sulla banda effettiva e questo farà senzaltro bene ai processori con tanti core e alle soluzioni con grafica integrata.
Come ho scritto prima: "le DDR5 porteranno ad un miglioramento delle prestazioni sin da subito, se è vero che le latenze saranno simili".
Se invece non sarà così va da sè che le DDR4 potrebbero andare meglio in alcune situazioni di nicchia dove la banda non è importante e la latenza è tutto.
Esattamente. Ci sono pro e contro, come sempre, ma dipende tutto dall'ambito applicativo.
Per l'uso che ne faccio io del PC l'aumento di banda sarà manna dal cielo, quindi non vedo l'ora di passare ad una piattaforma con DDR5.
Abbiamo esigenze diverse. Prediligo le latenze minori, perché uso per lo più applicazioni single core / thread. Anche le applicazioni multicore che uso sono più sensibili alla latenza che alla banda.
Mi spiace ma questo è semplicemente falso, le DDR5 infatti quadruplicano la capacità massima di ciascun modulo.
https://www.techradar.com/news/jedec-finalizes-ddr5-standard-terabyte-sized-ddr5-6400-modules-incoming
OK, ho capito adesso a cosa ti riferivi, ed è corretto.

maxsin72
04-02-2021, 09:36
No, mi alzo più o meno alla stessa ora, solo che a differenza tua non riporto link ad muzzum senza nemmeno averli letti, ma riporto anche dati, fatti e valutazioni: tutta roba che porta via tempo.


Falso, sei tu che scrivi ad muzzum: dopo 2 anni aspetto ancora i timings sui tuoi cari test spazzatura di anandtech


Tu scrivi e liquidi velocemente le cose scritte dagli altri perché sei privo di contenuti, e quindi te ne esci in pochi minuti, anche se a volte editi i post aggiungendo altra roba, perché nel frattempo hai "pensato bene" di aggiungere altre sciocchezze e mistificazioni, visto che, per l'appunto, non hai contenuti e non ti rimane altro da fare per allungare il brodo.

Bla bla perepeè qua qua, smettila di fare aria digitando sulla tastiera :asd:


Sono dati del JEDEC, non miei, e quindi non sono falsi. Non sai più a cos'altro aggrapparti ormai...

Mai messo in discussione le specifiche jedec, metti il link di dove lo avrei fatto, evidentemente quello che non leggi sei tu

Il link l'hai fornito tu stesso, e chiunque può andare trovare quei dati e verificare come stiano le cose.

Fatti curare da uno bravo: io non ho mai fornito nessunl ink a supporto delle corbellerie che dici eppure continui ad insistere, fai il santo favore di mettere il link dove avrei fatto una cosa del genere che poi ridiamo tutti


Certo, la cosa surreale è che proprio tu non sai nemmeno di cosa parli. :asd: Ma ormai con te è una prassi, visto che, come dicevo, butti link ad muzzum, senza nemmeno conoscerne il contenuto...

Quello che fai di solito tu, vedi i famosi test anandtech senza i parametri con cui sono stati fatti

Certo, certo: sono errori. Manda pure una mail al JEDEC e digli che si sono sbagliati. :rotfl:

Mai scritta una cosa del genere metti il link di dove lo avrei fatto, sei tu che ti basi sullo standard jedec per affermare che le ddr5 avranno latenze peggiori quando invece non sappiamo come saranno i prodotti più spinti che usciranno sul mercato, insomma la solita vagonata di falsità :asd:


E questo chi l'avrebbe mai negato? Ma lo leggi quello che scrive la gente, o rispondi sempre ad muzzum, soltanto perché hai una tastiera davanti?

Allora se non lo neghi non puoi nemmeno negare chec i sarà la possibilità che escano ddr5 spinte fuori dagli standard jedec che magari avranno latenze migliori o uguali alle migliori ddr4 e quindi mi confermi di aver detto un mare di corbellerie

Prima ho portato anche un link a memorie DDR4 a 5000Mhz: quindi ben oltre le specifiche del JEDEC! :read:

Come ci saranno anche per le ddr5, quindi? :asd:


Ma va: chi l'avrebbe mai detto...

Quindi mi dai ragione, grazie :asd:


Addirittura molto presto. Sì sì, come no. E poi sarei io il divino Otelma che fa previsioni strampalate. :rotfl:

Ps5 e xbox hanno 8 core-16 thread che verranno finalmente sfruttati ed è quindi lecito attendersi che lo stesso avvenga sui pc visto che moltissimi giochi saranno poco più di un porting, altrimenti vorrò dire che Sony e Microsoft avranno dotato di costoso hardware in eccesso le loro console perchè lo dice un signor nessuno come te:asd:

Sono più di 20 (VEN-TI!) anni che Intel ha introdotto il multithreading hardware col primo Pentium 4, e si vede proprio quanto software sia stato scritto per sfruttare più di un core/thread...
Ma qui abbiamo davanti il prossimo premio Turing, a quanto pare: "molto presto" ne arriveranno a vagonate. L'ha detto lui, e dobbiamo crederci... :asd:

Vedi sopra :asd:


Nella tua fervida immaginazione. La realtà rimane scolpita nei commenti, dove non solo vengono fatte a pezzi le sciocchezze che scrivi dalla nullità quale hai dimostrato di essere, ma dalle quali tenti disperatamente di fuggire per non dover rispondere.

Esatto, tutto rimane scritto e ti confermo che sei ri-di-co-lo :asd:

Ma tanto io te lo rinfaccio lo stesso, e ti chiedo di nuovo: a cosa sarebbe dovuto il 36% di prestazioni in più delle DDR5 a parità dei frequenza? Alle latenze inferiori, come hai assurdamente affermato finora?
Ce le fai a rispondere a questa TUA affermazione, o sei come Fonzie che non vuol ammettere di aver sbagliato? Tanto cercare di scappare è perfettamente inutile.


E dimostri di non saper leggere, ho già risposto, inizia a rispondere tu delle tue corbellerie di cui strasborda l'intero forum :asd:


Ed ecco nuovamente le mistificazioni, da bugiardo matricolato quale hai ampiamente dimostrato di essere: MAI DETTO NULLA DEL GENERE! :rolleyes:

Link e quote, caro il mio pubblico mentitore!


Ma quanto è bello smontarti in 2 secondi , mi sto rotolando dalle risate perchè il bello è che ci credi veramente, eccoti accontentato:



Irrilevante. Hai tirato in ballo Zen4 in un discorso dove è sostanzialmente inutile. Perché se il principio è che uno deve aspettare perché in futuro ci sarà di meglio, allora non comprerà mai.

Nella realtà se qualcuno deve comprare un PC, a breve si troverà la possibilità di RocketLake fra le scelte. E non Zen4. Dunque i confronti li farà con l'offerta corrente di AMD e di Intel. E RocketLake potrà tranquillamente dire la sua, come già spiegato.

In realtà ancora più a breve (probabilmente settembre) ci sarà anche alder lake, beata ignoranza!


LOL. Ma in questo thread non si finisce mai con le chicche. :rotfl:

Dove l'hai letto che Alder Lake sarebbe completamente progettata da Keller? Fonte?

L'unico che scrive chicche e non fornisce i link (vedi i famosi timing di Zen) sei tu :asd: eccoti le fonti che potevi trovare molto facilmente anche tu caro il mio rambo:
https://tech4gamers.com/the-first-intel-core-cpus-designed-by-jim-keller-are-the-alder-lake-s-10nm/
https://hardwaresfera.com/en/noticias/hardware/intel-alder-lake-jim-keller-diseno/
https://elchapuzasinformatico.com/2021/01/jim-keller-amd-zen-intel-alder-lake-recala-en-la-start-up-tenstorrent-como-presidente-y-jefe-de-tecnologia/


Ridicolo è chi arrivato a tali livelli di disperazione da essere costretto a inventarsi delle menzogne di sana pianta, visto che non ha argomenti per sostenere una discussione.

Non soltanto sei una completa nullità a livello tecnico, ma sei pure un vile mentitore: non sai cosa siano la dignità e l'onestà intellettuale...

Qui l'unico disperato sei tu: valanghe di insulti perchè non hai argomenti :asd:

Ci mancava pure il compagno di merende... :rolleyes:


E certo, chi non crede alle tue corbellerie viene automaticamente investito dalla tua macchina del fango



OK, ho capito adesso a cosa ti riferivi, ed è corretto.

Avresti dovuto scrivere scusami, ho sbagliato e ho scritto una corbelleria perchè sono una nullità ignorante :asd: Ah ma certo tu non sbagli mai, leggi quello che scrivi prima di pubblicare, impegni tempo e le marmotte incartano la cioccolata :asd:

k0nt3
04-02-2021, 12:59
Mi permetto di farti notare che mi avevi accusato di dire falsità.

La mia non era un'accusa, ma una mera deduzione logica basata sull'assunto che i dati di anandtech fossero corretti (cosa che assumevi anche te prima di scoprire il contrario).
Se prima dici che le latenze delle ddr5 saranno nettamente superiori (nel senso di peggiori ovviamente) e poi dici che invece sono uguali, direi che una delle due affermazioni è falsa se la logica non è un'opinione.
Spero non ci sia bisogno di quotare i singoli commenti, dovresti sapere meglio di me quello che hai scritto nelle pagine precedenti.

In effetti sono rimasto deluso: non è da loro.

Assolutamente. Infatti non ho avuto nulla da dire sull'aumento di banda e sulla migliore efficienza.

Ma, considerate le implicazioni, ho fatto notare che la situazione con la latenze non fosse messa bene.

Esattamente. Ci sono pro e contro, come sempre, ma dipende tutto dall'ambito applicativo.

Abbiamo esigenze diverse. Prediligo le latenze minori, perché uso per lo più applicazioni single core / thread. Anche le applicazioni multicore che uso sono più sensibili alla latenza che alla banda.

OK, ho capito adesso a cosa ti riferivi, ed è corretto.
Abbiamo esigenze diverse, ma è innegabile che la direzione del mercato sia quella di cpu con elevato numero di core (parlo anche di server), quindi le ddr5 servono come risposta per ridurre il collo di bottiglia che attualmente costituiscono le ddr4.
Come tutte le nuove tecnologie ci metterà un pò di tempo a maturare, e fino a quel momento chi ha esigenze specifiche sulle latenze può continuare a usare le ddr4, che credo continueranno ad essere supportate anche sulle nuove piattaforme per un pò.

Ps. Giusto per capire, non usi compilatori? Di solito beneficiano parecchio con l'aumento del numero di core

cdimauro
05-02-2021, 07:42
Falso, sei tu che scrivi ad muzzum:
Intanto complimenti: hai scritto la prima volta il commento di soli insulti e ridicole prese in giro, ma dopo "soltanto" 7 (SETTE) ore l'hai editato per aggiungere altra roba con richieste di mettere link e quote. Bravo, stai migliorando... :asd:

Per il resto e rispondenti a questa frase, lo specchio riflesso era in uso alle elementari.
dopo 2 anni aspetto ancora i timings sui tuoi cari test spazzatura di anandtech
Ti sono già stati forniti, e li hai riportati persino tu: se non te lo ricordo (o ci fai) è un soltanto un problema tuo.

Visto che piangi da un pezzo, eccoteli qui: 12-12-12-28.
Bla bla perepeè qua qua, smettila di fare aria digitando sulla tastiera :asd:
Idem come sopra: lo specchio riflesso era in uso alle elementari.

Sei talmente messo male e del tutto privo di contenuti che non sei in grado d'inventarti qualcosa di nuovo, e devi riciclare malamente le battute degli altri...
Mai messo in discussione le specifiche jedec, metti il link di dove lo avrei fatto, evidentemente quello che non leggi sei tu
In questo contesto ho sempre parlato degli standard JEDEC, come si può facilmente risalire leggendo sequenzialmente i precedenti messaggi e relativamente a questa parte della discussione, per cui se scrivi questo (https://www.hwupgrade.it/forum/showpost.php?p=47259971&postcount=123):
"Affermare che le DDR5 all'uscita avranno latenze molto più alte delle DDR4, prendendo come prova gli standard jedec, è semplicemente falso, sono solo tue speculazioni prive di ogni fondamento"
o non hai capito quello di cui si stava parlando (e la cosa non mi meraviglierebbe affatto), o sei in perfetta malafede (e anche questo non sarebbe una novità, visto che sei un bugiardo seriale).

Ma quale che sia la verità, rimangono in ogni caso problemi tuoi.
Fatti curare da uno bravo:
E visto che non ti fai mancare niente, adesso arrivano pure gli insulti sul piano personale: complimenti.

Ottimo "strumento dialettico". Ma d'altra parte visto che sei una nullità non hai altro a cui aggrapparti.
io non ho mai fornito nessunl ink a supporto delle corbellerie che dici eppure continui ad insistere, fai il santo favore di mettere il link dove avrei fatto una cosa del genere che poi ridiamo tutti
Eccolo qui il link, Pico della Mirandola mancato: https://www.hwupgrade.it/forum/showthread.php?t=2883773&page=2

E non ti fermare ai primi commenti.
Quello che fai di solito tu, vedi i famosi test anandtech senza i parametri con cui sono stati fatti
Vedi sopra: nella discussione sono stati forniti, e adesso te li pure riportati. D'altra parte se già non ricordi quello che hai scritto in nemmeno 24 ore, figuriamoci se riesci a farlo con roba scritto qualche anno fa...
Mai scritta una cosa del genere metti il link di dove lo avrei fatto,
Eccolo: https://www.hwupgrade.it/forum/showpost.php?p=47259971&postcount=123
sei tu che ti basi sullo standard jedec per affermare che le ddr5 avranno latenze peggiori
Perché, di cosa stavo parlando secondo te? Dello standard JEDEC, per l'appunto. Da cui la mia frase: se pensi che si siano sbagliati, scrivigli.
quando invece non sappiamo come saranno i prodotti più spinti che usciranno sul mercato, insomma la solita vagonata di falsità :asd:
Adesso stai mischiando le due cose, come fai puntualmente. Ma è un ALTRO discorso, che non ho mai negato, e che attiene anche alle precedenti memorie, per l'appunto.
Allora se non lo neghi non puoi nemmeno negare chec i sarà la possibilità che escano ddr5 spinte fuori dagli standard jedec che magari avranno latenze migliori o uguali alle migliori ddr4
Vedi sopra? Quando mai l'avrei negato? Ma era un ALTRO discorso, per l'appunto, e nemmeno sappiamo al momento che tipo di memorie arriveranno e i limiti che avranno.
e quindi mi confermi di aver detto un mare di corbellerie
No, qui tu confermi soltanto di mischiare mele con pere, perché o non sei in grado di capire cosa viene scritto nella discussione, o lo fai apposta. O tutti e due. Ma rimani pur sempre un falsario e un mistificatore.
Come ci saranno anche per le ddr5, quindi? :asd:
Quindi il discorso che facevi NON era relativo alle sole DDR5.
Quindi mi dai ragione, grazie :asd:
E perché non dovrei farlo, quando scrivi una cosa ovvia e scontata.

Io ti contesto, invece, quando scrivi colossali sciocchezze o cerchi di mettermi in bocca cosa che non mi sono mai sognato di dire.
Ps5 e xbox hanno 8 core-16 thread che verranno finalmente sfruttati ed è quindi lecito attendersi che lo stesso avvenga sui pc visto che moltissimi giochi saranno poco più di un porting, altrimenti vorrò dire che Sony e Microsoft avranno dotato di costoso hardware in eccesso le loro console
Ti svelo un segreto: persino la PS2 aveva un processore con due core vettoriali addizionali, ma la maggior parte del giochi ne ha sfruttato soltanto uno.
La PS3 aveva un processore con 1 core/2 thread hardware, e ben 7 core addizionali. E la XBox360 3 core/6 thread hardware. Quanti giochi li hanno sfruttati tutti?
Infine la PS4 e la XBox4 non solo avevano già 8 core, ma erano persino core x86: quanti loro porting su PC hai visto che sono in grado di sfruttare 8 (o più core)?
perchè lo dice un signor nessuno come te:asd:
Soltanto perché lo dici tu? Ti credo sulla parola, sai.

Intanto io, al contrario di quel che sostieni, sono qualcuno, che ha fatto e sta facendo strada, e alcuni miei lavori sono diventati un riferimento in letteratura.

Tu, invece, sei un'anonima nullità senza arte né parte che nella vita non ha mai fatto (né mai potrà fare per oggettiva incapacità) nulla, e che non verrà mai ricordato per niente. Zero sei e zero rimarrai.
Vedi sopra :asd:
Già risposto, ma più che altro l'ha fatto la storia per me.
Esatto, tutto rimane scritto e ti confermo che sei ri-di-co-lo :asd:
Se lo confermi tu posso stare tranquillo, sai.

Ma preferisco che siano gli altri a giudicare.
E dimostri di non saper leggere, ho già risposto, inizia a rispondere tu delle tue corbellerie di cui strasborda l'intero forum :asd:
Non hai affatto risposto: dove hai dimostrato che il 36% di prestazioni in più sarebbero dovute alle tue presunte minori latenze? Quote e link, please.

E per il resto ho già risposto a tutto, portando link e quote.
Ma quanto è bello smontarti in 2 secondi ,
Nella tua fervida immaginazione, ma non nella realtà, come dimostrano i commenti-
mi sto rotolando dalle risate perchè il bello è che ci credi veramente, eccoti accontentato:
Che non ha nulla a che vedere con quanto mi volevi appioppare:
"Sottolineo poi quanto tu sia ridicolo a consigliare, anche a chi può aspettare e non ha urgenze"
infatti avevo scritto:
"Nella realtà se qualcuno deve comprare un PC, a breve si troverà la possibilità di RocketLake fra le scelte"

Mi sono permesso di evidenziare la parolina che dimostra la tua mistificazione.
In realtà ancora più a breve (probabilmente settembre) ci sarà anche alder lake, beata ignoranza!
E questo quand'è che l'avrei negato? Ormai spari menzogne a ruota libera, da bugiardo seriale quale sei.
L'unico che scrive chicche e non fornisce i link (vedi i famosi timing di Zen) sei tu :asd: eccoti le fonti che potevi trovare molto facilmente anche tu caro il mio rambo:
https://tech4gamers.com/the-first-intel-core-cpus-designed-by-jim-keller-are-the-alder-lake-s-10nm/
https://hardwaresfera.com/en/noticias/hardware/intel-alder-lake-jim-keller-diseno/
https://elchapuzasinformatico.com/2021/01/jim-keller-amd-zen-intel-alder-lake-recala-en-la-start-up-tenstorrent-como-presidente-y-jefe-de-tecnologia/
A parte il fatto che l'ultimo link non c'entra nulla con quello che avevi scritto (il che dimostra ancora una volta che nemmeno leggi i link che posti), dove starebbero le fonti nei primi due? Sono cose semplicemente scritte dagli articolisti. Non esiste NESSUNA fonte allegata.

Al solito ti sei fermato al titolo, senza nemmeno controllare il contenuto. Sei un caso disperato...
Qui l'unico disperato sei tu: valanghe di insulti perchè non hai argomenti :asd:
Ma se non fai che scrivere sciocchezze a raffica. Comunque è tutto scritto e chiunque può verificare come stiano le cose.
E certo, chi non crede alle tue corbellerie
Lo specchio riflesso era in uso alle elementare come già detto.
viene automaticamente investito dalla tua macchina del fango
Ci viene investito chi scrive sciocchezze.
Avresti dovuto scrivere scusami, ho sbagliato e ho scritto una corbelleria perchè sono una nullità ignorante :asd: Ah ma certo tu non sbagli mai, leggi quello che scrivi prima di pubblicare, impegni tempo e le marmotte incartano la cioccolata :asd:
A differenza tua leggo, capisco, e soprattutto ho un certo bagaglio culturale, e quella era un'interpretazione perfettamente lecita, visto che si parlava di densità. Quindi non c'è stato alcun errore. Una volta chiarito il contesto, non ho avuto problemi a rettificare ed esprimere la mia opinione in merito.

Di te invece aspettiamo ancora la dimostrazione di quel 36% di prestazioni migliori che sarebbero dovute a presunte latenze inferiori. Ma siccome sai di aver detto una minchiata col botto, ovviamente non risponderai mai e cercherai di far calare la questione (cosa perfettamente inutile).
La mia non era un'accusa, ma una mera deduzione logica basata sull'assunto che i dati di anandtech fossero corretti (cosa che assumevi anche te prima di scoprire il contrario).
Se prima dici che le latenze delle ddr5 saranno nettamente superiori (nel senso di peggiori ovviamente) e poi dici che invece sono uguali, direi che una delle due affermazioni è falsa se la logica non è un'opinione.
Spero non ci sia bisogno di quotare i singoli commenti, dovresti sapere meglio di me quello che hai scritto nelle pagine precedenti.
I singoli commenti sono importanti per definire il contesto e come si sia evoluta la discussione su questo punto.

Quando ho scritto quell'affermazione non ho riportato alcun link. Ho soltanto riportato quello che ricordavo, di quel che avevo letto sulle DDR5, quando sono venuti fuori notizie e documentazione in merito. Quindi era l'idea che m'ero fatto.

Soltanto 6 giorni dopo, visto l'incalzare del thread, ho cercato qualche articolo e ho beccato quello di AnandTech, che ho riportato. E sono andato a colpo sicuro, trattandosi di AnandTech. L'articolo confermava alcune cose che avevo detto (ossia che al raddoppio del clock la latenza era aumentata), ma i valori di latenza riportati non confermavano il distacco di cui avevo parlato prima.

Infine, dopo l'ultima discussione, ho cercato altro materiale e beccando la tabella delle DDR4 è venuta fuori la conferma di quel che dicevo, e quindi l'errore di AnandTech.

Questo per ricostruire velocemente il contesto e la storia della discussione su questo punto.
Abbiamo esigenze diverse, ma è innegabile che la direzione del mercato sia quella di cpu con elevato numero di core (parlo anche di server), quindi le ddr5 servono come risposta per ridurre il collo di bottiglia che attualmente costituiscono le ddr4.
Come tutte le nuove tecnologie ci metterà un pò di tempo a maturare, e fino a quel momento chi ha esigenze specifiche sulle latenze può continuare a usare le ddr4, che credo continueranno ad essere supportate anche sulle nuove piattaforme per un pò.
Assolutamente nulla da dire su questo.
Ps. Giusto per capire, non usi compilatori? Di solito beneficiano parecchio con l'aumento del numero di core
Raramente uso compilatori C/C++. Ecco perché normalmente mi basterebbero soltanto un paio di core, ma ad alte prestazioni, perché le applicazioni che uso sono per lo più single thread.

Ma anche usando compilatore C/C++, non faccio molto uso di core, perché non sono progetti molto grossi.

Le uniche due volte in cui mi sarebbero davvero serviti parecchi core è quando ho compilato un cross-compilatore GCC, ma soprattutto quando ho compilato LLVM. Lì si sentiva, eccome, la mancanza di core addizionali.

Ma c'è da dire che in genere questa enorme potenza di calcolo serve soltanto per la prima compilazione. Poi quando modifichi soltanto alcuni file, se ricompili si fa molto, ma molto velocemente senza richiedere core in più.

Quindi, anche da programmatore, ho esigenze diverse, come vedi.

P.S. Non ho tempo di rileggere...

maxsin72
05-02-2021, 09:40
Intanto complimenti: hai scritto la prima volta il commento di soli insulti e ridicole prese in giro, ma dopo "soltanto" 7 (SETTE) ore l'hai editato per aggiungere altra roba con richieste di mettere link e quote. Bravo, stai migliorando... :asd:

Per il resto e rispondenti a questa frase, lo specchio riflesso era in uso alle elementari.

Sei un troll seriale, il forum è pieno di persone con cui hai mandato in vacca intere discussioni, altro che specchio riflesso. Inoltre ho editato in tranquillità perché so che tanto la tua ora X sono le 6/7 del giorno dopo :asd:

Ti sono già stati forniti, e li hai riportati persino tu: se non te lo ricordo (o ci fai) è un soltanto un problema tuo.
Visto che piangi da un pezzo, eccoteli qui: 12-12-12-28.

Che strano, manca il link, ma ci sei o ci fai tu ? :asd:



Idem come sopra: lo specchio riflesso era in uso alle elementari.

Livello a cui sei rimasto come da ampie evidenze :asd:


Sei talmente messo male e del tutto privo di contenuti che non sei in grado d'inventarti qualcosa di nuovo, e devi riciclare malamente le battute degli altri...

Ma sei un bruto, mi ferisci nell’orgoglio :asd:


In questo contesto ho sempre parlato degli standard JEDEC, come si può facilmente risalire leggendo sequenzialmente i precedenti messaggi e relativamente a questa parte della discussione, per cui se scrivi questo (https://www.hwupgrade.it/forum/showpost.php?p=47259971&postcount=123):
"Affermare che le DDR5 all'uscita avranno latenze molto più alte delle DDR4, prendendo come prova gli standard jedec, è semplicemente falso, sono solo tue speculazioni prive di ogni fondamento"
o non hai capito quello di cui si stava parlando (e la cosa non mi meraviglierebbe affatto), o sei in perfetta malafede (e anche questo non sarebbe una novità, visto che sei un bugiardo seriale).
Ma quale che sia la verità, rimangono in ogni caso problemi tuoi.


Sei tu che sei in malafede e ti arrampichi sugli specchi perché sei partito per partito preso dal fatto che le ddr5 avranno latenze molto peggiori, cosa che c’è solo nei tuoi sogni



E visto che non ti fai mancare niente, adesso arrivano pure gli insulti sul piano personale: complimenti.

Ottimo "strumento dialettico". Ma d'altra parte visto che sei una nullità non hai altro a cui aggrapparti.

Sto solo rispedendo al mittente i suoi insulti, ma il poverino frigna come un bambino


Eccolo qui il link, Pico della Mirandola mancato: https://www.hwupgrade.it/forum/showthread.php?t=2883773&page=2

E non ti fermare ai primi commenti.

Genio della lampada, mi riferivo ai timings di Zen usati nei tuoi test spazzatura di anandtech, ripigliati




Vedi sopra: nella discussione sono stati forniti, e adesso te li pure riportati. D'altra parte se già non ricordi quello che hai scritto in nemmeno 24 ore, figuriamoci se riesci a farlo con roba scritto qualche anno fa...
Eccolo: https://www.hwupgrade.it/forum/showpost.php?p=47259971&postcount=123


Vedi sopra, non hai messo il link, perdiamo pezzi di continuo , eh? Vedi una volta per tutte di quotare la parte in questione come ho fatto io :asd:


Perché, di cosa stavo parlando secondo te? Dello standard JEDEC, per l'appunto. Da cui la mia frase: se pensi che si siano sbagliati, scrivigli.

Ancora? Ma sei duro di comprendonio, lo standard jedec non rappresenta quanto potranno essere spinti i prodotti migliori quando usciranno sul mercato


Adesso stai mischiando le due cose, come fai puntualmente. Ma è un ALTRO discorso, che non ho mai negato, e che attiene anche alle precedenti memorie, per l'appunto.

Vedi sopra? Quando mai l'avrei negato? Ma era un ALTRO discorso, per l'appunto, e nemmeno sappiamo al momento che tipo di memorie arriveranno e i limiti che avranno.
No, qui tu confermi soltanto di mischiare mele con pere, perché o non sei in grado di capire cosa viene scritto nella discussione, o lo fai apposta. O tutti e due. Ma rimani pur sempre un falsario e un mistificatore.


E niente, non riesci proprio a capire e quindi insulti gratuitamente


Quindi il discorso che facevi NON era relativo alle sole DDR5.

E perché non dovrei farlo, quando scrivi una cosa ovvia e scontata.

Io ti contesto, invece, quando scrivi colossali sciocchezze o cerchi di mettermi in bocca cosa che non mi sono mai sognato di dire.

Ti vedo bollito, l’affermazione che ti contesto è che le ddr5 avranno latenze più alte delle ddr4 cosa che sapremo solo quando potremo vedere cosa offrirà il mercato oltre allo standard jedec, ma continui a non capire


Ti svelo un segreto: persino la PS2 aveva un processore con due core vettoriali addizionali, ma la maggior parte del giochi ne ha sfruttato soltanto uno.
La PS3 aveva un processore con 1 core/2 thread hardware, e ben 7 core addizionali. E la XBox360 3 core/6 thread hardware. Quanti giochi li hanno sfruttati tutti?
Infine la PS4 e la XBox4 non solo avevano già 8 core, ma erano persino core x86: quanti loro porting su PC hai visto che sono in grado di sfruttare 8 (o più core)?


Ti svelo un segreto: le macchine di cui parli avevano hardware diversi anche se x486, invece ora hanno lo stesso identico hardware che è anche l’hardware che c’è su molti pc


Soltanto perché lo dici tu? Ti credo sulla parola, sai.

Intanto io, al contrario di quel che sostieni, sono qualcuno, che ha fatto e sta facendo strada, e alcuni miei lavori sono diventati Tu, invece, sei un'anonima nullità senza arte né parte che nella vita non ha mai fatto (né mai potrà fare per oggettiva incapacità) nulla, e che non verrà mai ricordato per niente. Zero sei e zero rimarrai. un riferimento in letteratura.


Sarà pure come dici, ma in questo spazio, per come ti poni, sei solo “qualcuno”che fatto e continua a fare una figura miserrima . Mi fai rotolare dalle risate quando scrivi “zero,sei e zero rimarrai”, nemmeno mi conosci ma, pur non conoscendoti nemmeno io, vedendo il livore di quello che scrivi, mi rotolo dalle risate pensando alla tua faccia deformata dall’odio che trasmetti dalla tua tastiera :asd:


Già risposto, ma più che altro l'ha fatto la storia per me.

Se lo confermi tu posso stare tranquillo, sai.

Ma preferisco che siano gli altri a giudicare.

Bla bla bla perepe qua qua :asd:


Non hai affatto risposto: dove hai dimostrato che il 36% di prestazioni in più sarebbero dovute alle tue presunte minori latenze? Quote e link, please.

Ho risposto eccome e k0nt3 ha anche quotato la risposta, quindi sei riuscito a non leggere una cosa scritta per ben due volte, sei proprio stordito :asd:


E per il resto ho già risposto a tutto, portando link e quote.

Nella tua fervida immaginazione, ma non nella realtà, come dimostrano i commenti-

Non hai risposto a nulla, vedi sopra


Che non ha nulla a che vedere con quanto mi volevi appioppare:
"Sottolineo poi quanto tu sia ridicolo a consigliare, anche a chi può aspettare e non ha urgenze"
infatti avevo scritto:
"Nella realtà se qualcuno deve comprare un PC, a breve si troverà la possibilità di RocketLake fra le scelte"

Mi sono permesso di evidenziare la parolina che dimostra la tua mistificazione.

Non mistifico nulla e confermo quanto detto infatti hai anche scritto (ignorando da ignorante alder lake):
Avevo chiesto un'altra cosa...


Irrilevante. Hai tirato in ballo Zen4 in un discorso dove è sostanzialmente inutile. Perché se il principio è che uno deve aspettare perché in futuro ci sarà di meglio, allora non comprerà mai.

Nella realtà se qualcuno deve comprare un PC, a breve si troverà la possibilità di RocketLake fra le scelte. E non Zen4. Dunque i confronti li farà con l'offerta corrente di AMD e di Intel. E RocketLake potrà tranquillamente dire la sua, come già spiegato.


E questo quand'è che l'avrei negato? Ormai spari menzogne a ruota libera, da bugiardo seriale quale sei.

Non sono io bugiardo, sei tu che non sai nemmeno quello che scrivi


A parte il fatto che l'ultimo link non c'entra nulla con quello che avevi scritto (il che dimostra ancora una volta che nemmeno leggi i link che posti), dove starebbero le fonti nei primi due? Sono cose semplicemente scritte dagli articolisti. Non esiste NESSUNA fonte allegata.
Al solito ti sei fermato al titolo, senza nemmeno controllare il contenuto. Sei un caso disperato...


Mi spiace ma diventa difficile riportare le fonti delle fonti delle fonti, e comunque è vero che nel terzo articolo non si parla nello specifico ma nel titolo a keller viene attribuito sia zen che alder lake, sei hai fonti che riportano il contrario portale e smettila di blaterare



Ma se non fai che scrivere sciocchezze a raffica. Comunque è tutto scritto e chiunque può verificare come stiano le cose.

Lo specchio riflesso era in uso alle elementare come già detto.

E vai che ritorna il bimbo delle elementari


Ci viene investito chi scrive sciocchezze.

Quindi anche tu


A differenza tua leggo, capisco, e soprattutto ho un certo bagaglio culturale, e quella era un'interpretazione perfettamente lecita, visto che si parlava di densità. Quindi non c'è stato alcun errore. Una volta chiarito il contesto, non ho avuto problemi a rettificare ed esprimere la mia opinione in merito.
Di te invece aspettiamo ancora la dimostrazione di quel 36% di prestazioni migliori che sarebbero dovute a presunte latenze inferiori. Ma siccome sai di aver detto una minchiata col botto, ovviamente non risponderai mai e cercherai di far calare la questione (cosa perfettamente inutile).


Anche io nel mio caso ho fatto lo stesso ma non lo hai letto caro il mio incapace borioso, k0nt3 invece ha letto e mi ha anche risposto. Tu invece hai detto una cosa falsa, sbagliata e da ignorante ma cerchi di glissare :asd:




I singoli commenti sono importanti per definire il contesto e come si sia evoluta la discussione su questo punto.

Quando ho scritto quell'affermazione non ho riportato alcun link. Ho soltanto riportato quello che ricordavo, di quel che avevo letto sulle DDR5, quando sono venuti fuori notizie e documentazione in merito. Quindi era l'idea che m'ero fatto.

Soltanto 6 giorni dopo, visto l'incalzare del thread, ho cercato qualche articolo e ho beccato quello di AnandTech, che ho riportato. E sono andato a colpo sicuro, trattandosi di AnandTech. L'articolo confermava alcune cose che avevo detto (ossia che al raddoppio del clock la latenza era aumentata), ma i valori di latenza riportati non confermavano il distacco di cui avevo parlato prima.

Infine, dopo l'ultima discussione, ho cercato altro materiale e beccando la tabella delle DDR4 è venuta fuori la conferma di quel che dicevo, e quindi l'errore di AnandTech.

Questo per ricostruire velocemente il contesto e la storia della discussione su questo punto.


Tutta questa pappardella per girare intorno al fatto che hai scritto corbellerie? Ma che figuracce che fai cesare :asd:

cdimauro
06-02-2021, 08:03
Sei un troll seriale,
Non conosci nemmeno la definizione di troll, ma non c'erano dubbi in merito.
il forum è pieno di persone con cui hai mandato in vacca intere discussioni,
Non è che se lo dici tu diventa automaticamente vero. Tutt'altro (specialmente detto da te).

Contano i FATTI, ossia come siano svolte le discussioni e quali contributi siano stati portati.
altro che specchio riflesso. Inoltre ho editato in tranquillità perché so che tanto la tua ora X sono le 6/7 del giorno dopo :asd:
Tranquillo: prenditi pure tutto il tempo per editare. Si vede che ti ci vuole...
Che strano, manca il link, ma ci sei o ci fai tu ? :asd:
Il link l'ho fornito, subito dopo, ma se nemmeno leggi non è certo un problema mio. D'altra parte hai ampiamente dimostrato di non farlo, tutte le volte che abbiamo avuto discussioni.
Livello a cui sei rimasto come da ampie evidenze :asd:
Disse quello che farcisce i commenti di battutine puerili e faccine perché non ha alcun contenuto da portare.
Sei tu che sei in malafede e ti arrampichi sugli specchi perché sei partito per partito preso dal fatto che le ddr5 avranno latenze molto peggiori, cosa che c’è solo nei tuoi sogni
I FATTI che ho riportato lo dimostrano inoppugnabilmente, dati alla mano.
Genio della lampada, mi riferivo ai timings di Zen usati nei tuoi test spazzatura di anandtech, ripigliati
Che ti ho già fornito all'inizio commento, e ti riporto nuovamente, visto che nemmeno leggi: "12-12-12-28".

Ovviamente provengono dalla discussione di cui ho fornito il link, ma anche questo l'avevo già scritto.

Poi che i test siano spazzatura lo dici tu che sei una nullità a livello tecnico, e soltanto perché non ti vanno giù. Ma questo è ormai evidente.
Vedi sopra, non hai messo il link, perdiamo pezzi di continuo , eh? Vedi una volta per tutte di quotare la parte in questione come ho fatto io :asd:
L'ho già fatto. Ho riportato:
- le impostazioni delle memorie;
- il link alla discussione in cui si trovano (in realtà mi sono limitato a copiare e incollarlo, visto che è quello che avevi riportato proprio TU);
- che non bisogna fermarsi ai primi commenti.

Se poi tu non c'arrivi non è più un problema mio, visto che posti link di cui non conosci nemmeno il contenuto (sì, il link è proprio il tuo!), come ampiamente dimostrato.
Ancora? Ma sei duro di comprendonio, lo standard jedec non rappresenta quanto potranno essere spinti i prodotti migliori quando usciranno sul mercato
Io mi baso su quello che è disponibile al momento, e faccio le mie valutazioni tecniche.

Quando uscirà memorie che andranno oltre le specifiche standard ne riparleremo, e vedremo fino a che punto riusciranno a spingersi con le latenze.

Per ora confrontando i dati degli standard le DDR5 non ne escono affatto bene in termini di latenza, paragonati alle precedenti, e le mie previsioni sono che non riusciranno a fare meglio delle migliori DDR4 perché sembra che siano affette da intrinseche problematiche (altrimenti il JEDEC avrebbe standardizzato specifiche in linea con le precedenti DDR4).
E niente, non riesci proprio a capire e quindi insulti gratuitamente
Io capisco perfettamente. Qui l'uno che ha dimostrato sistematicamente il contrario sei tu, come si evince anche dalle passate discussioni che abbiamo avuto.
Ti vedo bollito, l’affermazione che ti contesto è che le ddr5 avranno latenze più alte delle ddr4 cosa che sapremo solo quando potremo vedere cosa offrirà il mercato oltre allo standard jedec, ma continui a non capire
Sono due cose diverse, come già detto innumerevoli volte. E a questo punto è inutile ripetere per tuo intrinseci problemi.
Ti svelo un segreto: le macchine di cui parli avevano hardware diversi anche se x486, invece ora hanno lo stesso identico hardware che è anche l’hardware che c’è su molti pc
LOL. Continui a parlare di cose che non conosci, ma non sorprende affatto.

Le precedenti console sono PC a tutti gli effetti, e avevano soltanto delle piccole personalizzazioni. La differenza più rilevante è data dalla memoria condivisa, che evita un passaggio in più dei dati da CPU a GPU.

Ma per il resto il codice che processa la scene e macina numeri e poligoni è sostanzialmente lo stesso di un PC avente configurazioni simili.

In sintesi, se un gioco per PS4 o XBoxOne è riuscito a fruttare gli 8 core, può fare esattamente lo stesso nei PC (e potenzialmente anche meglio, visto che ci sono più core).

Per cui hai scritto un'altra colossale minchiata, da completo ignorante di questioni tecniche, come hai sistematicamente dimostrato.

Il tutto con la ciliegina sulla torta di quel "x486" che ti sparato e che esiste soltanto nella tua fervida immaginazione, visto che non conosci nemmeno i comunissimi nomi/etichette utilizzati in ambito PC.

Sei la fiera dell'ignoranza fatta persona...

Infine, e visto che dall'introduzione delle suddette console sono passati ormai PIU' DI 7 (SE-TTE) ANNI, mi aspetterei che tutti gli 8 loro core siano stati spremuti come un limone. Come da tua logica sopraffina.

Visto che la tesi è tua, a te tocca pure la dimostrazione. Ma ci metto la mano sul fuoco che snocciolerai altre minchiate per cercare di coprire l'n-esimo cumulo di sciocchezze che hai scritto, o passerai alle battutine e agli insulti, oppure cercherai di far sparire la questione pur di non rispondere (visto che oggettivamente non puoi: le minchiate rimangono minchiate, checché tu ne dica). Tanto ormai sei più prevedibile del cane di Pavlov...
Sarà pure come dici, ma in questo spazio, per come ti poni, sei solo “qualcuno”che fatto e continua a fare una figura miserrima . Mi fai rotolare dalle risate quando scrivi “zero,sei e zero rimarrai”, nemmeno mi conosci ma, pur non conoscendoti nemmeno io, vedendo il livore di quello che scrivi, mi rotolo dalle risate pensando alla tua faccia deformata dall’odio che trasmetti dalla tua tastiera :asd:
Non è che sarà come dico: E' ESATTAMENTE COME DICO!

Il fatto che non ti conosca e non sappia cosa tu faccia nella vita è del tutto irrilevante: io ti giudico da quello che scrivi (e scusa è poco).
E siccome spari continuamente minchiate a nastro quando si tratta di roba tecnica, è evidente che sei una completa nullità in questo campo.

Sei talmente zero che non sai nemmeno i NOMI delle tecnologie di cui ti riempi pomposamente la bocca, come hai dimostrato proprio qui sopra col tuo "x486".

Questi sono fatti OGGETTIVI che chiunque può appurare leggendo le tue sciocchezze.

Per cui è perfettamente inutile che adesso tu faccia la parte della vittima gridando all'orco brutto e cattivo: ciò che ti viene sbattuto in faccia è soltanto il frutto delle gigantesche balle che scrivi.
Bla bla bla perepe qua qua :asd:
Dal tuo nick dovresti avere 48-49 anni. Dovresti, ma non da quello che scrivi...
Ho risposto eccome e k0nt3 ha anche quotato la risposta, quindi sei riuscito a non leggere una cosa scritta per ben due volte, sei proprio stordito :asd:
Ho letto benissimo e so cos'hai scritto. Non hai mai fatto marcia indietro sulla minchiata che avevi scritto prima.

Te la pongo semplice semplice: il 36% di prestazioni deriva da minori latenze, come avevi affermato prima? Basta un sì o uno. Non è che ci voglia molto, eh! E chiudiamo fiumi di discussioni.
Non hai risposto a nulla, vedi sopra
Ho riconfermato tutto sopra. Ma tanto con te è inutile: non leggi e non vuoi leggere, a questo punto.
Non mistifico nulla e confermo quanto detto infatti hai anche scritto
Confermi di non conoscere la lingua italiano e il banale nonché comune significato della parola SE.
(ignorando da ignorante alder lake):
LOL E questo cosa c'entrerebbe in QUEL contesto?!?

Ormai sei al puro delirio...
Non sono io bugiardo, sei tu che non sai nemmeno quello che scrivi
Il fatto che tu sia un bugiardo matricolato l'ho dimostrato innumerevoli volte.

Per il resto lascio che siano gli altri a giudicare.
Mi spiace ma diventa difficile riportare le fonti delle fonti delle fonti,
Lo so che è difficile: leggere (e capire) costa fatica...
e comunque è vero che nel terzo articolo non si parla nello specifico ma nel titolo a keller viene attribuito sia zen che alder lake,
Premesso che hai appena dimostrato tu stesso che ti fermi soltanto ai titoli, il fatto che venga attribuito a Keller lascia il tempo che trova: rimane l'opinione dell'articolista.

TU hai fatto una precisa affermazione: che Alder Lake sarebbe TUTTO attribuibile a Keller. E non hai fornito uno straccio di prova, in merito.
sei hai fonti che riportano il contrario portale e smettila di blaterare
L'onere della prova è tuo, e non mio: TUA è l'affermazione di cui sopra, TU la devi dimostrare.

Logica elementare alla mano.

A me spetta soltanto il compito di vagliare ciò che porterai in merito e giudicarne la bontà, come ho fatto con quei 3 link (di cui peraltro i primi due riportavano esattamente alla STESSA fonte. Ma visto non leggi i link che riporti, non potevi saperlo), di cui non v'è alcuna prova della tua affermazione.
Quindi anche tu
Quando lo dimostrerai.
Anche io nel mio caso ho fatto lo stesso ma non lo hai letto caro il mio incapace borioso, k0nt3 invece ha letto e mi ha anche risposto. Tu invece hai detto una cosa falsa, sbagliata e da ignorante ma cerchi di glissare :asd:
Su questo t'ho già risposto sopra: assolutamente no. Non hai mai smentito la minchiata che avevi scritto prima.

Ti ho riposto una domanda semplice e precisa per chiudere questa discussione: basta un sì o un no. Quindi non ti serve perdere tempo scrivendo un papiro: battere DUE tasti sulla tastiera dovrebbe essere uno sforzo irrilevante rispetto alla quantità di testo che scrivi.
Tutta questa pappardella per girare intorno al fatto che hai scritto corbellerie? Ma che figuracce che fai cesare :asd:
Il fatto che lo dica tu che sei una nullità lascia il tempo che trova.

Ho dimostrato, FATTI alla mano, che la mia originale affermazione fosse corretta. Tanto basta.

k0nt3
06-02-2021, 09:13
Una nota sulla questione del multicore nei videogame: uno dei problemi della passata generazione è anche legato alle librerie.
Giochi nativi dx12 e vulkan sanno sfruttare maggiormente i core.
Come si vede anche da questo grafico:
https://www.overclock3d.net/reviews/software/shadow_of_the_tomb_raider_pc_performance_review/7
https://overclock3d.net/gfx/articles/2018/09/16123155412l.jpg
Come questo ci sono una marea di altri esempi.

cdimauro
06-02-2021, 09:31
Windows 10 su PC ha le DirectX 12 e anche le Vulcan...

k0nt3
06-02-2021, 10:13
Windows 10 su PC ha le DirectX 12 e anche le Vulcan...
E infatti i giochi nativi dx12 e vulkan (non porting fatti in qualche modo) sfruttano più core come ho già scritto sopra, hai bisogno di altri esempi?

cdimauro
06-02-2021, 11:04
Non servono a me gli esempi. Se un gioco è scritto per PS4 o XBoxOne e sfrutta le Vulkan e le DirectX 12, il porting su PC sarà estremamente facile.

E quindi se il gioco originale sfrutta tutti gli 8 core, ne sfrutterà almeno 8 sui PC (aventi almeno 4C/8TH, o 8C).

k0nt3
06-02-2021, 11:46
Non servono a me gli esempi. Se un gioco è scritto per PS4 o XBoxOne e sfrutta le Vulkan e le DirectX 12, il porting su PC sarà estremamente facile.

E quindi se il gioco originale sfrutta tutti gli 8 core, ne sfrutterà almeno 8 sui PC (aventi almeno 4C/8TH, o 8C).
E fin qui siamo daccordo. Quello che volevo dire io è che il tuo ragionamento non teneva conto delle librerie. L'adozione di dx12 e vulkan non è stata immediata e anche quando c'è stata, salvo rari casi, i motori grafici non sono stati riscritti per abbracciare il nuovo paradigma. Molti sfruttano pochi core o girano ancora su un singolo thread principale, ma le cose stanno cambiando man mano che cpu 8c16t diventano sempre più diffuse.
Tutto questo per dire che è lecito aspettarsi che 8c16t diventerà il nuovo standard nel futuro prossimo, se non è successo in passato è semplicemente per mancanza di spinta nel mercato (o inerzia dei principali motori grafici) IMO.

cdimauro
06-02-2021, 11:51
Sì, ma gli engine sono invarianti: come li hai realizzati per le console (che usano già quelle librerie) li puoi portare con pochissime modifiche (vedi la gestione della memoria condivisa nelle console su PC).

Le console vendono centinaia di milioni di pezzi nel corso della loro esistenza, e quindi i programmatori dovrebbero avere avuto tutto il tempo di sfruttarne l'hardware. In particolare quelle della passata generazione sono da più di 7 anni che sono presenti sul mercato (un tempo enorme rispetto al passato), e quindi mi aspetterei che siano riusciti, almeno con gli ultimi titoli, a sfruttare tutti gli 8 core.

k0nt3
06-02-2021, 12:00
Ma non è esattamente quello che fa Shadow of the Tomb Raider (2018) per esempio? Hanno fatto un test con una configurazione 4c8t, ma una configurazione 8c8t come sulle console di precedente generazione avrebbe dato risultati anche leggermente migliori.

cdimauro
06-02-2021, 13:07
Scusami, non m'è chiaro a cosa ti riferisca.

EDIT: forse ho capito. Dovresti riferirti al grafico che hai postato sopra. Non credo che una configurazione con 8C/8T avrebbe portato tanti miglioramenti: lo vedi già dal test con 6C/12T, dove le prestazioni sono di pochissimo superiori a quello con 4C/8T. Segno evidente che lo scaling sia ormai saturo.

Chiaramente nelle console non hai i thread hardware che si contendono le risorse del core, ma un solo thread per core che può gestirsi da solo tutte le risorse. Però vedi sopra i test: non cambierebbe di molto.

maxsin72
06-02-2021, 15:16
Non conosci nemmeno la definizione di troll, ma non c'erano dubbi in merito.

Non è che se lo dici tu diventa automaticamente vero. Tutt'altro (specialmente detto da te).

Contano i FATTI, ossia come siano svolte le discussioni e quali contributi siano stati portati.

Tranquillo: prenditi pure tutto il tempo per editare. Si vede che ti ci vuole...

Ti piace scrivere per non dire nulla, è la tua attività preferita evidentemente :asd:


Il link l'ho fornito, subito dopo, ma se nemmeno leggi non è certo un problema mio. D'altra parte hai ampiamente dimostrato di non farlo, tutte le volte che abbiamo avuto discussioni.

Rileggi tu, non c'è nessun link della fonte da cui li hai presi, senilità che avanza? :D


Disse quello che farcisce i commenti di battutine puerili e faccine perché non ha alcun contenuto da portare.

I FATTI che ho riportato lo dimostrano inoppugnabilmente, dati alla mano.

ll fatto che tu ne sia convinto, non rappresenta un fatto oggettivo :asd:

Che ti ho già fornito all'inizio commento, e ti riporto nuovamente, visto che nemmeno leggi: "12-12-12-28".

Devo ripetermi: tu chiedi le fonti che io puntualmente ti riporto ma, neltuo caso, non c'è nessun link della fonte da cui li hai presi, senilità che avanza? :D

Ovviamente provengono dalla discussione di cui ho fornito il link, ma anche questo l'avevo già scritto.

E niente, vedi sopra, lo abbiamo perso :asd:


Poi che i test siano spazzatura lo dici tu che sei una nullità a livello tecnico, e soltanto perché non ti vanno giù. Ma questo è ormai evidente.

L'ho già fatto. Ho riportato:
- le impostazioni delle memorie;
- il link alla discussione in cui si trovano (in realtà mi sono limitato a copiare e incollarlo, visto che è quello che avevi riportato proprio TU);
- che non bisogna fermarsi ai primi commenti.

Se poi tu non c'arrivi non è più un problema mio, visto che posti link di cui non conosci nemmeno il contenuto (sì, il link è proprio il tuo!), come ampiamente dimostrato.

Arivedi sopra, ti abbiamo proprio perso, :asd:


Io mi baso su quello che è disponibile al momento, e faccio le mie valutazioni tecniche.

Quando uscirà memorie che andranno oltre le specifiche standard ne riparleremo, e vedremo fino a che punto riusciranno a spingersi con le latenze.

Appunto quindi ammetti di ave detto un mare di falsità perchè non sappiamo cosa avrà da proporre il mercato , mentre tu hai già sentenziato che le ddr5 avranno latenze molto più alte caro il mio otelma :asd:
In effetti nel far rotolare dalle risate la gente devo amettere che sei veramente qualcuno e che hai lasciato il segno :D

Per ora confrontando i dati degli standard le DDR5 non ne escono affatto bene in termini di latenza, paragonati alle precedenti, e le mie previsioni sono che non riusciranno a fare meglio delle migliori DDR4 perché sembra che siano affette da intrinseche problematiche (altrimenti il JEDEC avrebbe standardizzato specifiche in linea con le precedenti DDR4).

Faresti meglio a stare zitto perchè le tue previsioni valgono zero, sono solo un tiro di dadi perchè non sappiamo a cosa stanno lavorando le grandi aziende del settore.

Io capisco perfettamente. Qui l'uno che ha dimostrato sistematicamente il contrario sei tu, come si evince anche dalle passate discussioni che abbiamo avuto.

Sono due cose diverse, come già detto innumerevoli volte. E a questo punto è inutile ripetere per tuo intrinseci problemi.

Aridaglie con il delirio di onnipotenza molesto :asd:

LOL. Continui a parlare di cose che non conosci, ma non sorprende affatto.

Non smentisci quello che ho affermato quindi mi dai ragione, grazie

Le precedenti console sono PC a tutti gli effetti, e avevano soltanto delle piccole personalizzazioni. La differenza più rilevante è data dalla memoria condivisa, che evita un passaggio in più dei dati da CPU a GPU.

Ma per il resto il codice che processa la scene e macina numeri e poligoni è sostanzialmente lo stesso di un PC avente configurazioni simili.

In sintesi, se un gioco per PS4 o XBoxOne è riuscito a fruttare gli 8 core, può fare esattamente lo stesso nei PC (e potenzialmente anche meglio, visto che ci sono più core).

Per cui hai scritto un'altra colossale minchiata, da completo ignorante di questioni tecniche, come hai sistematicamente dimostrato.

Il tutto con la ciliegina sulla torta di quel "x486" che ti sparato e che esiste soltanto nella tua fervida immaginazione, visto che non conosci nemmeno i comunissimi nomi/etichette utilizzati in ambito PC.

Sei la fiera dell'ignoranza fatta persona...

Premesso che x486 è un lapsus e che è corretto x86, spari le solite fregnacce a cui ci hai abituato: avendo lo stesso identico e sottolineo identico hardware sulla stragrande maggioranza del mercato delle console più recenti è ovvio che il software sarà ottimizzato per quel tipo di hardware come è vero che ci sono giochi che girano meglio su amd o nvidia, a seconda di come hanno lavorato gli autori, questa nuova grande uniformità dell'hardware da gioco potrà avere un effetto a favore di AMD perchè tutti i gichi che usciranno per console sarà lecito aspettarsi che siano ottimizzati in primis per AMD, poi chi avrà risorse ottimizzerà anche per intel e nvidia ma sarà da vedere.
E tranquillo che i tuoi insulti mi fanno solo ridere, persone così misere umanamente come te non mi toccano minimamente :asd:

Infine, e visto che dall'introduzione delle suddette console sono passati ormai PIU' DI 7 (SE-TTE) ANNI, mi aspetterei che tutti gli 8 loro core siano stati spremuti come un limone. Come da tua logica sopraffina.

Visto che la tesi è tua, a te tocca pure la dimostrazione. Ma ci metto la mano sul fuoco che snocciolerai altre minchiate per cercare di coprire l'n-esimo cumulo di sciocchezze che hai scritto, o passerai alle battutine e agli insulti, oppure cercherai di far sparire la questione pur di non rispondere (visto che oggettivamente non puoi: le minchiate rimangono minchiate, checché tu ne dica). Tanto ormai sei più prevedibile del cane di Pavlov...

Non è che sarà come dico: E' ESATTAMENTE COME DICO!

Si e se dici che sei Napoleone è vero, come no... inizio a capire che forse è meglio non contraddirti :asd:

Il fatto che non ti conosca e non sappia cosa tu faccia nella vita è del tutto irrilevante: io ti giudico da quello che scrivi (e scusa è poco).
E siccome spari continuamente minchiate a nastro quando si tratta di roba tecnica, è evidente che sei una completa nullità in questo campo.

Sei talmente zero che non sai nemmeno i NOMI delle tecnologie di cui ti riempi pomposamente la bocca, come hai dimostrato proprio qui sopra col tuo "x486".

Questi sono fatti OGGETTIVI che chiunque può appurare leggendo le tue sciocchezze.

Per cui è perfettamente inutile che adesso tu faccia la parte della vittima gridando all'orco brutto e cattivo: ciò che ti viene sbattuto in faccia è soltanto il frutto delle gigantesche balle che scrivi.

Dal tuo nick dovresti avere 48-49 anni. Dovresti, ma non da quello che scrivi...

Vedi sopra :asd:

Ho letto benissimo e so cos'hai scritto. Non hai mai fatto marcia indietro sulla minchiata che avevi scritto prima.
Te la pongo semplice semplice: il 36% di prestazioni deriva da minori latenze, come avevi affermato prima? Basta un sì o uno. Non è che ci voglia molto, eh! E chiudiamo fiumi di discussioni.
Ho riconfermato tutto sopra. Ma tanto con te è inutile: non leggi e non vuoi leggere, a questo punto.


E niente... non hai letto e dici di averlo fatto sei un buffone un giullare, ho scritto che ho fatto un'affermazione sbagliata rispondendo a k0nt3 ma tu non la trovi e sarei io quello che ha problemi?



Confermi di non conoscere la lingua italiano e il banale nonché comune significato della parola SE.

LOL E questo cosa c'entrerebbe in QUEL contesto?!?

Ormai sei al puro delirio...

Ma ci sei o ci fai? c'entra eccome perchè rocket lake non ha niente da dire con alder lake che esce 5 mesi dopo e , chi può aspettare, non ricadrebbe nella casistica di chi aspettando sempre non compra mai, difficile da capire per uno come te, vero?

Il fatto che tu sia un bugiardo matricolato l'ho dimostrato innumerevoli volte.

Per il resto lascio che siano gli altri a giudicare.

Lo so che è difficile: leggere (e capire) costa fatica...

Premesso che hai appena dimostrato tu stesso che ti fermi soltanto ai titoli, il fatto che venga attribuito a Keller lascia il tempo che trova: rimane l'opinione dell'articolista.

E' esattamente quello che penso di te

TU hai fatto una precisa affermazione: che Alder Lake sarebbe TUTTO attribuibile a Keller. E non hai fornito uno straccio di prova, in merito.
L'onere della prova è tuo, e non mio: TUA è l'affermazione di cui sopra, TU la devi dimostrare.
Logica elementare alla mano.

A me spetta soltanto il compito di vagliare ciò che porterai in merito e giudicarne la bontà, come ho fatto con quei 3 link (di cui peraltro i primi due riportavano esattamente alla STESSA fonte. Ma visto non leggi i link che riporti, non potevi saperlo), di cui non v'è alcuna prova della tua affermazione.

Io, a differenza tua, non mi attribuisco poteri divinatori ed era sottointeso che avevo trovato la notizia in rete, notizia di cui ho riportato i link
quindi sei tu che, se affermi il contrario, devi dare le fonti




Quando lo dimostrerai.

Già fatto abbondantemente

Su questo t'ho già risposto sopra: assolutamente no. Non hai mai smentito la minchiata che avevi scritto prima.
Ti ho riposto una domanda semplice e precisa per chiudere questa discussione: basta un sì o un no. Quindi non ti serve perdere tempo scrivendo un papiro: battere DUE tasti sulla tastiera dovrebbe essere uno sforzo irrilevante rispetto alla quantità di testo che scrivi.



Ignorante patentato, non finisci mai di fare la figura del peracottaio, quello che legge è lui, ma che cavolo leggi cesare? Sei un falso millantatore, ecco dove ho scritto, visto che incapace come sei non hai letto e sono 20 volte che scrivi che non avrei risposto, eccoti l'aiutino che si da allo stolto:
Nel passaggio a cui ti riferisci ho scritto un concetto sbagliato :D Non ho nessun problema ad ammetterlo con chi ha voglia di ragionare in modo costruttivo e si pone con sincerità :)

Contento ora cesare? Chi è che non legge? io o tu? Evidentemente tu cesare, come molte altre volte e dimostri di non capire un tubo pensando invece di esser "qualcuno".... sei ri-di-co-lo


Il fatto che lo dica tu che sei una nullità lascia il tempo che trova.

Ho dimostrato, FATTI alla mano, che la mia originale affermazione fosse corretta. Tanto basta.
Vedi sopra l'ennesima figuraccia che hai fatto perchè TU, CESARE, NON LEGGI
E in ogni caso il buon k0nt3 ha beccato subito le falsità da te scritte, falsità che non vuoi ammettere.

maxsin72
06-02-2021, 17:00
Il fatto che lo dica tu che sei una nullità lascia il tempo che trova.

Ho dimostrato, FATTI alla mano, che la mia originale affermazione fosse corretta. Tanto basta.

Giusto per andare ulteriormente a fondo sulla tua ennesima corbelleria (non dimenticarti di rispondere anche a quello che ti ho scritto alle 15.16 a pagina 7 del thread), k0nt3 ti ha scritto:

La mia non era un'accusa, ma una mera deduzione logica basata sull'assunto che i dati di anandtech fossero corretti (cosa che assumevi anche te prima di scoprire il contrario).
Se prima dici che le latenze delle ddr5 saranno nettamente superiori (nel senso di peggiori ovviamente) e poi dici che invece sono uguali, direi che una delle due affermazioni è falsa se la logica non è un'opinione.
Spero non ci sia bisogno di quotare i singoli commenti, dovresti sapere meglio di me quello che hai scritto nelle pagine precedenti.

E tu, a quanto sopra, hai risposto:



I singoli commenti sono importanti per definire il contesto e come si sia evoluta la discussione su questo punto.

Quando ho scritto quell'affermazione non ho riportato alcun link. Ho soltanto riportato quello che ricordavo, di quel che avevo letto sulle DDR5, quando sono venuti fuori notizie e documentazione in merito. Quindi era l'idea che m'ero fatto.

Soltanto 6 giorni dopo, visto l'incalzare del thread, ho cercato qualche articolo e ho beccato quello di AnandTech, che ho riportato. E sono andato a colpo sicuro, trattandosi di AnandTech. L'articolo confermava alcune cose che avevo detto (ossia che al raddoppio del clock la latenza era aumentata), ma i valori di latenza riportati non confermavano il distacco di cui avevo parlato prima.

Infine, dopo l'ultima discussione, ho cercato altro materiale e beccando la tabella delle DDR4 è venuta fuori la conferma di quel che dicevo, e quindi l'errore di AnandTech.

Questo per ricostruire velocemente il contesto e la storia della discussione su questo punto.



La suddetta tua risposta cesare è solo una enorme supercazzola per non dire "ho sbagliato a dire che c'è una enorme differenza di latenze tra ddr5 e ddr4 è ha ragione maxsin72 quando ha scritto:"


Ti sfugge che le ddr5 6000 hanno 14 ns di latenza che sono molto vicini a 13,75: è una differenza del 1,8% che però porta ad un raddoppio quasi della banda passante con un enorme beneficio per le cpu con tanti core.


Caro cesare, sono disposto ad accettare le tue scuse se avrai il buon senso di non negare l'evidenza di quanto sopra ti ho riportato.
Aggiungo poi che, quanto riportato sulle ddr4 da anandtech, è asteriscato come "non tutto è standard jedec", quindi a buon intenditor poche parole...

k0nt3
06-02-2021, 21:57
Scusami, non m'è chiaro a cosa ti riferisca.

EDIT: forse ho capito. Dovresti riferirti al grafico che hai postato sopra. Non credo che una configurazione con 8C/8T avrebbe portato tanti miglioramenti: lo vedi già dal test con 6C/12T, dove le prestazioni sono di pochissimo superiori a quello con 4C/8T. Segno evidente che lo scaling sia ormai saturo.

Chiaramente nelle console non hai i thread hardware che si contendono le risorse del core, ma un solo thread per core che può gestirsi da solo tutte le risorse. Però vedi sopra i test: non cambierebbe di molto.
Se noti c'è differenza tra 2c4t e 4c4t nel grafico, per questo mi aspetto differenza anche tra 4c8t e 8c8t essendo il numero di thread uguale (e l'hai spiegato anche tu perché 8c8t funziona meglio) non credo sia un problema di saturazione fino ad 8t. Evidentemente il gioco è stato ottimizzato per quella configurazione (che guarda a caso è quella delle console contemporanee all'uscita).
Questo però non significa che non sia possibile andare oltre e giochi come ashes of the singularity lo fanno.
Come dicevo la spinta a sfruttare più di 8t thread è abbastanza recente, ci vorrà del tempo prima che i prodotti si adattino a questa situazione, magari tra un paio di anni lo scenario saràcompletamente diverso. E non pensare solo al rendering della scena, c'è davvero tanto che si può fare per migliorare l'IA nei giochi o la fisica.

Vedi sopra l'ennesima figuraccia che hai fatto perchè TU, CESARE, NON LEGGI
E in ogni caso il buon k0nt3 ha beccato subito le falsità da te scritte, falsità che non vuoi ammettere.
Veramente come ho scritto prima state facendo entrambi una pessima figura. Sembra che il vostro unico scopo sia quello di umiliare l'interlocutore più che di arrivare ad una conclusione che abbia un senso.

maxsin72
06-02-2021, 22:45
Veramente come ho scritto prima state facendo entrambi una pessima figura. Sembra che il vostro unico scopo sia quello di umiliare l'interlocutore più che di arrivare ad una conclusione che abbia un senso.

E' vero, hai ragione. Il comportamento più intelligente sarebbe quello di lasciar perdere e far scivolare via le provocazioni.
Invece mi sto mettendo sullo stesso piano di cesare e sto controbattendo punto per punto.
Sappi solo che non è per orgoglio personale, è che non sopporto la prepotenza e la supponenza del "signore" in questione che si comporta così in modo sistematico e seriale, aggredendo sul piano personale sia me che molti altri utenti che hanno il solo difetto di non pensarla come lui.
Io non mi permetterei mai di dire a nessuno, e sottolineo nessuno, "sei uno zero" e tutto il "resto" ma, se trovo chi si pone in questi termini, non riesco a resistere nel ripagarlo con la stessa moneta.
Non vado fiero di questa mia modalità di gestire questo tipo di situazioni, chiedo quindi scusa sia a te che a chiunque altro abbia provato fastidio per questa diatriba che comunque non ho intenzione di mandare avanti ancora per molto. Buona serata:)

cdimauro
07-02-2021, 09:25
Rileggi tu, non c'è nessun link della fonte da cui li hai presi, senilità che avanza? :D

Devo ripetermi: tu chiedi le fonti che io puntualmente ti riporto ma, neltuo caso, non c'è nessun link della fonte da cui li hai presi, senilità che avanza? :D

E niente, vedi sopra, lo abbiamo perso :asd:

Arivedi sopra, ti abbiamo proprio perso, :asd:
Ecco il TUO link: https://www.hwupgrade.it/forum/showthread.php?t=2883773&page=2
da cui arriva a questo mio commento: https://www.hwupgrade.it/forum/showpost.php?p=46317337&postcount=108
Andando alla discussione originale: https://forums.anandtech.com/threads/ryzen-strictly-technical.2500572/
e cercando si arriva alla recensione di Ryzen2: https://forums.anandtech.com/threads/ryzen-strictly-technical.2500572/post-39391302
dove si arriva alle specifiche delle memorie utilizzate:
"G.Skill FlareX 3200C14 2x8GB, 2666MHz CL14-14-14-32"

Dunque rimani un bugiardo matricolato.
Appunto quindi ammetti di ave detto un mare di falsità perchè non sappiamo cosa avrà da proporre il mercato ,
Ho sempre considerato le specifiche JEDEC, dunque non ho scritto nessuna falsità, mio caro mistificatore nonché bugiardo seriale.
mentre tu hai già sentenziato che le ddr5 avranno latenze molto più alte caro il mio otelma :asd:
Non sono stato io a farlo, ma il JEDEC per me, specifiche alla mano.
In effetti nel far rotolare dalle risate la gente devo amettere che sei veramente qualcuno e che hai lasciato il segno :D

Faresti meglio a stare zitto
Questo lo dici a tua madre: qui non è casa tua, e parlo quanto mi pare.
perchè le tue previsioni valgono zero, sono solo un tiro di dadi perchè non sappiamo a cosa stanno lavorando le grandi aziende del settore.
Ma parli tu che non sai nemmeno come funzionino le memorie, per cui non ti puoi permettere di fare valutazioni come le mie? Le mie, peraltro, hanno un chiaro fondamento tecnico, come ho già dimostrato.
Non smentisci quello che ho affermato quindi mi dai ragione, grazie
LOL. Soltanto nel tuo universo parallelo questo "Continui a parlare di cose che non conosci" equivarrebbe a darti ragione...
Premesso che x486 è un lapsus e che è corretto x86,
Non è mica la prima volta che riporti sciocchezze quando parli di tecnologia: questa finisce assieme a tutte le altre, mio caro mr. x486...
spari le solite fregnacce a cui ci hai abituato: avendo lo stesso identico e sottolineo identico hardware sulla stragrande maggioranza del mercato delle console più recenti è ovvio che il software sarà ottimizzato per quel tipo di hardware come è vero che ci sono giochi che girano meglio su amd o nvidia, a seconda di come hanno lavorato gli autori, questa nuova grande uniformità dell'hardware da gioco potrà avere un effetto a favore di AMD perchè tutti i gichi che usciranno per console sarà lecito aspettarsi che siano ottimizzati in primis per AMD, poi chi avrà risorse ottimizzerà anche per intel e nvidia ma sarà da vedere.
E tranquillo che i tuoi insulti mi fanno solo ridere, persone così misere umanamente come te non mi toccano minimamente :asd:
A me fanno ribaltare dalle risate i tuoi continui tentativi di uscirtene da una discussione dopo aver spiattellato l'n-esima colossale balla, e facendo poi la vittima cercando un pietoso consenso.

ADESSO hai tirato fuori ottimizzazioni quando PRIMA hai parlato TU (non io), esclusivamente dello sfruttamento dei core grazie alla diffusione delle console. Due discorsi diversi, insomma. Come tu sia passato dall'uno all'altro, peraltro piazzando la tua amata AMD in mezzo (come se dello sfruttamento dei core non ne potessero trarre ugualmente vantaggio la concorrenza) non lo so e nemmeno voglio saperlo, visto che sono e rimangono tuoi evidenti problemi di comprensione dei contenuti scritti nella discussione.

Infine è bene sottolineare un'altra falsità che hai riportato: l'hardware delle console non è "lo stesso identico e sottolineo identico hardware" né fra le stesse console (perché che hanno differenze fra di loro) né coi PC (perché le nuove console hanno alcune caratteristiche peculiari. Paradossalmente le nuove console sono leggermente più diverse dei PC rispetto alle precedenti, e quindi un port su PC richiederà più tempo).

Questo succede quando uno non ha la minima idea di quello di cui parla, ed è un caso molto frequente quando sei a tu a farlo, come dimostra non soltanto questo thread, ma anche gli altri a cui hai partecipato e in cui abbiamo avuto delle discussioni.
Infine, e visto che dall'introduzione delle suddette console sono passati ormai PIU' DI 7 (SE-TTE) ANNI, mi aspetterei che tutti gli 8 loro core siano stati spremuti come un limone. Come da tua logica sopraffina.

Visto che la tesi è tua, a te tocca pure la dimostrazione. Ma ci metto la mano sul fuoco che snocciolerai altre minchiate per cercare di coprire l'n-esimo cumulo di sciocchezze che hai scritto, o passerai alle battutine e agli insulti, oppure cercherai di far sparire la questione pur di non rispondere (visto che oggettivamente non puoi: le minchiate rimangono minchiate, checché tu ne dica). Tanto ormai sei più prevedibile del cane di Pavlov...
Qui hai sbagliato a quotare? Perché questo è il testo che ho scritto io.

L'onere della prova delle precedenti affermazioni sullo sfruttamento dei core è tutto, e ovviamente non hai portato nemmeno uno straccio di prova finora (e dubito che lo farai, come tuo solito).
E niente... non hai letto e dici di averlo fatto sei un buffone un giullare, ho scritto che ho fatto un'affermazione sbagliata rispondendo a k0nt3 ma tu non la trovi e sarei io quello che ha problemi?
Ma chi vuoi prendere in giro? Da una parte hai affermato di averti sbagliato, ma dall'altra hai continuato imperterrito con la sciocchezza che avevi detto. Riporto di seguito l'esatta cronologia delle tue affermazioni in merito:
"Nel passaggio a cui ti riferisci ho scritto un concetto sbagliato Non ho nessun problema ad ammetterlo con chi ha voglia di ragionare in modo costruttivo e si pone con sincerità
[...]
mi viene da ipotizzare che le ddr5 3200, in virtù di timings migliori, pur se da rapportare al clock, potrebbero anche avere latenze leggermente migliori
[...]
mi incuriosisce capire se la banda reale in più a favore delle DDR5 può essere tra virgolette sfruttata per avere, sempre a parità di banda reale con le ddr4, latenze migliori"
Se hai fatto un'affermazione sbagliata lo dici chiaro e tondo, ma NON continui a girarci ancora attorno.

Hai sbagliato, sì o no? Dillo una buona volta, e fermati lì.
Ma ci sei o ci fai? c'entra eccome perchè rocket lake non ha niente da dire con alder lake che esce 5 mesi dopo e , chi può aspettare, non ricadrebbe nella casistica di chi aspettando sempre non compra mai, difficile da capire per uno come te, vero?
Alder Lake non c'entra nulla, come non c'entra nulla Zen4.

Se uno può aspettare può saltare tranquillamente Rocket Lake, e questo non l'ho mai negato. Ma vale tanto per Alder Lake quanto per qualunque altro processore che arriverà in futuro, Zen4 e successori di Alder Lake inclusi, come peraltro avevo già scritto.

Ma SE (ed era questo che avevo scritto in QUEL preciso contesto) uno non può aspettare, allora Rocket Lake è sicuramente da prendere in considerazione.

Con te bisogna continuamente ripetere le stesse cose, perché o non c'arrivi o dopo qualche ora hai completamente dimenticato ciò di cui si parlava. Ecco perché sei un caso disperato.
Io, a differenza tua, non mi attribuisco poteri divinatori ed era sottointeso che avevo trovato la notizia in rete, notizia di cui ho riportato i link
quindi sei tu che, se affermi il contrario, devi dare le fonti
Ma proprio no: la minchiata su Keller e Alder Lake l'hai scritta TU, e TU devi portare le prove.

E' perfettamente inutile cercare di rigirare la frittata: l'onere della prova è tutto TUO!
Già fatto abbondantemente
A parole puoi dire tutte le sciocchezze che vuoi: quote e link alle mie affermazioni, e la dimostrazione che sarebbero sbagliate.

Altrimenti sei il solito mistificatore nonché bugiardo seriale.
Ignorante patentato, non finisci mai di fare la figura del peracottaio, quello che legge è lui, ma che cavolo leggi cesare? Sei un falso millantatore, ecco dove ho scritto, visto che incapace come sei non hai letto e sono 20 volte che scrivi che non avrei risposto, eccoti l'aiutino che si da allo stolto:

Contento ora cesare? Chi è che non legge? io o tu? Evidentemente tu cesare, come molte altre volte e dimostri di non capire un tubo pensando invece di esser "qualcuno".... sei ri-di-co-lo
Sopra ho riportato cronologicamente i tuoi messaggi in merito, che dimostrano che no, non hai smentito un bel nulla, ma che continui a girarci attorno.

Se hai sbagliato dillo chiaro e tondo, senza se e senza ma.
Vedi sopra l'ennesima figuraccia che hai fatto perchè TU, CESARE, NON LEGGI
E in ogni caso il buon k0nt3 ha beccato subito le falsità da te scritte, falsità che non vuoi ammettere.
Ho già dimostrato come stiano le cose: la mia originale affermazione era corretta, perché ricordavo bene come funzionino le DDR5. L'intoppo c'è stato col link di AnandTech, che riporta informazioni non corrette sulle DDR4, e che ha ingannato tutti. Ma poi le ho recuperate, e i FATTI mi hanno dato pienamente ragione.

E checché tu ne dica, lo ha constatato anche k0nt3.
Giusto per andare ulteriormente a fondo sulla tua ennesima corbelleria (non dimenticarti di rispondere anche a quello che ti ho scritto alle 15.16 a pagina 7 del thread), k0nt3 ti ha scritto:


E tu, a quanto sopra, hai risposto:

La suddetta tua risposta cesare è solo una enorme supercazzola per non dire "ho sbagliato a dire che c'è una enorme differenza di latenze tra ddr5 e ddr4 è ha ragione maxsin72 quando ha scritto:"
Ti ho già risposto sopra, e quella che riporti è soltanto una parte della discussione, ossia quella che ti fa più comodo.

Ciò che conta è che la mia originale affermazione sulle DDR5 fosse correttamente, come ampiamente dimostrato quando tutti i dati sono stati riportati.
Caro cesare, sono disposto ad accettare le tue scuse se avrai il buon senso di non negare l'evidenza di quanto sopra ti ho riportato.
Certo che lo nego, perché stai facendo cherry-picking prendendo solo quello che ti fa comodo.

Come già detto, quanto avevo scritto originariamente sulle DDR5 era vero, dati (tutti) alla mano.
Aggiungo poi che, quanto riportato sulle ddr4 da anandtech, è asteriscato come "non tutto è standard jedec", quindi a buon intenditor poche parole...
E chi ha detto che c'è solo lo standard JEDEC?

Le mie considerazioni le ho fatte standard alla mano, per i motivi che ho già esposto.

Poi che ci saranno delle memorie che andranno oltre gli standard non l'ho mai negato, ma l'ho riportato pure io, ma vale per qualunque memoria commercializzata.
Se noti c'è differenza tra 2c4t e 4c4t nel grafico, per questo mi aspetto differenza anche tra 4c8t e 8c8t essendo il numero di thread uguale (e l'hai spiegato anche tu perché 8c8t funziona meglio) non credo sia un problema di saturazione fino ad 8t. Evidentemente il gioco è stato ottimizzato per quella configurazione (che guarda a caso è quella delle console contemporanee all'uscita).
Invece si vede che già con 4 core il gioco saturi la CPU. Con 6 core hai il 50% di risorse in più, ma la differenza coi 4C/8T risulta irrisoria. Purtroppo mancano i test con 6C e 8C (ma questi sarebbero superflui, perché si vede già il trend), che l'avrebbero dimostrato indubitabilmente.

Però se guardi anche lo scaling fra 2C/4T, 4C/8T, e 6C/12T, è evidente che già col 4C/8T il gioco è sostanzialmente arrivato al limite.
Questo però non significa che non sia possibile andare oltre e giochi come ashes of the singularity lo fanno.
Mai negato, infatti.
Come dicevo la spinta a sfruttare più di 8t thread è abbastanza recente, ci vorrà del tempo prima che i prodotti si adattino a questa situazione, magari tra un paio di anni lo scenario saràcompletamente diverso.
Dopo più di 7 anni con console aventi ben 8C (quindi nemmeno thread hardware), unita alla storia delle precedenti console che pure avevano più core (e alcuni thread hardware a disposizione), sono quanto meno scettico.
E non pensare solo al rendering della scena, c'è davvero tanto che si può fare per migliorare l'IA nei giochi o la fisica.
Mai negato questo. Infatti si parlava in generale di sfruttamento dei core, ma non del particolare carico di lavoro.

Ovviamente per sfruttamento dei core non intendo che tutti i core facciano girare almeno un processo o thread, ma che ognuno sia pienamente sfruttato. Altrimenti non avrebbe nemmeno senso parlarne.
Veramente come ho scritto prima state facendo entrambi una pessima figura. Sembra che il vostro unico scopo sia quello di umiliare l'interlocutore più che di arrivare ad una conclusione che abbia un senso.
Mi spiace, ma non mi faccio mettere i piedi in testa da uno che non sa dove stia di casa quando si parla di tecnologia.
E' vero, hai ragione. Il comportamento più intelligente sarebbe quello di lasciar perdere e far scivolare via le provocazioni.
Invece mi sto mettendo sullo stesso piano di cesare e sto controbattendo punto per punto.
Sappi solo che non è per orgoglio personale, è che non sopporto la prepotenza e la supponenza del "signore" in questione che si comporta così in modo sistematico e seriale, aggredendo sul piano personale sia me che molti altri utenti che hanno il solo difetto di non pensarla come lui.
Io non mi permetterei mai di dire a nessuno, e sottolineo nessuno, "sei uno zero" e tutto il "resto" ma, se trovo chi si pone in questi termini, non riesco a resistere nel ripagarlo con la stessa moneta.
Non vado fiero di questa mia modalità di gestire questo tipo di situazioni, chiedo quindi scusa sia a te che a chiunque altro abbia provato fastidio per questa diatriba che comunque non ho intenzione di mandare avanti ancora per molto. Buona serata:)
E' inutile che cerchi di fare la parte della vittima e del saggio: non saremmo arrivati a questa situazione se non l'avessi fatta fuori dal vaso, come ti capita sistematicamente quando discuti con me.

Non ho problemi a discutere civilmente, come avevo fatto fino a quando non sei stato TU ad andare sul piano personale, come si può appurare andando a leggere i precedenti commenti in maniera strettamente cronologica.

k0nt3
07-02-2021, 10:29
E' vero, hai ragione. Il comportamento più intelligente sarebbe quello di lasciar perdere e far scivolare via le provocazioni.
Invece mi sto mettendo sullo stesso piano di cesare e sto controbattendo punto per punto.
Sappi solo che non è per orgoglio personale, è che non sopporto la prepotenza e la supponenza del "signore" in questione che si comporta così in modo sistematico e seriale, aggredendo sul piano personale sia me che molti altri utenti che hanno il solo difetto di non pensarla come lui.
Io non mi permetterei mai di dire a nessuno, e sottolineo nessuno, "sei uno zero" e tutto il "resto" ma, se trovo chi si pone in questi termini, non riesco a resistere nel ripagarlo con la stessa moneta.
Non vado fiero di questa mia modalità di gestire questo tipo di situazioni, chiedo quindi scusa sia a te che a chiunque altro abbia provato fastidio per questa diatriba che comunque non ho intenzione di mandare avanti ancora per molto. Buona serata:)
Capisco quello che vuoi dire, ma evidentemente non è una strategia che porta risultati ;)


Invece si vede che già con 4 core il gioco saturi la CPU. Con 6 core hai il 50% di risorse in più, ma la differenza coi 4C/8T risulta irrisoria. Purtroppo mancano i test con 6C e 8C (ma questi sarebbero superflui, perché si vede già il trend), che l'avrebbero dimostrato indubitabilmente.

Però se guardi anche lo scaling fra 2C/4T, 4C/8T, e 6C/12T, è evidente che già col 4C/8T il gioco è sostanzialmente arrivato al limite.

Il gioco scala sui thread, non sui core. Una volta appurato che riesce a scalare bene fino a 8t è chiaro che una CPU con 8c8t performi meglio di una con 4c8t per le motivazioni che hai già elencato nel tuo precendente post.
In ogni caso non è nemmeno vero che il gioco satura a 8t, come si può notare dalla recensione di anandtech:
https://images.anandtech.com/graphs/graph13971/107444.png
https://www.anandtech.com/show/13971/the-xeon-entry-cpu-review-e-2174g-e-2134-e-2104g/18
Il problema del test di overclock3d è probabilmente che usano la risoluzione FHD con dettagli alti su una GPU che non è nemmeno la top gamma di quella generazione.
Non proprio il setup ideale per testare una CPU.

Dopo più di 7 anni con console aventi ben 8C (quindi nemmeno thread hardware), unita alla storia delle precedenti console che pure avevano più core (e alcuni thread hardware a disposizione), sono quanto meno scettico.

Come ho già detto i giochi moderni sfruttano tutti gli 8 core delle console vecchie, ci è voluto un po' di tempo ma ci sono arrivati.
Uno dei problemi è stato quello delle librerie come dicevo prima, e la conferma viene dallo studio che si è occupato del porting su PC (sì perchè contrariamente all'opinione diffusa il codice per le console è diverso nonostante l'hardware sia simile e le librerie sempre dx12):
As Nixxes' Studio Head Jurjen Katsman explained, "DirectX 12 will give us is the ability to spread our CPU rendering work over all CPU cores, without introducing additional overhead. This is especially important on 8-core CPUs like Intel i7’s or many AMD FX processors."

"When using DirectX 11, in situations where the game is under heavy load – for example in the larger hubs of the game – the individual cores may not be able to feed a fast GPU quick enough. This means the game may not hit the desired frame-rate, requiring you to turn down settings that impact CPU performance. Even though the game can use all your CPU cores, the majority of the DirectX 11 related work is all happening on a single core. With DirectX 12, a lot of the work is spread over many cores, and the framerate of the game will run at can be much higher for the same settings."
https://www.nvidia.com/en-us/geforce/news/shadow-of-the-tomb-raider-graphics-and-performance-guide/
Ricordo che Shadow of the Tomb Raider è stato il primo gioco della serie a supportare pienamente le dx12 sin dal principio, e non come aggiunta a posteriori.

Mi spiace, ma non mi faccio mettere i piedi in testa da uno che non sa dove stia di casa quando si parla di tecnologia.

Se però molte persone trovano le tue risposte un tantino oltre il limite ci sarà un motivo no? Indipendentemente dalle conoscenze che uno ha, penso che almeno bisognerebbe rispettare le buone regole per un dialogo civile.

maxsin72
07-02-2021, 11:24
Ecco il TUO link: https://www.hwupgrade.it/forum/showthread.php?t=2883773&page=2
da cui arriva a questo mio commento: https://www.hwupgrade.it/forum/showpost.php?p=46317337&postcount=108
Andando alla discussione originale: https://forums.anandtech.com/threads/ryzen-strictly-technical.2500572/
e cercando si arriva alla recensione di Ryzen2: https://forums.anandtech.com/threads/ryzen-strictly-technical.2500572/post-39391302
dove si arriva alle specifiche delle memorie utilizzate:
"G.Skill FlareX 3200C14 2x8GB, 2666MHz CL14-14-14-32"

Dunque rimani un bugiardo matricolato.


Non leggi e non capisci un tubo, io mi riferivo ai test su sul 1800X che non è ryzen 2, ignorante!!! Non sai nemmeno la differenza tra zen1 e zen2 :asd: Ho chiaramente parlato più volte del tuo confronto spazzatura tra 1800x, ivy bridge e haswell (sul quale non ho fornito nessun link) di cui non hai riportato i dati sulle ddr, timings frequenze, ecc.

Ho sempre considerato le specifiche JEDEC, dunque non ho scritto nessuna falsità, mio caro mistificatore nonché bugiardo seriale.
Non sono stato io a farlo, ma il JEDEC per me, specifiche alla mano.

Ho già scritto tutto quello che dovevo, inutile darti ulteriore corda


Questo lo dici a tua madre: qui non è casa tua, e parlo quanto mi pare.

Con "quel "tua madre" passi un ulteriore limite di decenza che ti qualifica ulteriormete per il peracottaro maleducato e ignorante che sei. Certamente ognuno può parlare quanto vuole, non mi sono mai permesso di togliere a nessuno la parola, ma tuti arroghi il diritto di insultare quanto vuoi, che è cosa ben diversa, caro il mio peracottaro


Ma parli tu che non sai nemmeno come funzionino le memorie, per cui non ti puoi permettere di fare valutazioni come le mie? Le mie, peraltro, hanno un chiaro fondamento tecnico, come ho già dimostrato.

E tu hai cannato completamente sulle ddr5 dicendo che avevano latenze molto più alte, il resto è il rumore delle tue unghie sui vetri


LOL. Soltanto nel tuo universo parallelo questo "Continui a parlare di cose che non conosci" equivarrebbe a darti ragione...

Non è mica la prima volta che riporti sciocchezze quando parli di tecnologia: questa finisce assieme a tutte le altre, mio caro mr. x486...

A me fanno ribaltare dalle risate i tuoi continui tentativi di uscirtene da una discussione dopo aver spiattellato l'n-esima colossale balla, e facendo poi la vittima cercando un pietoso consenso.

ADESSO hai tirato fuori ottimizzazioni quando PRIMA hai parlato TU (non io), esclusivamente dello sfruttamento dei core grazie alla diffusione delle console. Due discorsi diversi, insomma. Come tu sia passato dall'uno all'altro, peraltro piazzando la tua amata AMD in mezzo (come se dello sfruttamento dei core non ne potessero trarre ugualmente vantaggio la concorrenza) non lo so e nemmeno voglio saperlo, visto che sono e rimangono tuoi evidenti problemi di comprensione dei contenuti scritti nella discussione.


Anche qui ho già scritto tutto quello che dovevo, inutile darti ulteriore corda

Infine è bene sottolineare un'altra falsità che hai riportato: l'hardware delle console non è "lo stesso identico e sottolineo identico hardware" né fra le stesse console (perché che hanno differenze fra di loro) né coi PC (perché le nuove console hanno alcune caratteristiche peculiari. Paradossalmente le nuove console sono leggermente più diverse dei PC rispetto alle precedenti, e quindi un port su PC richiederà più tempo).

Le nuove xbox e ps5 sono zen2 con rdna 2, configurazioni che puoi trovare facilmente su molti pc, tutto quello che dici non ha senso

Questo succede quando uno non ha la minima idea di quello di cui parla, ed è un caso molto frequente quando sei a tu a farlo, come dimostra non soltanto questo thread, ma anche gli altri a cui hai partecipato e in cui abbiamo avuto delle discussioni.

Quello che non ha la minima idea di quello che dice sei tu che dici che le ddr5 avranno latenze più alte delle ddr4



Ma chi vuoi prendere in giro? Da una parte hai affermato di averti sbagliato, ma dall'altra hai continuato imperterrito con la sciocchezza che avevi detto. Riporto di seguito l'esatta cronologia delle tue affermazioni in merito:
"Nel passaggio a cui ti riferisci ho scritto un concetto sbagliato Non ho nessun problema ad ammetterlo con chi ha voglia di ragionare in modo costruttivo e si pone con sincerità
[...]
mi viene da ipotizzare che le ddr5 3200, in virtù di timings migliori, pur se da rapportare al clock, potrebbero anche avere latenze leggermente migliori
[...]
mi incuriosisce capire se la banda reale in più a favore delle DDR5 può essere tra virgolette sfruttata per avere, sempre a parità di banda reale con le ddr4, latenze migliori"
Se hai fatto un'affermazione sbagliata lo dici chiaro e tondo, ma NON continui a girarci ancora attorno.

Hai sbagliato, sì o no? Dillo una buona volta, e fermati lì.

Tu mi hai accusato di essere un bugiardo perchè non avevo risposto e mi hai accusato diverse volte di non leggere: il dato di fatto è che ho risposto e che sei tu che non leggi e che quindi sei tu un bugiardo incapace.

Alder Lake non c'entra nulla, come non c'entra nulla Zen4.

Alder lake c'entra eccome perchè rende obsoleto rocket lake ancor prima di zen 4, non fare il finto tonto e ammetti di non capire un tubo.

Se uno può aspettare può saltare tranquillamente Rocket Lake, e questo non l'ho mai negato. Ma vale tanto per Alder Lake quanto per qualunque altro processore che arriverà in futuro, Zen4 e successori di Alder Lake inclusi, come peraltro avevo già scritto.
Ma SE (ed era questo che avevo scritto in QUEL preciso contesto) uno non può aspettare, allora Rocket Lake è sicuramente da prendere in considerazione.

Balle su balle su altre balle, tu hai scritto questo:


Irrilevante. Hai tirato in ballo Zen4 in un discorso dove è sostanzialmente inutile. Perché se il principio è che uno deve aspettare perché in futuro ci sarà di meglio, allora non comprerà mai.

Sottolineo per l'ennesima volta che ti sei perso, da ignorante, alder lake



Con te bisogna continuamente ripetere le stesse cose, perché o non c'arrivi o dopo qualche ora hai completamente dimenticato ciò di cui si parlava. Ecco perché sei un caso disperato.

Ma sei incredibile :asd:

Ma proprio no: la minchiata su Keller e Alder Lake l'hai scritta TU, e TU devi portare le prove.

E' perfettamente inutile cercare di rigirare la frittata: l'onere della prova è tutto TUO!

Ho riportato una notizia, se affermi che non è attendibile lo dimostri tu, punto.

A parole puoi dire tutte le sciocchezze che vuoi: quote e link alle mie affermazioni, e la dimostrazione che sarebbero sbagliate.

Altrimenti sei il solito mistificatore nonché bugiardo seriale.

Sopra ho riportato cronologicamente i tuoi messaggi in merito, che dimostrano che no, non hai smentito un bel nulla, ma che continui a girarci attorno.

Se hai sbagliato dillo chiaro e tondo, senza se e senza ma.

Se non leggi nemmeno getto la spugna, è tutto scritto nero su bianco e k0nt3, a differenza tua, ha capito perfettamente la risposta, se tu non sai leggere e/o non capisci, ti posso solo consigliare di rivolgerti ad un bravo professionista che ti possa essere di aiuto

Ho già dimostrato come stiano le cose: la mia originale affermazione era corretta, perché ricordavo bene come funzionino le DDR5. L'intoppo c'è stato col link di AnandTech, che riporta informazioni non corrette sulle DDR4, e che ha ingannato tutti. Ma poi le ho recuperate, e i FATTI mi hanno dato pienamente ragione.
Ti ho già risposto sopra, e quella che riporti è soltanto una parte della discussione, ossia quella che ti fa più comodo.

Ciò che conta è che la mia originale affermazione sulle DDR5 fosse correttamente, come ampiamente dimostrato quando tutti i dati sono stati riportati.

Intoppo :asd: ah adesso dire corbellerie è un intoppo? Non hai verificato quanto scritto da anadtech, sei stato leggero e hai detto corbellerie... tutto questo si chiama ignoranza, punto. E non è la prima volta che porti avanti a spada tratta le teorie di altre corbellerie che arrivano solo e soltanto da anadtech


Ti ho già risposto sopra, e quella che riporti è soltanto una parte della discussione, ossia quella che ti fa più comodo.

Ciò che conta è che la mia originale affermazione sulle DDR5 fosse correttamente, come ampiamente dimostrato quando tutti i dati sono stati riportati.

Certo che lo nego, perché stai facendo cherry-picking prendendo solo quello che ti fa comodo.

Come già detto, quanto avevo scritto originariamente sulle DDR5 era vero, dati (tutti) alla mano.

detto da uno che nemmeno legge, gli parli del 1800x e ti riporta i link di zen2 ... stendiamo un pietoso velo di lacrime

E chi ha detto che c'è solo lo standard JEDEC?

Le mie considerazioni le ho fatte standard alla mano, per i motivi che ho già esposto.

Poi che ci saranno delle memorie che andranno oltre gli standard non l'ho mai negato, ma l'ho riportato pure io, ma vale per qualunque memoria commercializzata.

Quindi mi dai ragione perchè l'asticella per i pc enthusiast la fissa il prodotto migliore sul mercato e non jedec, hai fatto l'ennesima figura del peracottaio :asd:



Mi spiace, ma non mi faccio mettere i piedi in testa da uno che non sa dove stia di casa quando si parla di tecnologia.

Ma se confondi il 1800x con zen 2, sei ridicolo :asd:

E' inutile che cerchi di fare la parte della vittima e del saggio: non saremmo arrivati a questa situazione se non l'avessi fatta fuori dal vaso, come ti capita sistematicamente quando discuti con me.

E dimostri ancora di non saper leggere e di non capire, nessun vittimismo. Mi sembrava doveroso chiedere scusa a chi, e ce ne è stato più di uno, si è lamentato della nostra diatriba perchè hanno ragione sul fatto che troll peracottari come te non andrebbero nutriti :asd:

Non ho problemi a discutere civilmente, come avevo fatto fino a quando non sei stato TU ad andare sul piano personale, come si può appurare andando a leggere i precedenti commenti in maniera strettamente cronologica.
E le mamotte incartano la cioccolata :asd:

gigioracing
07-02-2021, 11:27
altra fuffa a 14nm . meglio aspettare fra 6 mesi la gen12...

Free Gordon
07-02-2021, 14:38
altra fuffa a 14nm . meglio aspettare fra 6 mesi la gen12...

Dopo chilometri di discussioni... :asd:

Lapidario! :sofico:

:rotfl:


Comunque sono moderatamente d'accordo con te. :D

maxsin72
07-02-2021, 14:44
Dopo chilometri di discussioni... :asd:

Lapidario! :sofico:

:rotfl:


Comunque sono moderatamente d'accordo con te. :D

Sappiate comunque che anche io, in estrema sintesi :D , concordo con voi due :sofico:
E adesso aspettiamoci la reazione dell'ex dipendente intel :sofico:

Rossi88
07-02-2021, 18:37
Dopo chilometri di discussioni... :asd:

Lapidario! :sofico:

:rotfl:


Comunque sono moderatamente d'accordo con te. :D

Di certo non si può dire che non abbia proprietà di sintesi. :rotfl:
Sono abbastanza daccordo anch'io comunque.

cdimauro
08-02-2021, 07:03
Capisco quello che vuoi dire, ma evidentemente non è una strategia che porta risultati ;)
Sto cercando di togliere un po' di spazzatura, ma su certe cose non posso proprio sorvolare.
Il gioco scala sui thread, non sui core. Una volta appurato che riesce a scalare bene fino a 8t è chiaro che una CPU con 8c8t performi meglio di una con 4c8t per le motivazioni che hai già elencato nel tuo precendente post.
In ogni caso non è nemmeno vero che il gioco satura a 8t, come si può notare dalla recensione di anandtech:
https://images.anandtech.com/graphs/graph13971/107444.png
https://www.anandtech.com/show/13971/the-xeon-entry-cpu-review-e-2174g-e-2134-e-2104g/18
Il problema del test di overclock3d è probabilmente che usano la risoluzione FHD con dettagli alti su una GPU che non è nemmeno la top gamma di quella generazione.
Non proprio il setup ideale per testare una CPU.
Esattamente, e si vede anche nell'altro grafico, dove vengono mostrati i risultati dei test su due piattaforme (Intel e AMD) e con 8C/16T (che sono simili ai 6C/12T).

Il problema è che non si può prendere in considerazione nemmeno il test di AnandTech, perché vengono usate piattaforme diverse.

L'ideale sarebbe la recensione di Overclock3D, perché lo scopo era proprio quello di analizzare lo scaling del gioco in base al numero di core e/o thread (infatti la CPU usata è esattamente la stessa, e pure con la frequenza bloccata a 4Ghz), ma a 720p e dettagli minimi.
Come ho già detto i giochi moderni sfruttano tutti gli 8 core delle console vecchie, ci è voluto un po' di tempo ma ci sono arrivati.
Non ho visto analisi di questo tipo. Se ne hai qualcuna potresti condividerla? Sarebbe interessante vedere se tutti i core vengono effettivamente sfruttati.
Uno dei problemi è stato quello delle librerie come dicevo prima, e la conferma viene dallo studio che si è occupato del porting su PC (sì perchè contrariamente all'opinione diffusa il codice per le console è diverso nonostante l'hardware sia simile e le librerie sempre dx12):

https://www.nvidia.com/en-us/geforce/news/shadow-of-the-tomb-raider-graphics-and-performance-guide/
Le librerie però sono le stesse. Poi che ci siano differenze pur usando le stesse librerie l'ho riportato pure io, perché le console vecchie sono un leggermente diverse dai PC (), e quelle nuove un po' di più.
Ricordo che Shadow of the Tomb Raider è stato il primo gioco della serie a supportare pienamente le dx12 sin dal principio, e non come aggiunta a posteriori.
Non è un requisito necessario. Anche se hai usato le DX11 e poi porti il gioco alle DX12, ciò che conta è la qualità del lavoro che hai fatto e quindi i risultati che ottieni.
Se però molte persone trovano le tue risposte un tantino oltre il limite ci sarà un motivo no? Indipendentemente dalle conoscenze che uno ha, penso che almeno bisognerebbe rispettare le buone regole per un dialogo civile.
E' quel che ho fatto all'inizio del thread, e i miei commenti sono lì a testimoniarlo. Ma non sono una pecora che si fa prendere a pedate senza reagire.
Non leggi e non capisci un tubo, io mi riferivo ai test su sul 1800X che non è ryzen 2, ignorante!!! Non sai nemmeno la differenza tra zen1 e zen2 :asd: Ho chiaramente parlato più volte del tuo confronto spazzatura tra 1800x, ivy bridge e haswell (sul quale non ho fornito nessun link) di cui non hai riportato i dati sulle ddr, timings frequenze, ecc.
E niente, se non dimostri di sconoscere la discussione di cui hai tu stesso riportato il link non sei contento. Ti rinfresco la memoria.

In quella discussione avevo già riportato le frequenze della memoria per i test di Ryzen 1800X, ma l'unica cosa che mancava erano i timing, ed è quello di cui ti sei sempre lamentato Quelli sono arrivati DOPO, nei test di Ryzen2 per l'appunto, e sono quelli che ho riportato. Perché TheStilt ha usato le stesse memorie (di cui ha fornito anche manca e modello) per tutti i test, anche quando ha testato Ryzen3 l'anno dopo.

Se avessi letto i link che ho riportato lo avresti appurato (mentre avresti dovuto ricordarlo, invece, visto che a quella discussione hai partecipato anche tu!), ma siccome non t'interessa, ecco che sei di nuovo partito per la tangente col tuo disco rotto che ciecamente ripeti ormai sistematicamente.
Con "quel "tua madre" passi un ulteriore limite di decenza che ti qualifica ulteriormete per il peracottaro maleducato e ignorante che sei. Certamente ognuno può parlare quanto vuole, non mi sono mai permesso di togliere a nessuno la parola, ma tuti arroghi il diritto di insultare quanto vuoi, che è cosa ben diversa, caro il mio peracottaro
Hai una gran faccia di bronzo a cercare di rigirare la frittata. Sei stato TU a intimarmi di stare zitto, e quindi sei TU il maleducato che non sa come comportarsi con altra gente. I tuoi l'educazione non te l'hanno insegnata? T'hanno detto almeno una volta che questi comportamenti non si devono tenere, o t'hanno cresciuto nella giungla?

Io ho semplicemente REAGITO di conseguenza.

Prenditi la responsabilità di quello che TU STESSO hai causato, una buona volta.
E tu hai cannato completamente sulle ddr5 dicendo che avevano latenze molto più alte, il resto è il rumore delle tue unghie sui vetri
Io non ho cannato affatto, e l'ho dimostrato coi NUMERI alla mano.
Anche qui ho già scritto tutto quello che dovevo, inutile darti ulteriore corda
Troppo comodo uscirtene fuori quando hai fatto la sparata sull'utilizzo dei core e delle console.

E' ovvio che adesso cerchi di fuggire, perché sei del tutto incapace a dimostrare le tue affermazioni. Un film già visto, insomma.
Le nuove xbox e ps5 sono zen2 con rdna 2, configurazioni che puoi trovare facilmente su molti pc, tutto quello che dici non ha senso
Non ha senso per chi non ha la minima idea degli argomenti di cui parla.

PS5 ha un chip audio dedicato. PS5 e XBox Series S e X hanno un'unità hardware dedicata alla decompressione dei dati provenienti dall'SSD. Queste sono le più grossolane (perché ce ne sono altre minori) differenze coi PC, e che richiederanno adattamenti quando i giochi esclusivi di queste console verranno portati su PC, per l'appunto.

Gli articoli e le notizie in merito sono passate proprio da qui, ma o non li hai letti, o non li ricordi. Come tuo solito. Ma son sempre problemi tuoi, e non miei.
Quello che non ha la minima idea di quello che dice sei tu che dici che le ddr5 avranno latenze più alte delle ddr4
Ripetere le stesse falsità come un disco rotto non le renderà automaticamente vere: ho ampiamente chiarito come stiano le cose.
Tu mi hai accusato di essere un bugiardo perchè non avevo risposto e mi hai accusato diverse volte di non leggere: il dato di fatto è che ho risposto e che sei tu che non leggi e che quindi sei tu un bugiardo incapace.
Nonostante abbia riportato la precisa sequenza cronologica delle TUE affermazioni non hai ancora risposto: chi l'avrebbe mai detto.

Scrivi papiri chilometrici, ma a quanto pare per te è un'impresa impossibile spendere manco un paio di secondi per confermare se ti fossi sbagliato oppure no.
Alder lake c'entra eccome perchè rende obsoleto rocket lake ancor prima di zen 4, non fare il finto tonto e ammetti di non capire un tubo.

Balle su balle su altre balle, tu hai scritto questo:

Sottolineo per l'ennesima volta che ti sei perso, da ignorante, alder lake
Alder Lake non c'entra assolutamente in quel contesto, e non mi ripeterò nuovamente visto che ho già risposto con dovizia di particolare. Il problema, al solito, sei tu, e chiunque può appurare come stiano realmente le cose.
Ho riportato una notizia, se affermi che non è attendibile lo dimostri tu, punto.
E' esattamente quello che ho fatto: a differenza tua ho letto i tre articoli, e ho appurato che non esiste alcuna prova di quello che avevi affermato.

Dunque la tua precedente affermazione rimane indimostrata, e sei punto da capo: ti tocca portare altre prove (cosa di cui dubito fortemente).
Se non leggi nemmeno getto la spugna, è tutto scritto nero su bianco e k0nt3, a differenza tua, ha capito perfettamente la risposta, se tu non sai leggere e/o non capisci, ti posso solo consigliare di rivolgerti ad un bravo professionista che ti possa essere di aiuto
Ho già dimostrato, TUE affermazioni alla mano, che non è affatto così, visto che hai cercato di girarci attorno. E' tutto perfettamente riportato nel precedente commento.

Il professionista serve a chi non è capace di digitare soltanto DUE lettere, SI o NO, per confermare o meno se abbia sbagliato.
Intoppo :asd: ah adesso dire corbellerie è un intoppo? Non hai verificato quanto scritto da anadtech, sei stato leggero e hai detto corbellerie... tutto questo si chiama ignoranza, punto.
Ho affermato che le latenze delle DDR5 erano più elevate, e l'ho pure dimostrato. Per cui le tue rimangono pure falsità.
E non è la prima volta che porti avanti a spada tratta le teorie di altre corbellerie
In tal caso fornisci pure il link, e poi vediamo se siano corbellerie o meno.

Ricorda: l'onere della prova è tuo, perché tue sono le affermazioni. Se non ne porti vorrà dire che sei il solito bugiardo e pubblico mentitore.
che arrivano solo e soltanto da anadtech
Ed ecco un'altra falsità: non mi affido soltanto ad AnandTech, e nelle discussioni ho riportato anche altri siti.

Inoltre AnandTech non è noto per riportare informazioni non corrette. Tutt'altro. Una stecca non fa di un tenore uno schiappa, come stai cercando di far passare. E questa è pure una fallacia logica: il classico avvelenamento del pozzo (http://www.linux.it/~della/fallacies/avvelenamento-del-pozzo.html).

Non ti fai mancare niente, perché evidentemente non sai più a cosa aggrapparti.
detto da uno che nemmeno legge, gli parli del 1800x e ti riporta i link di zen2 ... stendiamo un pietoso velo di lacrime
Ho già chiarito sopra: non ricordi nemmeno le discussioni a cui hai attivamente partecipato.
Quindi mi dai ragione perchè l'asticella per i pc enthusiast la fissa il prodotto migliore sul mercato e non jedec, hai fatto l'ennesima figura del peracottaio :asd:
Adesso sei passato da un discorso generale ai PC "enthusiast", quindi stai cambiando discorso: chi l'avrebbe mai detto...

Sei nella disperazione più nera, e non sai più quali altre falsità inventarti a mio carico pur di cercare di strappare qualche consenso (e non sarebbe comunque il caso, perché hai pur sempre torto).
Ma se confondi il 1800x con zen 2, sei ridicolo :asd:
Già risposto sopra: non sai di che parli.
E dimostri ancora di non saper leggere e di non capire, nessun vittimismo. Mi sembrava doveroso chiedere scusa a chi, e ce ne è stato più di uno, si è lamentato della nostra diatriba perchè hanno ragione sul fatto che troll peracottari come te non andrebbero nutriti :asd:
Devi chiedere scusa soltanto per un motivo: perché sei stato TU a portare la discussione a questo livello, facendola fuori dal vaso.
E le mamotte incartano la cioccolata :asd:
I commenti sono lì e chiunque può verificare che la discussione era civile, finché non hai deciso di andare sul piano personale, caro il mio bugiardo seriale.
E adesso aspettiamoci la reazione dell'ex dipendente intel :sofico:
Ed ecco puntuale anche l'attacco ad hominen: nota nonché comune fallacia logica.

Come ho già detto, non ti fai mancare proprio niente.

maxsin72
08-02-2021, 09:32
Ma non sono una pecora che si fa prendere a pedate senza reagire.

Tu hai problemi molto seri: prima aggredisci sul piano personale e poi, quando qualcuno ti ripaga con la stessa moneta, frigni

E niente, se non dimostri di sconoscere la discussione di cui hai tu stesso riportato il link non sei contento. Ti rinfresco la memoria.

In quella discussione avevo già riportato le frequenze della memoria per i test di Ryzen 1800X, ma l'unica cosa che mancava erano i timing, ed è quello di cui ti sei sempre lamentato Quelli sono arrivati DOPO, nei test di Ryzen2 per l'appunto, e sono quelli che ho riportato. Perché TheStilt ha usato le stesse memorie (di cui ha fornito anche manca e modello) per tutti i test, anche quando ha testato Ryzen3 l'anno dopo.

Se avessi letto i link che ho riportato lo avresti appurato (mentre avresti dovuto ricordarlo, invece, visto che a quella discussione hai partecipato anche tu!), ma siccome non t'interessa, ecco che sei di nuovo partito per la tangente col tuo disco rotto che ciecamente ripeti ormai sistematicamente.

Hai una gran faccia di bronzo a cercare di rigirare la frittata. Sei stato TU a intimarmi di stare zitto, e quindi sei TU il maleducato che non sa come comportarsi con altra gente. I tuoi l'educazione non te l'hanno insegnata? T'hanno detto almeno una volta che questi comportamenti non si devono tenere, o t'hanno cresciuto nella giungla?

E qui ti dimostri disonesto intellettualmente, maleducato, volgare...togliere spazzatura? Dovresti togliere te stesso dal forum: prima te ne esci con "tua madre" e adesso, non contento, tiri in ballo tutta la mia famiglia, sei senza limiti...
Ma veniamo alle questioni tecniche. Già non è normale doversi sbattere così per trovare i dati di una configurazione, dati che devi riportare tu e per i quali non devi rompere le scatole agli altri.
In ogni caso ti rinfresco anche io la memoria: se in tutto quel marasma le memorie utilizzate sono le stesse di ryzen 2 confermi che i test sono spazzatura perchè sono state utilizzate memorie che, come ti avevo dimostrato con il post sotto riportato, penalizzano fortemente ryzen rendendo i tuoi cari test quello che sono ovvero spazzatura come la tua persona perchè non puoi usare delle ddr4 2666 sperando di avere un test valido, quando tutti sanno che l'optimum sono delle 3600, e qui dimostri ulteriormente di essere ignorante e di non conoscere la materia. Poi aggiungi anche che le stesse ddr4 le hanno usate per zen3, siamo alla follia ddr4 2666 su zen3, siete ridicoli tu e i tuoi amichetti di anandtech, che su zen3 nel 2020 non vedono nulla di strano ad usare dell 2666 quando per sfruttarlo al meglio servono delle 3600 o anche delle 3800, ignoranti tu e loro :asd:
Ho visto i testbed dei Ryzen 3700X e 3900X sul link che hai postato e devo dire che The Stilt mi ha deluso moltissimo, temo che i suoi test non siano per nulla rappresentativi e ti spiego perchè partendo dalla configurazione da lui utilizzata:

AMD Ryzen 7 3700X (IPC / SMT = 3.800GHz fixed, SKU-SKU ST up to 4.40GHz)
ASUS ROG Crosshair VIII Formula (Bios 0605, µCode 0x08701013 6/11/2019, SMU 46.37)
2x16GB Corsair LPX 3333C16 running at 2666MHz 12-12-12-28 (IPC & SMT), 3200MHz 14-14-14-32, 1:1 FCLK (SKU-SKU ST)
Deepcool Assassin II cooler
Windows 10 Education 10.0.18362.175

AMD Ryzen 7 3900X (SKU-SKU ST up to 4.6GHz)
ASUS ROG Crosshair VIII Formula (Bios 0605, µCode 0x08701013 6/11/2019, SMU 46.37)
2x16GB Corsair LPX 3333C16 running at 2666MHz 12-12-12-28 (IPC & SMT), 3200MHz 14-14-14-32, 1:1 FCLK (SKU-SKU ST)
Deepcool Assassin II cooler
Windows 10 Education 10.0.18362.175

Dai dati sul testbed emerge che per i test IPC ha utilizzato delle DDR4 2666 quando è arcinoto che l'ideale per Zen 2 sono le DDR4 3600 e solo un pazzo utilizzerebbe delle 2666 con una cpu Zen 2, ecco perchè:

https://i.postimg.cc/kgDfxLfx/Screen-Hunter-427-Jul-21-22-08.jpg

Il test è di un certo Der8auer, quindi di uno che ne sa parecchio in materia https://www.youtube.com/watch?v=tlUE8GlkbGA

E aggiungiamoci i test di Techpowerup https://www.techpowerup.com/review/amd-zen-2-memory-performance-scaling-benchmark/2.html che evidenziano differenze che superano anche il 10% di divario tra DDR4 2666 e 3600.

Anche le testate più importanti e affidabili hanno usato DDR4 3600 o comunque non meno delle DDR4 3200 ben lontane dalle 2666 usate da The Stilt:

https://www.guru3d.com/articles_pages/amd_ryzen_7_3700x_ryzen_9_3900x_review,8.html 3600
https://www.hwupgrade.it/articoli/cpu/5480/amd-ryzen-9-3900x-e-ryzen-7-3700-zen-2-stravolge-il-mercato-delle-cpu_index.html 3200
https://www.tomshardware.com/reviews/ryzen-9-3900x-7-3700x-review,6214-5.html 3200 e 3600
https://www.techspot.com/review/1877-core-i9-9900k-vs-ryzen-9-3900x/ 3200 e 3600
https://www.anandtech.com/show/14605/the-and-ryzen-3700x-3900x-review-raising-the-bar/5 3200
https://hothardware.com/reviews/amd-ryzen-9-3900x-and-ryzen-7-3700x-zen-2-review?page=3 3600
https://www.pcworld.com/article/3405567/ryzen-3000-review-amds-12-core-ryzen-9-3900x.html 3600

E' ben evidente come la velocità delle ddr impatti in modo molto più significativo su Zen 2 che non su intel, dove le differenze sono molto più contenute.



Io ho semplicemente REAGITO di conseguenza.

Prenditi la responsabilità di quello che TU STESSO hai causato, una buona volta.

Mi spiace ma quello che ha un curriculum sterminato di flame sul forum sei tu, non io, quindi cosa cavolo vai dicendo?


Io non ho cannato affatto, e l'ho dimostrato coi NUMERI alla mano.

Troppo comodo uscirtene fuori quando hai fatto la sparata sull'utilizzo dei core e delle console.

Dati alla mano hai cannato eccome, sei tu che hai affermato che le ddr5 avranno latenze molto più alte, sei tu che prendi anandtech come la Bibbia e poi esce fuori che usano configurazioni sballate che penalizzano zen o che fanno errori macroscopici che tu stesso riconosci

E' ovvio che adesso cerchi di fuggire, perché sei del tutto incapace a dimostrare le tue affermazioni. Un film già visto, insomma.

Fuggire? Ma ci sei o ci fai :asd: sono qua bello e ti sto ribaltando anche per bene divertendomi un sacco :asd:

Non ha senso per chi non ha la minima idea degli argomenti di cui parla.

PS5 ha un chip audio dedicato. PS5 e XBox Series S e X hanno un'unità hardware dedicata alla decompressione dei dati provenienti dall'SSD. Queste sono le più grossolane (perché ce ne sono altre minori) differenze coi PC, e che richiederanno adattamenti quando i giochi esclusivi di queste console verranno portati su PC, per l'appunto.

Ho scritto che le console sono zen2 e rdna2, hardware che si ritrova anche sui pc,puoi smentirlo? Risposta: no, quindi non arrampicarti sui vetri

Gli articoli e le notizie in merito sono passate proprio da qui, ma o non li hai letti, o non li ricordi. Come tuo solito. Ma son sempre problemi tuoi, e non miei.

Ripetere le stesse falsità come un disco rotto non le renderà automaticamente vere: ho ampiamente chiarito come stiano le cose.

Nonostante abbia riportato la precisa sequenza cronologica delle TUE affermazioni non hai ancora risposto: chi l'avrebbe mai detto.

Scrivi papiri chilometrici, ma a quanto pare per te è un'impresa impossibile spendere manco un paio di secondi per confermare se ti fossi sbagliato oppure no.

Ti ho già rismontato, come sempre, i 2 secondi netti :asd: vedi sopra


Alder Lake non c'entra assolutamente in quel contesto, e non mi ripeterò nuovamente visto che ho già risposto con dovizia di particolare. Il problema, al solito, sei tu, e chiunque può appurare come stiano realmente le cose.

Guarda come cerca di scappare :asd: alder lake c'entra eccome perchè, più ancora di zen4, fa nascere morto rocket lake, ma tu continua pure ad arrampicarti sui vetri :asd:


E' esattamente quello che ho fatto: a differenza tua ho letto i tre articoli, e ho appurato che non esiste alcuna prova di quello che avevi affermato.

Ma sei duro di comprendonio allora... io non ho affermato nulla, ho riportato una notizia, se tu puoi smentire la notizia fallo oppure taci.



Dunque la tua precedente affermazione rimane indimostrata, e sei punto da capo: ti tocca portare altre prove (cosa di cui dubito fortemente).

Ho già dimostrato, TUE affermazioni alla mano, che non è affatto così, visto che hai cercato di girarci attorno. E' tutto perfettamente riportato nel precedente commento.

vedi sopra

Il professionista serve a chi non è capace di digitare soltanto DUE lettere, SI o NO, per confermare o meno se abbia sbagliato.

E niente gli altri capiscono e leggono e tu che sei un genio no, strano eh?


Ho affermato che le latenze delle DDR5 erano più elevate, e l'ho pure dimostrato. Per cui le tue rimangono pure falsità.

Bugiaro!!!Hai affermato che sono nettamente più alte, io ti ho fatto notare che su jedec c'era una differenza del 1,8% a fronte di un raddoppio di banda, sei un bugiardo!!!
Oltre al fatto che non sappiamo come saranno i migliori prodotti sul mercato, quindi bugiardo 3 volte!!!

In tal caso fornisci pure il link, e poi vediamo se siano corbellerie o meno.

Ricorda: l'onere della prova è tuo, perché tue sono le affermazioni. Se non ne porti vorrà dire che sei il solito bugiardo e pubblico mentitore.

Fornisco sempre i link di quello che dico e l'esempio c'è anche in questa discussione :asd:

Ed ecco un'altra falsità: non mi affido soltanto ad AnandTech, e nelle discussioni ho riportato anche altri siti.

Inoltre AnandTech non è noto per riportare informazioni non corrette. Tutt'altro. Una stecca non fa di un tenore uno schiappa, come stai cercando di far passare. E questa è pure una fallacia logica: il classico avvelenamento del pozzo (http://www.linux.it/~della/fallacies/avvelenamento-del-pozzo.html).

Mi riferivo ai test su ryzen, capra che non sei altro :asd: la presunta superiorità di haswell e perfino ivy bridge su zen 1 l'hai presa solo da anandtech :asd: non capisci un tubo!

Non ti fai mancare niente, perché evidentemente non sai più a cosa aggrapparti.

Oh grande cesare, ave cesare, risparmiami, la tua forza è troppo grande, si come no, non so proprio più dove aggrapparmi :asd:

Ho già chiarito sopra: non ricordi nemmeno le discussioni a cui hai attivamente partecipato.

Già smontato in 2 secondi

Adesso sei passato da un discorso generale ai PC "enthusiast", quindi stai cambiando discorso: chi l'avrebbe mai detto...

L'11900k è da pc enthusiast, è una cpu overcloccata di fabbrica che fa 250w, ma di che vai farneticando, ignorante!

Sei nella disperazione più nera, e non sai più quali altre falsità inventarti a mio carico pur di cercare di strappare qualche consenso (e non sarebbe comunque il caso, perché hai pur sempre torto).

Già risposto sopra: non sai di che parli.

Devi chiedere scusa soltanto per un motivo: perché sei stato TU a portare la discussione a questo livello, facendola fuori dal vaso.

I commenti sono lì e chiunque può verificare che la discussione era civile, finché non hai deciso di andare sul piano personale, caro il mio bugiardo seriale.

Ed ecco puntuale anche l'attacco ad hominen: nota nonché comune fallacia logica.

Come ho già detto, non ti fai mancare proprio niente.

Quello che attacca ad hominem sei solo tu, prima vai pesante sul personale e poi arrivi ad insultare tutta la famiglia, non conosci proprio la vergogna eh? Sei un buffone...

maxsin72
08-02-2021, 11:49
Perché TheStilt ha usato le stesse memorie (di cui ha fornito anche manca e modello) per tutti i test, anche quando ha testato Ryzen3 l'anno dopo.


Approfondiamo ulteriormente: su Zen 3 the Stilt (Anandtech) ha utilizzato delle G.Skill FlareX 3200C14 2x8GB, 2666MHz CL14-14-14-32" :D :D :D
Fate ridere sia tu che lui, mai test potrebbero essere più falsati soprattutto sul gaming, notare la differnza di "solo" il 20%, come dire noccioline, di fps tra delle ddr4 3000, quindi nemmeno delle misere 2666, e delle 3733:

https://premiumbuilds.com/wp-content/uploads/2020/10/Ryzen-RAM-Benchmarks-Tomb-Raider.png

Il link ai test completi è questo https://premiumbuilds.com/features/zen-3-ram-speeds-benchmark-analysis/

In sintesi tu e the stilt siete la dimostrazione vivente di come sia possibile prendere una ottima cpu e azzopparla del 20% per poi poter affermare che intel è superiore. Questa è completa ignoranza o, peggio ancora, malafede.

k0nt3
08-02-2021, 19:47
Esattamente, e si vede anche nell'altro grafico, dove vengono mostrati i risultati dei test su due piattaforme (Intel e AMD) e con 8C/16T (che sono simili ai 6C/12T).

Il problema è che non si può prendere in considerazione nemmeno il test di AnandTech, perché vengono usate piattaforme diverse.

L'ideale sarebbe la recensione di Overclock3D, perché lo scopo era proprio quello di analizzare lo scaling del gioco in base al numero di core e/o thread (infatti la CPU usata è esattamente la stessa, e pure con la frequenza bloccata a 4Ghz), ma a 720p e dettagli minimi.

Non ho visto analisi di questo tipo. Se ne hai qualcuna potresti condividerla? Sarebbe interessante vedere se tutti i core vengono effettivamente sfruttati.

Concordo che entrambe le recensioni non sono perfette, ma i dati per trarne delle conclusioni ci sono tutti:
1) nel test di overclock3d tra 4c4t e 4c8t c'è una netta differenza (+10fps in media e +22fps minimi) che indica chiaramente che il gioco è in grado di scalare bene su 8t
2) nel test di anandtech è vero che le CPU sono diverse, ma le differenze sono davvero minime (vedi E-2174G vs E-2176G o E-2134 vs E-2136 che hanno le stesse frequenze di boost e la sola cache non può spiegare l'aumento di fps).

Comunque non so perchè continui a parlare di 6c12t mentre io ho semplicemente detto che un 8c8t avrebbe performance migliori del 4c8t, a patto che il collo di bottiglia non sia la GPU, e questo mi sembra lapalissiano.

In ogni caso visto che nutri ancora dei dubbi ho trovato questi video che mostrano inequivocabilmente due cose:
1) il gioco spalma molto bene il carico su (almeno) 8 core (https://www.youtube.com/watch?v=gZZ9DU_5Wlw)
2) in 1080p la configurazione testata da overclock3d è fortemente limitata dalla GPU (https://www.youtube.com/watch?v=b9gLuUASlYg)

Le librerie però sono le stesse. Poi che ci siano differenze pur usando le stesse librerie l'ho riportato pure io, perché le console vecchie sono un leggermente diverse dai PC (), e quelle nuove un po' di più.

Non è un requisito necessario. Anche se hai usato le DX11 e poi porti il gioco alle DX12, ciò che conta è la qualità del lavoro che hai fatto e quindi i risultati che ottieni.

Infatti è molto probabile che anche il titolo precedente sfruttasse abbastanza bene i core disponibili, ho preso Shadow of the Tomb Raider soltanto come esempio. Vedi anche https://tombraider.tumblr.com/post/140859222830/dev-blog-bringing-directx-12-to-rise-of-the-tomb

For Rise of the Tomb Raider the largest gain DirectX 12 will give us is the ability to spread our CPU rendering work over all CPU cores, without introducing additional overhead. This is especially important on 8-core CPUs like Intel i7’s or many AMD FX processors.

Con tanto di grafici di esempio che mostrano come il carico venga distribuito su 8 thread.

k0nt3
08-02-2021, 19:56
altra fuffa a 14nm . meglio aspettare fra 6 mesi la gen12...
Onestamente non si tratta di fuffa, queste nuove CPU mostrano veramente l'impegno che ci sta mettendo Intel con miglioramenti di IPC al livello di quello che abbiamo visto fare ad AMD ultimamente.
Manca ancora il nuovo processo produttivo all'appello, ma tutto dipende anche dal prezzo e dalla disponibilità sul mercato. E' possibile infatti che Alder Lake non sarà disponibile a grandissimi volumi e per molte persone (non io) queste CPU potrebbero andare benissimo.
Alla fine tutto dipende dal rapporto prezzo/prestazioni.

maxsin72
08-02-2021, 20:22
Onestamente non si tratta di fuffa, queste nuove CPU mostrano veramente l'impegno che ci sta mettendo Intel con miglioramenti di IPC al livello di quello che abbiamo visto fare ad AMD ultimamente.
Manca ancora il nuovo processo produttivo all'appello, ma tutto dipende anche dal prezzo e dalla disponibilità sul mercato. E' possibile infatti che Alder Lake non sarà disponibile a grandissimi volumi e per molte persone (non io) queste CPU potrebbero andare benissimo.
Alla fine tutto dipende dal rapporto prezzo/prestazioni.

Io credo che gigioracing si riferisse più che altro al processo produttivo a 14nm che, per quanto affinato fino all'estremo, mal si sposa con la nuova microarchitettura di rocket lake. Basti solo pensare ai 250w per soli 8 core per poter battere solo di qualche punto percentuale la controparte AMD. Come IPC, rocket lake non sembrerebbe in grado di battere Zen 3, mentre, grazie alle frequenze maggiori, lo supererebbe comunque in ST.
Ammesso e non concesso poi che alder lake possa arrivare a settembre/ottobre e di li a poco anche zen4, con nuovo socket, pci express 5.0, nuovi processi produttivi (penso soprattutto a intel che dopo 6 anni finalmente passerà ai 10nm che promettono faville), IPC che potrebbe salire di un 20-25%, DDR5 ecc., più che in altre situazioni, volendolo e potendolo fare, penso possa valere la pena aspettare. Poi ci sarà chi comprerà rocket lake a marzo/aprile e anche alder lake a settembre/ottobre, ma non penso saranno i più:)

cdimauro
14-02-2021, 23:29
Concordo che entrambe le recensioni non sono perfette, ma i dati per trarne delle conclusioni ci sono tutti:
1) nel test di overclock3d tra 4c4t e 4c8t c'è una netta differenza (+10fps in media e +22fps minimi) che indica chiaramente che il gioco è in grado di scalare bene su 8t
2) nel test di anandtech è vero che le CPU sono diverse, ma le differenze sono davvero minime (vedi E-2174G vs E-2176G o E-2134 vs E-2136 che hanno le stesse frequenze di boost e la sola cache non può spiegare l'aumento di fps).

Comunque non so perchè continui a parlare di 6c12t mentre io ho semplicemente detto che un 8c8t avrebbe performance migliori del 4c8t, a patto che il collo di bottiglia non sia la GPU, e questo mi sembra lapalissiano.
Ho parlato del 6C12T perché risulta evidente che, pur col 50% di risorse in più, le prestazioni siano simili a quelle con 4C8T. Segno che il gioco sia sostanzialmente arrivato al limite. Cosa che è dimostrata anche dai risultati con 8C/16T, che avevo citato prima.

Quindi non servono 8C8T per scalare bene, perché con 6C si arriva praticamente al limite.
In ogni caso visto che nutri ancora dei dubbi ho trovato questi video
Grazie. Finalmente ho avuto un po' di tempo per smazzarmeli.
che mostrano inequivocabilmente due cose:
1) il gioco spalma molto bene il carico su (almeno) 8 core (https://www.youtube.com/watch?v=gZZ9DU_5Wlw)
In realtà il video dimostra l'esatto contrario.

Intanto è bene precisare che non è importante il fatto di poter spalmare il carico su più core, ma di sfruttarli per bene. Tutti a tappo, o almeno per 8 di loro, se possibile.

Il video mostra chiaramente che non è il caso, perché si può vedere, scorrendolo tutto, che c'è un core "dominante" che è quello più sfruttato (ma siamo sul 50% o poco più, in genere), spesso coadiuvato da un secondo core (con sfruttamento un po' minore del precedente), e per il resto i rimanenti 6 core sono sfruttati per 1/3 o addirittura 1/4. Soltanto in alcune scene con più personaggi gli altri core arrivano a essere sfruttati circa la metà.
2) in 1080p la configurazione testata da overclock3d è fortemente limitata dalla GPU (https://www.youtube.com/watch?v=b9gLuUASlYg)
Entrambi i video che hai postato mostrano la GPU sfruttata quasi al massimo, ma in quest'ultimo la CPU è sfruttata più che in quello precedente, arrivando addirittura a toccare in alcuni casi il 90% di utilizzo.

Riguardo i video, sono tutti a 1080p. Anche quelli di AnandTech. Quello a 720 di quest'ultimo utilizza la GPU integrata e impostazioni low, ma in tutti gli altri video con scheda video discreta la risoluzione è 1080p e si parte da "medium" come impostazioni.
Infatti è molto probabile che anche il titolo precedente sfruttasse abbastanza bene i core disponibili, ho preso Shadow of the Tomb Raider soltanto come esempio. Vedi anche https://tombraider.tumblr.com/post/140859222830/dev-blog-bringing-directx-12-to-rise-of-the-tomb

Con tanto di grafici di esempio che mostrano come il carico venga distribuito su 8 thread.
Puoi vedere tu stesso che il carico è simile, come trend, a quello che puoi riscontrare nel primo video che hai riportato:
https://64.media.tumblr.com/a85622525088836cca7f0eab11e4086d/tumblr_inline_o3vsjaoaAk1qij4lt_500.png
Con la differenza che i core sono, però, usati di gran lunga di meno rispetto ai grafici presenti in quest'articolo.

C'è da dire che la 9900K è un mostro di CPU, ma di fatto siamo ancora ben lontani dallo sfruttare a tappo la potenza di cui dispone.

maxsin72
15-02-2021, 00:07
Perché TheStilt ha usato le stesse memorie (di cui ha fornito anche manca e modello) per tutti i test, anche quando ha testato Ryzen3 l'anno dopo.


Ripeto, come pretendi di essere preso sul serio, di poter dire che tu si che sei qualcuno e che hai lasciato il segno e dire allo stesso tempo che usare delle DDR4 2666 con Zen 1-2-3 e quindi anche a fine 2020 possa portare ad avere test affidabili.
Io continuo ad aspettare pazientemente una tua risposta... e mi autoquoto:

Approfondiamo ulteriormente: su Zen 3 the Stilt (Anandtech) ha utilizzato delle G.Skill FlareX 3200C14 2x8GB, 2666MHz CL14-14-14-32" :D :D :D
Fate ridere sia tu che lui, mai test potrebbero essere più falsati soprattutto sul gaming, notare la differnza di "solo" il 20%, come dire noccioline, di fps tra delle ddr4 3000, quindi nemmeno delle misere 2666, e delle 3733:

https://premiumbuilds.com/wp-content/uploads/2020/10/Ryzen-RAM-Benchmarks-Tomb-Raider.png

Il link ai test completi è questo https://premiumbuilds.com/features/zen-3-ram-speeds-benchmark-analysis/

In sintesi tu e the stilt siete la dimostrazione vivente di come sia possibile prendere una ottima cpu e azzopparla del 20% per poi poter affermare che intel è superiore. Questa è completa ignoranza o, peggio ancora, malafede.

gigioracing
15-02-2021, 00:49
Di certo non si può dire che non abbia proprietà di sintesi. :rotfl:
Sono abbastanza daccordo anch'io comunque.

Parlate di me x caso??

k0nt3
15-02-2021, 20:04
Ho parlato del 6C12T perché risulta evidente che, pur col 50% di risorse in più, le prestazioni siano simili a quelle con 4C8T. Segno che il gioco sia sostanzialmente arrivato al limite. Cosa che è dimostrata anche dai risultati con 8C/16T, che avevo citato prima.

Quindi non servono 8C8T per scalare bene, perché con 6C si arriva praticamente al limite.

Non ti seguo. Innanzitutto hai perso il filo del discorso, perchè io ho risposto alla tua seguente affermazione:

Le console vendono centinaia di milioni di pezzi nel corso della loro esistenza, e quindi i programmatori dovrebbero avere avuto tutto il tempo di sfruttarne l'hardware. In particolare quelle della passata generazione sono da più di 7 anni che sono presenti sul mercato (un tempo enorme rispetto al passato), e quindi mi aspetterei che siano riusciti, almeno con gli ultimi titoli, a sfruttare tutti gli 8 core.

Come ben sai le console sono 8c8t, da qui è seguito il resto del ragionamento che provo a spiegarti in maniera più semplice.
Prendendo il test di Overclock3d, concorderai con me che da 4c4t a 4c8t c'è un netto miglioramento (guarda le barre grige e rosse, il resto è dx11) e questo può significare soltanto una cosa: il gioco riesce ad utilizzare almeno 8 thread efficacemente. Detto questo sai meglio di me il motivo per cui una CPU 8c8t è più veloce di una 4c8t (notare che il numero di thread gestibili in parallelo è identico), per cui converrai anche che se avessero fatto il test con quella configurazione avrebbe dato prestazioni migliori del 4c8t, se non fosse che la GPU fa già da collo di bottiglia a 4c8t.

Detto questo mi sembra davvero palese che il test con 6c12t di Overclock3d sia arrivato al limite della GPU, non del gioco. In base a quali dati affermi che il gioco sia arrivato al limite con 4c8t? A te l'onere della prova.
Prova che non troverai in quanto hai dimenticato di rispondere al punto 2. Come spieghi il balzo prestazionale dal E-2174G al E-2176G? E dal E-2134 al E-2136? Hanno le stesse frequenze di boost e il secondo ha addirittura una frequenza base più bassa di 100MHz. L'unica reale differenza sono 4 Mb di cache che non mi risulta possano fare tutta questa differenza.

Grazie. Finalmente ho avuto un po' di tempo per smazzarmeli.

In realtà il video dimostra l'esatto contrario.

Intanto è bene precisare che non è importante il fatto di poter spalmare il carico su più core, ma di sfruttarli per bene. Tutti a tappo, o almeno per 8 di loro, se possibile.

Il video mostra chiaramente che non è il caso, perché si può vedere, scorrendolo tutto, che c'è un core "dominante" che è quello più sfruttato (ma siamo sul 50% o poco più, in genere), spesso coadiuvato da un secondo core (con sfruttamento un po' minore del precedente), e per il resto i rimanenti 6 core sono sfruttati per 1/3 o addirittura 1/4. Soltanto in alcune scene con più personaggi gli altri core arrivano a essere sfruttati circa la metà.

Siamo passati da "i giochi non riescono nemmeno a sfruttare tutti gli 8 core" a "non riescono a sfruttare 8 core a tappo". Ma perchè dovrebbero? Alla fine quello che importa sono i FPS e quelli aumentano con l'aumentare del numero di core (soprattutto i FPS minimi), non è tanto importante se tutti i core siano utilizzati al 100% oppure no, non è mica un benchmark. Anche perchè è quasi sempre la GPU che non sta dietro alla CPU.


Entrambi i video che hai postato mostrano la GPU sfruttata quasi al massimo, ma in quest'ultimo la CPU è sfruttata più che in quello precedente, arrivando addirittura a toccare in alcuni casi il 90% di utilizzo.

Riguardo i video, sono tutti a 1080p. Anche quelli di AnandTech. Quello a 720 di quest'ultimo utilizza la GPU integrata e impostazioni low, ma in tutti gli altri video con scheda video discreta la risoluzione è 1080p e si parte da "medium" come impostazioni.

Non mi dire che credi veramente si possa far girare Shadow of the Tomb Raider a 150fps con la scheda integrata (seppure a 720p con dettagli bassi) :doh: . E' evidente che quella è la configurazione di test che usano per le integrate, ma l'hanno fatto girare con la scheda discreta (anche perchè alcune delle CPU in lista non hanno nemmeno l'integrata). I test sulle integrate li trovi qui https://www.anandtech.com/show/13971/the-xeon-entry-cpu-review-e-2174g-e-2134-e-2104g/9


Puoi vedere tu stesso che il carico è simile, come trend, a quello che puoi riscontrare nel primo video che hai riportato:
https://64.media.tumblr.com/a85622525088836cca7f0eab11e4086d/tumblr_inline_o3vsjaoaAk1qij4lt_500.png
Con la differenza che i core sono, però, usati di gran lunga di meno rispetto ai grafici presenti in quest'articolo.

C'è da dire che la 9900K è un mostro di CPU, ma di fatto siamo ancora ben lontani dallo sfruttare a tappo la potenza di cui dispone.

Non direi, la vera differenza è che anche in quel video la GPU fa da tappo visto che è costantemente utilizzata più del 95%. I grafici nell'articolo ipotizzano ovviamente uno scenario in cui la GPU non sia un limite.

k0nt3
19-02-2021, 18:27
@cdimauro
Per chiudere la questione una volta per tutte, qui vedi come viene utilizzata una CPU con 8c16t, che raggiunge punte attorno al 75%, nonostante il gioco sia comunque limitato dalla GPU anche in questo caso:
https://i.ibb.co/tX7NTpD/Screenshot-20210219-181905.png
https://www.youtube.com/watch?v=74zaSP-Ho-c

cdimauro
28-02-2021, 23:12
Rieccomi. Ho avuto modo di rivedermi tutti i test assieme all'ultimo video che avevi postato.
Non ti seguo. Innanzitutto hai perso il filo del discorso, perchè io ho risposto alla tua seguente affermazione:

Come ben sai le console sono 8c8t, da qui è seguito il resto del ragionamento che provo a spiegarti in maniera più semplice.
Prendendo il test di Overclock3d, concorderai con me che da 4c4t a 4c8t c'è un netto miglioramento (guarda le barre grige e rosse, il resto è dx11) e questo può significare soltanto una cosa: il gioco riesce ad utilizzare almeno 8 thread efficacemente.
Efficacemente per quel processore che ha 4 core e 8 thread hardware, perché riesce a spremere meglio le risorse a disposizione all'interno di quei core.

Ma questo non ci dice nulla di come il gioco possa sfruttare i thread in altri processori. Vedi qui sotto.
Detto questo sai meglio di me il motivo per cui una CPU 8c8t è più veloce di una 4c8t (notare che il numero di thread gestibili in parallelo è identico), per cui converrai anche che se avessero fatto il test con quella configurazione avrebbe dato prestazioni migliori del 4c8t,
Non direi, visto che già con 6C/12T hai prestazioni simili. Infatti lo si vede anche nel grafico successivo di Overclock3D, in cui è presente anche la configurazione 8C/16T:
https://overclock3d.net/gfx/articles/2018/09/16141318226l.jpg
Il 6C/12T va pure leggermente meglio, ma l'esigua differenza rientrerà sicuramente nel margine d'errore delle misurazioni.
se non fosse che la GPU fa già da collo di bottiglia a 4c8t.
E' possibile, visto che superati i 4C/8T c'è soltanto un leggero distacco e un livellamento generale delle prestazioni.

Ma la GPU è soltanto una componente, per quanto la più importante, di un gioco. E il limite dei videogiochi è rappresentato, appunto, dalla pipeline grafica, che domina su tutto il resto. Ma ne parlo meglio dopo.
Detto questo mi sembra davvero palese che il test con 6c12t di Overclock3d sia arrivato al limite della GPU, non del gioco. In base a quali dati affermi che il gioco sia arrivato al limite con 4c8t? A te l'onere della prova.
Perché, con quei dati, col 50% di risorse in più (4C/8T vs 6C/12T) guadagna soltanto qualche FPS.
Prova che non troverai in quanto hai dimenticato di rispondere al punto 2. Come spieghi il balzo prestazionale dal E-2174G al E-2176G? E dal E-2134 al E-2136? Hanno le stesse frequenze di boost e il secondo ha addirittura una frequenza base più bassa di 100MHz. L'unica reale differenza sono 4 Mb di cache che non mi risulta possano fare tutta questa differenza.
Corretto: la maggior cache di per sé non giustifica le differenze, che però, dati alla mano, non mi sembrano così elevate.

In entrambi i casi abbiamo il 50% di core (e thread hardware) in più, ma soltanto un miglioramento delle prestazioni del 15% e del 16% rispettivamente. Pochino, rispetto all'enorme aumento di risorse a disposizione.

Anche qui potrebbe essere la GPU ad aver fatto da tappo, a un certo punto.
Siamo passati da "i giochi non riescono nemmeno a sfruttare tutti gli 8 core" a "non riescono a sfruttare 8 core a tappo".
E' sostanzialmente la stessa cosa: "a tappo" serve soltanto a enfatizzare ciò che nella lingua (sfruttare) ha già di per sé un ben preciso significato, senza tirare in ballo il vocabolario per questo.

"Usare" e "spalmare" i core di per sé non dicono nulla di utile. "Sfruttare" assume già un significato ben diverso, che poi è quello che ho sempre usato correttamente.
Ma perchè dovrebbero? Alla fine quello che importa sono i FPS e quelli aumentano con l'aumentare del numero di core (soprattutto i FPS minimi), non è tanto importante se tutti i core siano utilizzati al 100% oppure no, non è mica un benchmark. Anche perchè è quasi sempre la GPU che non sta dietro alla CPU.
Ovviamente perché altrimenti non avrebbe senso comprare CPU con molti più core (per giocare).

Col primo video che hai postato e come abbiamo visto il 9900K è sostanzialmente sprecato: un processore con 6 core avrebbe fatto all'incirca lo stesso lavoro, costando meno.
Non mi dire che credi veramente si possa far girare Shadow of the Tomb Raider a 150fps con la scheda integrata (seppure a 720p con dettagli bassi) :doh: . E' evidente che quella è la configurazione di test che usano per le integrate, ma l'hanno fatto girare con la scheda discreta (anche perchè alcune delle CPU in lista non hanno nemmeno l'integrata). I test sulle integrate li trovi qui https://www.anandtech.com/show/13971/the-xeon-entry-cpu-review-e-2174g-e-2134-e-2104g/9
OK. Purtroppo la scritta mi ha ingannato, e nella pagina non c'era nessuna descrizione che chiarisse la configurazione usata, ma soltanto le risoluzioni usate e le configurazioni del gioco.
Non direi, la vera differenza è che anche in quel video la GPU fa da tappo visto che è costantemente utilizzata più del 95%. I grafici nell'articolo ipotizzano ovviamente uno scenario in cui la GPU non sia un limite.
Questo non depone certo a favore, ma all'esatto contrario, e il motivo è presto spiegato: le DirectX12 riescono a spezzare in più thread soltanto la pipeline grafica, lasciando però invariato tutto il resto.

E' certamente un grosso vantaggio / beneficio, ma un gioco è fatto anche d'altro, come si può vedere dai grafici presenti nell'articolo.

Purtroppo è passato il falso messaggio che queste nuove librerie avessero aperto la porta alla parallelizzazione del carico di lavoro nei giochi: non è così. Il tutto è e rimane circoscritto alla pipeline grafica.

Dunque il problema di sfruttare i core di una CPU non è risolto, e rimane: si è "soltanto" spostata l'asticella più avanti.
@cdimauro
Per chiudere la questione una volta per tutte, qui vedi come viene utilizzata una CPU con 8c16t, che raggiunge punte attorno al 75%, nonostante il gioco sia comunque limitato dalla GPU anche in questo caso:
https://i.ibb.co/tX7NTpD/Screenshot-20210219-181905.png
https://www.youtube.com/watch?v=74zaSP-Ho-c
Punte, appunto, e peraltro dipende dalla scena e dal momento.

Le medie sono ben altre, e sono pure le metriche più importanti.

Purtroppo il video è stato realizzato a risoluzione elevata (le impostazioni non sono chiare, visto che è tutto in russo), dunque è poco utile per avere qualche dato interessante sull'oggetto della discussione.

maxsin72
06-03-2021, 22:37
Comunque, come sempre, i test reali possono stravolgere gli annunci delle aziende e, secondo anandtech, rocket lake parte proprio male https://www.anandtech.com/show/16535/intel-core-i7-11700k-review-blasting-off-with-rocket-lake
Considerata la "simpatia" di Ian Cutress per intel, il quadro che ne viene fuori per intel è alquanto bruttino con l'11700k che rimane ben dietro il 5800X e scalda e consuma ben di più. Mi viene difficile pensare che l'11900k, con 300mhz di clock in più, possa fare grandi cose. La recensione è molto interessante in generale, soprattutto quando si parla dei problemi di latenza interna che l'11700k sembrerebbe avere.

cdimauro
07-03-2021, 08:55
Ian Cutress non ha simpatia per Intel. E' un professionista che recensisce i tutti i prodotti con la stessa metodologia e serietà.

Inoltre, e come ho già detto nell'altro thread in cui è apparsa la recensione, a Intel serve il nuovo processo produttivo.

Per il resto mancano ancora i prezzi.

k0nt3
07-03-2021, 11:05
Rieccomi. Ho avuto modo di rivedermi tutti i test assieme all'ultimo video che avevi postato.

Efficacemente per quel processore che ha 4 core e 8 thread hardware, perché riesce a spremere meglio le risorse a disposizione all'interno di quei core.

Ma questo non ci dice nulla di come il gioco possa sfruttare i thread in altri processori. Vedi qui sotto.
Se non fosse che ho detto 8c8t, cioè lo stesso medesimo numero di thread del 4c8t. Il gioco scala sul numero di thread, non sul numero di core. In ogni caso visti anche i video successivi, possiamo dire con certezza che i giochi moderni possono sfruttare benissimo gli 8 core delle vecchie console (che non sono di certo dei core molto spinti lato frequenze).


Non direi, visto che già con 6C/12T hai prestazioni simili. Infatti lo si vede anche nel grafico successivo di Overclock3D, in cui è presente anche la configurazione 8C/16T:
https://overclock3d.net/gfx/articles/2018/09/16141318226l.jpg
Il 6C/12T va pure leggermente meglio, ma l'esigua differenza rientrerà sicuramente nel margine d'errore delle misurazioni.

E' possibile, visto che superati i 4C/8T c'è soltanto un leggero distacco e un livellamento generale delle prestazioni.

Ma la GPU è soltanto una componente, per quanto la più importante, di un gioco. E il limite dei videogiochi è rappresentato, appunto, dalla pipeline grafica, che domina su tutto il resto. Ma ne parlo meglio dopo.

Perché, con quei dati, col 50% di risorse in più (4C/8T vs 6C/12T) guadagna soltanto qualche FPS.

Corretto: la maggior cache di per sé non giustifica le differenze, che però, dati alla mano, non mi sembrano così elevate.

In entrambi i casi abbiamo il 50% di core (e thread hardware) in più, ma soltanto un miglioramento delle prestazioni del 15% e del 16% rispettivamente. Pochino, rispetto all'enorme aumento di risorse a disposizione.

Anche qui potrebbe essere la GPU ad aver fatto da tappo, a un certo punto.
Alla fine di tutto questo discorso l'unica certezza è che la GPU faccia da tappo, non usare il condizionale, non ce n'è bisogno.


E' sostanzialmente la stessa cosa: "a tappo" serve soltanto a enfatizzare ciò che nella lingua (sfruttare) ha già di per sé un ben preciso significato, senza tirare in ballo il vocabolario per questo.

"Usare" e "spalmare" i core di per sé non dicono nulla di utile. "Sfruttare" assume già un significato ben diverso, che poi è quello che ho sempre usato correttamente.
Non è la stessa cosa, perchè un gioco ha uno scopo diverso dallo sfruttare al massimo le risorse costantemente. Un gioco ha dei picchi in cui la CPU viene sfruttata di più e situazioni in cui viene sfruttata di meno a seconda della scena. L'importante è che quando servono risorse siano disponibili, altrimenti ne risente il gameplay.


Ovviamente perché altrimenti non avrebbe senso comprare CPU con molti più core (per giocare).

Col primo video che hai postato e come abbiamo visto il 9900K è sostanzialmente sprecato: un processore con 6 core avrebbe fatto all'incirca lo stesso lavoro, costando meno.
Qui non stiamo parlando di cosa convenga comprare, io stesso non comprerei mai una cpu del genere per giocare. Se poi calcoli che per vedere le differenze devi "scendere" (per modo di dire visto che è la risoluzione più usata) a 1080p la cosa ha ancora meno senso visto i prezzi. Se spendi quei soldi giochi a 4k e fine della storia ;)
Qui la questione è che se non ci fosse il collo di bottiglia lato GPU, il gioco sfrutterebbe benissimo anche più di 8 thread, non è un limite del software.


OK. Purtroppo la scritta mi ha ingannato, e nella pagina non c'era nessuna descrizione che chiarisse la configurazione usata, ma soltanto le risoluzioni usate e le configurazioni del gioco.
Sicuramente è una nomeclatura infelice


Questo non depone certo a favore, ma all'esatto contrario, e il motivo è presto spiegato: le DirectX12 riescono a spezzare in più thread soltanto la pipeline grafica, lasciando però invariato tutto il resto.

E' certamente un grosso vantaggio / beneficio, ma un gioco è fatto anche d'altro, come si può vedere dai grafici presenti nell'articolo.

Purtroppo è passato il falso messaggio che queste nuove librerie avessero aperto la porta alla parallelizzazione del carico di lavoro nei giochi: non è così. Il tutto è e rimane circoscritto alla pipeline grafica.

Dunque il problema di sfruttare i core di una CPU non è risolto, e rimane: si è "soltanto" spostata l'asticella più avanti.
E quali sono gli altri task intensivi lato cpu in un videogame? IA o fisica? Quelle sono già altamente parallelizzabili. Gestione degli input? Non è cpu bound, ma i/o bound. Non capisco a cosa ti riferisci sinceramente.


Punte, appunto, e peraltro dipende dalla scena e dal momento.

Le medie sono ben altre, e sono pure le metriche più importanti.

Purtroppo il video è stato realizzato a risoluzione elevata (le impostazioni non sono chiare, visto che è tutto in russo), dunque è poco utile per avere qualche dato interessante sull'oggetto della discussione.
Ovviamente dipende dalla scena del momento, come ho già detto è un videogame, non un benchmark.
Ma le punte sono comunque molto importanti, perchè se non hai quelle risorse cpu quando servono il gioco inizierebbe a ridurre il framerate o peggio ancora a "laggare".
Ancora una volta: non è importante che tutti i core sia occupati al massimo sempre, ma piuttosto che quando necessario possano essere sfruttati al massimo per evitare perdite di framerate.

k0nt3
07-03-2021, 11:09
Comunque, come sempre, i test reali possono stravolgere gli annunci delle aziende e, secondo anandtech, rocket lake parte proprio male https://www.anandtech.com/show/16535/intel-core-i7-11700k-review-blasting-off-with-rocket-lake
Considerata la "simpatia" di Ian Cutress per intel, il quadro che ne viene fuori per intel è alquanto bruttino con l'11700k che rimane ben dietro il 5800X e scalda e consuma ben di più. Mi viene difficile pensare che l'11900k, con 300mhz di clock in più, possa fare grandi cose. La recensione è molto interessante in generale, soprattutto quando si parla dei problemi di latenza interna che l'11700k sembrerebbe avere.

Come dicevo prima molto dipenderà dal rapporto prezzo/prestazioni, ma se i prezzi sono quelli che ha riportato Anandtech non promette certo bene :stordita:
Se così fosse l'unica cosa che potrebbe salvare questi processori può essere la disponibilità in grandi volumi, e di conseguenza lo street price. Ovviamente non parlo di utenza avanzata, ma del restante 90% del mercato.

maxsin72
07-03-2021, 18:42
Come dicevo prima molto dipenderà dal rapporto prezzo/prestazioni, ma se i prezzi sono quelli che ha riportato Anandtech non promette certo bene :stordita:
Se così fosse l'unica cosa che potrebbe salvare questi processori può essere la disponibilità in grandi volumi, e di conseguenza lo street price. Ovviamente non parlo di utenza avanzata, ma del restante 90% del mercato.

La disponibilità di 5600x e 5800x è buona e i prezzi infatti sono scesi negli ultimi tempi, le cpu di cui c'è carenza sono i 5900x e i 5950x. Francamente poi preferirei spendere 50 euro in più per un 5800x che non 50 euro in meno per un 11700k, avrei un sistema più longevo e, nel tempo e con un uso quotidiano regolare, qualche euro lo recupererei di bolletta elettrica :D

maxsin72
07-03-2021, 18:52
Ian Cutress non ha simpatia per Intel. E' un professionista che recensisce i tutti i prodotti con la stessa metodologia e serietà.

Inoltre, e come ho già detto nell'altro thread in cui è apparsa la recensione, a Intel serve il nuovo processo produttivo.

Per il resto mancano ancora i prezzi.

Se si riesce ad essere imparziali, non è un problema avere simpatie.
Ripeto poi che di prezzo ne parla chi sa di avere un prodotto inferiore, il rapporto prestazioni/prezzo è stato infatti un cavallo di battaglia di AMD quando intel aveva il primato delle prestazioni con gli "intellisti" pronti a far notare la cosa quado era a sfavore di AMD.
Aggiungo poi che, l'impossibilità di intel di avere un processo produttivo adeguato, non può essere una giustificazione. I potenziali acquirenti sceglieranno il prodotto migliore e i se e i ma riguardo ad intel non se li filerà nessuno come non se li filava nessuno quando nella stessa situazione c'era AMD.

Mparlav
07-03-2021, 19:01
Nella recensione di Anandtech saltano all'occhio 2 particolari:
le cpu sono state testate con le ram max supportate e 4 banchi DR.

Questo favorirebbe l'11700K rispetto ai suoi predecessori soprattutto nei test gaming.
Un "dettaglio" che non si vedrà sul 99% delle recensioni del day one, dove testeranno tutte le cpu a 3200 o più senza tanti problemi.

Altro dettaglio: il bios beta potrebbe anche essere "acerbo", ma d'altro canto nei test Spec ottiene sostanzialmente gli incrementi di ipc dichiarati da Intel.

Per il resto, le prestazioni non sono troppo distanti con quanto visto qui su un ES:
https://lab501.ro/procesoare-chipseturi/preview-intel-core-i7-11700k-es-rocket-lake

quasi un mese fa' e con un bios ancora più vecchio, ma tutte le cpu con la stessa ram.

cdimauro
08-03-2021, 07:07
Se non fosse che ho detto 8c8t, cioè lo stesso medesimo numero di thread del 4c8t. Il gioco scala sul numero di thread, non sul numero di core.
Ma il numero di thread di per sé non vuol dire nulla: dipende dal lavoro che fanno, e quindi da quanto "pesino" nell'esecuzione.
In ogni caso visti anche i video successivi, possiamo dire con certezza che i giochi moderni possono sfruttare benissimo gli 8 core delle vecchie console (che non sono di certo dei core molto spinti lato frequenze).
Sullo spremere mi sono già espresso e non concordo. Poi finora abbiamo visto un solo gioco in cui c'è un maggior uso di thread.
Alla fine di tutto questo discorso l'unica certezza è che la GPU faccia da tappo, non usare il condizionale, non ce n'è bisogno.
Sì, ma QUANTO? Mica lo sappiamo, senza un test mirato nel mettere in luce l'utilizzo della CPU.
Non è la stessa cosa, perchè un gioco ha uno scopo diverso dallo sfruttare al massimo le risorse costantemente. Un gioco ha dei picchi in cui la CPU viene sfruttata di più e situazioni in cui viene sfruttata di meno a seconda della scena. L'importante è che quando servono risorse siano disponibili, altrimenti ne risente il gameplay.
Bisogna vedere anche quanto frequente siano questi scenari. Se i picchi capitano ogni tanto è una cosa che si può gestire / "digerire", ma discorso diverso è se capitino spesso.
Qui non stiamo parlando di cosa convenga comprare, io stesso non comprerei mai una cpu del genere per giocare. Se poi calcoli che per vedere le differenze devi "scendere" (per modo di dire visto che è la risoluzione più usata) a 1080p la cosa ha ancora meno senso visto i prezzi. Se spendi quei soldi giochi a 4k e fine della storia ;)
Qui la questione è che se non ci fosse il collo di bottiglia lato GPU, il gioco sfrutterebbe benissimo anche più di 8 thread, non è un limite del software.
Direi proprio di no: non è stato affatto dimostrato. Il fatto che i test che abbiamo visto siano GPU-limited NON implica che il gioco sia in grado di sfruttare i core/thread hardware della CPU.
E quali sono gli altri task intensivi lato cpu in un videogame? IA o fisica? Quelle sono già altamente parallelizzabili. Gestione degli input? Non è cpu bound, ma i/o bound. Non capisco a cosa ti riferisci sinceramente.
Generazione della scena (sì, è ancora a carico della CPU), IA, fisica, audio, I/O (quando si ricorre allo streaming, che ormai è tanto di moda). Sulla carta ci sarebbe molto da parallelizzare (e magari spostare lato GPU), ma di fatto mi pare evidente che ci siano delle sezioni seriali / di dipendenza interne a queste categorie di calcoli che non consentono di sfruttare una CPU.

Altrimenti il task manager lo vedresti sempre al 100% di utilizzo per qualunque configurazione hardware.
Ovviamente dipende dalla scena del momento, come ho già detto è un videogame, non un benchmark.
Ma le punte sono comunque molto importanti, perchè se non hai quelle risorse cpu quando servono il gioco inizierebbe a ridurre il framerate o peggio ancora a "laggare".
Ancora una volta: non è importante che tutti i core sia occupati al massimo sempre, ma piuttosto che quando necessario possano essere sfruttati al massimo per evitare perdite di framerate.
Sì, ma tutto ha un costo, e bisogna vedere se valga la pena sostenerlo in base al contesto. Come già detto, un conto è avere picchi ogni tanto, e tutt'altra cosa se li avessi spesso: saresti di gran lunga più propenso a spendere nel secondo caso che nel primo.

Che poi, se ci pensi bene, è anche una cosa perfettamente naturale: non è che un videogiocatore si metterebbe a comprare sistemi con 64 core soltanto perché "il gioco scala"...
La disponibilità di 5600x e 5800x è buona e i prezzi infatti sono scesi negli ultimi tempi, le cpu di cui c'è carenza sono i 5900x e i 5950x. Francamente poi preferirei spendere 50 euro in più per un 5800x che non 50 euro in meno per un 11700k, avrei un sistema più longevo e, nel tempo e con un uso quotidiano regolare, qualche euro lo recupererei di bolletta elettrica :D
Non vedo i motivi per cui un Ryzen 5800x possa essere più longevo di un 11700K: entrambi sono al capolinea, e verranno sostituiti dai successori a fine anno o inizio del prossimo.

Anzi, come già detto prima, almeno il 11700K ha il vantaggio delle AVX-512, che quando vengono usate fanno sentire bene il loro peso.
Se si riesce ad essere imparziali, non è un problema avere simpatie.
Tu pensa che a me sembra che il personaggio in questione abbia simpatie per AMD, invece. :D

Le simpatie si possono anche esprimere nella scelta dei test da effettuare, e non mi pare che AnandTech abbia avvantaggiato sempre Intel. Anzi, a me sembra proprio il contrario.

Comunque le scelte delle suite sono legittime: ogni sito / redazione fa le sue.

Anche per questo aspetto altre recensioni, peraltro col prodotto finito.
Ripeto poi che di prezzo ne parla chi sa di avere un prodotto inferiore, il rapporto prestazioni/prezzo è stato infatti un cavallo di battaglia di AMD quando intel aveva il primato delle prestazioni con gli "intellisti" pronti a far notare la cosa quado era a sfavore di AMD.
E siccome di prezzi ancora non se ne parla, aspettiamo almeno che venga finalmente commercializzato.

Al momento per Rocket Lake ci sono soltanto speculazioni, mentre i prezzi elevati dei Ryzen 5x00 sono una realtà (e il motivo per cui Intel è tornata a essere addirittura nuovamente preferita da tanti utenti).
Aggiungo poi che, l'impossibilità di intel di avere un processo produttivo adeguato, non può essere una giustificazione.
Mi sono limitato a riportare la causa di quei risultati.
I potenziali acquirenti sceglieranno il prodotto migliore e i se e i ma riguardo ad intel non se li filerà nessuno come non se li filava nessuno quando nella stessa situazione c'era AMD.
Diciamo che ognuno sceglierà in base alle proprie esigenze e tasche.

Vediamo quale sarà il prezzo e quali saranno le prestazioni finali (visto che il prodotto non è ancora stato commercializzato), e poi ognuno si farà i propri conti.
Nella recensione di Anandtech saltano all'occhio 2 particolari:
le cpu sono state testate con le ram max supportate e 4 banchi DR.

Questo favorirebbe l'11700K rispetto ai suoi predecessori soprattutto nei test gaming.
Un "dettaglio" che non si vedrà sul 99% delle recensioni del day one, dove testeranno tutte le cpu a 3200 o più senza tanti problemi.
Non so. Ci sono redattori che impostano la frequenza massima supportata ufficialmente dal produttore per una determinata CPU.
Altro dettaglio: il bios beta potrebbe anche essere "acerbo", ma d'altro canto nei test Spec ottiene sostanzialmente gli incrementi di ipc dichiarati da Intel.

Per il resto, le prestazioni non sono troppo distanti con quanto visto qui su un ES:
https://lab501.ro/procesoare-chipseturi/preview-intel-core-i7-11700k-es-rocket-lake

quasi un mese fa' e con un bios ancora più vecchio, ma tutte le cpu con la stessa ram.
E' molto probabile.

maxsin72
09-03-2021, 18:06
Non vedo i motivi per cui un Ryzen 5800x possa essere più longevo di un 11700K: entrambi sono al capolinea, e verranno sostituiti dai successori a fine anno o inizio del prossimo.

Anzi, come già detto prima, almeno il 11700K ha il vantaggio delle AVX-512, che quando vengono usate fanno sentire bene il loro peso.

Sarà meno longevo perchè avrà prestazioni inferiori e le AVX 512 da sole non basteranno ad invertire la tendenza.
AMD ha rilasciato il nuovo AGESA 1.2.0.1 e le prestazioni nel gaming sono cresciute fino al 17% dai primi test grazie al fix sulla cache L3, in pratica è come se avessero lanciato ZEN3+++ solo con un aggiornamento che passa tramite bios https://wccftech.com/msi-releases-amd-agesa-1-2-0-1-bios-firmware-for-x570-b550-a520-motherboard/

Tu pensa che a me sembra che il personaggio in questione abbia simpatie per AMD, invece. :D

Le simpatie si possono anche esprimere nella scelta dei test da effettuare, e non mi pare che AnandTech abbia avvantaggiato sempre Intel. Anzi, a me sembra proprio il contrario.

Abbiamo opinioni nettamente opposte, secondo me le configurazioni utilizzate per testare le cpu di AMD da parte di anandtech sono spesso lontane da quelle ideali (vedi ad esempio le ram) e noto che spesso AMD ne esce fuori meglio su altre testate.


Comunque le scelte delle suite sono legittime: ogni sito / redazione fa le sue.

Anche per questo aspetto altre recensioni, peraltro col prodotto finito.

E siccome di prezzi ancora non se ne parla, aspettiamo almeno che venga finalmente commercializzato.

Al momento per Rocket Lake ci sono soltanto speculazioni, mentre i prezzi elevati dei Ryzen 5x00 sono una realtà (e il motivo per cui Intel è tornata a essere addirittura nuovamente preferita da tanti utenti).

Mi sono limitato a riportare la causa di quei risultati.

Diciamo che ognuno sceglierà in base alle proprie esigenze e tasche.

Vediamo quale sarà il prezzo e quali saranno le prestazioni finali (visto che il prodotto non è ancora stato commercializzato), e poi ognuno si farà i propri conti.


Naturalmente per avere un dato definitivo su prezzi e prestazioni dovremo aspettare ma, per il momento, la situazione mi sembra a sfavore di intel.

cdimauro
10-03-2021, 07:06
Sarà meno longevo perchè avrà prestazioni inferiori e le AVX 512 da sole non basteranno ad invertire la tendenza.
Il supporto alle AVX-512 è destinato ad aumentare, e quindi le prestazioni miglioreranno.
AMD ha rilasciato il nuovo AGESA 1.2.0.1 e le prestazioni nel gaming sono cresciute fino al 17% dai primi test grazie al fix sulla cache L3, in pratica è come se avessero lanciato ZEN3+++ solo con un aggiornamento che passa tramite bios https://wccftech.com/msi-releases-amd-agesa-1-2-0-1-bios-firmware-for-x570-b550-a520-motherboard/
Non parlano di prestazioni in gaming cresciute del 17%, e quelli mostrati sono test sintetici su banda di memoria et similia.

Dunque meglio aspettare benchmark con applicazioni reali e giochi.
Abbiamo opinioni nettamente opposte, secondo me le configurazioni utilizzate per testare le cpu di AMD da parte di anandtech sono spesso lontane da quelle ideali (vedi ad esempio le ram) e noto che spesso AMD ne esce fuori meglio su altre testate.
Opinioni diverse, infatti. Per me le applicazioni / giochi che scelgono favoriscono più AMD che Intel.
Naturalmente per avere un dato definitivo su prezzi e prestazioni dovremo aspettare ma, per il momento, la situazione mi sembra a sfavore di intel.
Vedremo.

maxsin72
10-03-2021, 11:26
Il supporto alle AVX-512 è destinato ad aumentare, e quindi le prestazioni miglioreranno.

Non parlano di prestazioni in gaming cresciute del 17%, e quelli mostrati sono test sintetici su banda di memoria et similia.


Ti sbagli, ti consiglio di leggere meglio perchè parlano di gaming, nello specifico di Tomb Rider, a meno che non esista un test sintetico con lo stesso nome:D riporto testualmente:
We were provided with a benchmark within Shadow of The Tomb Raider where it can be seen that the 1.2.0.1 BIOS Firmware boosts the performance by up to 17% (CPU average)

cdimauro
11-03-2021, 06:16
Rivisto, hai ragione. Mi sono confuso in mezzo a quelle tabelle. Direi che si tratti di un dato estremamente interessante.
Ma, come detto, serve di nuovo effettuare dei test estensivi, perché un solo test non è significativo.

maxsin72
11-03-2021, 09:18
Rivisto, hai ragione. Mi sono confuso in mezzo a quelle tabelle. Direi che si tratti di un dato estremamente interessante.
Ma, come detto, serve di nuovo effettuare dei test estensivi, perché un solo test non è significativo.

Spero che nelle recensioni che usciranno per rocket lake, il confronto con zen3 possa essere fatto utilizzando il nuovo AGESA, solo così potremo sapere se davvero c'è tutto questo salto prestazionale.

cdimauro
12-03-2021, 07:28
Difficile che succeda, visto che è ancora in beta.

k0nt3
14-03-2021, 12:28
Ma il numero di thread di per sé non vuol dire nulla: dipende dal lavoro che fanno, e quindi da quanto "pesino" nell'esecuzione.

Sullo spremere mi sono già espresso e non concordo. Poi finora abbiamo visto un solo gioco in cui c'è un maggior uso di thread.

Sì, ma QUANTO? Mica lo sappiamo, senza un test mirato nel mettere in luce l'utilizzo della CPU.

Bisogna vedere anche quanto frequente siano questi scenari. Se i picchi capitano ogni tanto è una cosa che si può gestire / "digerire", ma discorso diverso è se capitino spesso.

Direi proprio di no: non è stato affatto dimostrato. Il fatto che i test che abbiamo visto siano GPU-limited NON implica che il gioco sia in grado di sfruttare i core/thread hardware della CPU.
Sinceramente non capisco per quale motivo vuoi tutte queste prove da me, non mi sembra che tu abbia portato argomentazioni molto convincenti fino ad ora.
Se vuoi altri giochi che sfruttano 8 o più thread ci sono altri esempi in questo video di un paio di anni fa:
https://www.youtube.com/watch?v=vVjdhXAdKE0


Generazione della scena (sì, è ancora a carico della CPU), IA, fisica, audio, I/O (quando si ricorre allo streaming, che ormai è tanto di moda). Sulla carta ci sarebbe molto da parallelizzare (e magari spostare lato GPU), ma di fatto mi pare evidente che ci siano delle sezioni seriali / di dipendenza interne a queste categorie di calcoli che non consentono di sfruttare una CPU.

Altrimenti il task manager lo vedresti sempre al 100% di utilizzo per qualunque configurazione hardware.
Provami che questi carichi non siano parallelizzabili. Parlo di quelli cpu bound naturalmente, perchè non capisco cosa c'entra l'audio visto che non carica la cpu (a meno che non parli di encoding, ma quello è parallelizzabile).
La generazione della scena è parallelizzabile, così come l'IA, la fisica e in generale l'encoding di audio e video. Non c'è dubbio che ci siano delle sezioni necessariamente seriali, ma non si tratta certo di task prettamente sequenziali. Come ho già detto parallelizzare non significa sfruttare tutti i core al 100%.

Sì, ma tutto ha un costo, e bisogna vedere se valga la pena sostenerlo in base al contesto. Come già detto, un conto è avere picchi ogni tanto, e tutt'altra cosa se li avessi spesso: saresti di gran lunga più propenso a spendere nel secondo caso che nel primo.

Che poi, se ci pensi bene, è anche una cosa perfettamente naturale: non è che un videogiocatore si metterebbe a comprare sistemi con 64 core soltanto perché "il gioco scala"...

Ovviamente 64 sarebbero sprecati per giocare, ma si stava parlando del fatto che secondo te i videogiochi moderni non riescono a sfruttare decentemente nemmeno 8 thread in parallelo. Affermazione evidentemente falsa.

cdimauro
15-03-2021, 06:18
Sinceramente non capisco per quale motivo vuoi tutte queste prove da me, non mi sembra che tu abbia portato argomentazioni molto convincenti fino ad ora.
Non mi era nemmeno richiesto: ho fatto per lo più domande quando è iniziata questa sotto-discussione sullo sfruttamento dei core (vedi anche alla fine del commento, in proposito).
Se vuoi altri giochi che sfruttano 8 o più thread ci sono altri esempi in questo video di un paio di anni fa:
https://www.youtube.com/watch?v=vVjdhXAdKE0
Quest'altro video mostra situazioni simili a quelle già viste in altri video o benchmark: il passaggio che porta risultati tangibili è quello dai 4 ai 6 core, mentre aumentando i core il guadagno in FPS è poco significativo. E la percentuale di utilizzo dei core scende man mano che ne aumenta il numero. Peraltro soltanto la configurazione con 4 core riesce a mostrare un utilizzo al 100% dei core, e diversi casi con tutti e quattro i core al 100%, mentre situazioni del genere non si sono mai verificate già a partire da 6 core.
Provami che questi carichi non siano parallelizzabili. Parlo di quelli cpu bound naturalmente, perchè non capisco cosa c'entra l'audio visto che non carica la cpu (a meno che non parli di encoding, ma quello è parallelizzabile).
La generazione della scena è parallelizzabile, così come l'IA, la fisica e in generale l'encoding di audio e video. Non c'è dubbio che ci siano delle sezioni necessariamente seriali, ma non si tratta certo di task prettamente sequenziali.
Non ho detto questo infatti, e anzi avevo detto che "Sulla carta ci sarebbe molto da parallelizzare" a conferma che dovrebbero essere task parallelizzabili.

Ciò che ho detto è che dovrebbero esserci delle sezioni seriali che limitano questa parallelizzazione, alla luce dei risultati visti finora. Quindi c'è qualcosa che, di fatto, limita la scalabilità e quindi lo sfruttamento dei core a disposizione, e in task paralleli dovrebbe essere qualche sezione seriale.

Spero sia chiaro adesso.
Come ho già detto parallelizzare non significa sfruttare tutti i core al 100%.
Non mi pare di avere mai fatto passare un simile passaggio / conseguenza logica.

La mia posizione rimane sempre la stessa (vedi sotto, dove la riporto nuovamente).
Ovviamente 64 sarebbero sprecati per giocare, ma si stava parlando del fatto che secondo te i videogiochi moderni non riescono a sfruttare decentemente nemmeno 8 thread in parallelo. Affermazione evidentemente falsa.
Affermazione che sarebbe vera, invece, alla luce dei risultati che si sono visti finora.

Ma preciso che non ho mai parlato di "8 thread in parallelo", quanto sempre di sfruttamento dei core (a disposizione). Qui trovi uno dei primi commenti in merito (https://www.hwupgrade.it/forum/showpost.php?p=47263476&postcount=129), da cui un estratto:
"La PS3 aveva un processore con 1 core/2 thread hardware, e ben 7 core addizionali. E la XBox360 3 core/6 thread hardware. Quanti giochi li hanno sfruttati tutti?
Infine la PS4 e la XBox4 non solo avevano già 8 core, ma erano persino core x86: quanti loro porting su PC hai visto che sono in grado di sfruttare 8 (o più core)?"
Pensiero nonché posizione coerente che ritrovi in tutti i commenti che ho scritto in merito. Di nuovo (https://www.hwupgrade.it/forum/showpost.php?p=47265062&postcount=131):
"In sintesi, se un gioco per PS4 o XBoxOne è riuscito a fruttare gli 8 core, può fare esattamente lo stesso nei PC (e potenzialmente anche meglio, visto che ci sono più core).
[...]
Infine, e visto che dall'introduzione delle suddette console sono passati ormai PIU' DI 7 (SE-TTE) ANNI, mi aspetterei che tutti gli 8 loro core siano stati spremuti come un limone."
E così via. Evito di riportarli tutti perché con una banale ricerca di "core" nei commenti potrai vedere tu stesso quale, da sempre, sia mia coerente posizione in merito.

k0nt3
19-03-2021, 19:27
Quest'altro video mostra situazioni simili a quelle già viste in altri video o benchmark: il passaggio che porta risultati tangibili è quello dai 4 ai 6 core, mentre aumentando i core il guadagno in FPS è poco significativo. E la percentuale di utilizzo dei core scende man mano che ne aumenta il numero. Peraltro soltanto la configurazione con 4 core riesce a mostrare un utilizzo al 100% dei core, e diversi casi con tutti e quattro i core al 100%, mentre situazioni del genere non si sono mai verificate già a partire da 6 core.
Quando si fanno affermazioni del genere bisogna quantomeno che siano supportate dai dati.
Mi sono preso la briga di mettere in una tabella i vari valori mostrati dal video per quanto riguarda la differenza tra 6 e 8 core (i valori sono presi all'ultimo frame disponibile):
AVG Δ 1% Δ 0,1% Δ GPU Δ
Battlefield 5 (2018) 167 12% 103 39% 40 43% 98% 38%
Rainbow Six Siege (2015) 329 4% 223 19% 155 8% 94% 4%
Assassin's Creed Odyssey (2018) 109 25% 87 26% 46 7% 88% 17%
HITMAN 2 (2018) 113 5% 79 4% 62 0% 77% 4%
The Witcher 3 (2015) 151 10% 100 19% 71 3% 93% 2%
Come si vede chiaramente Battelfield 5 beneficia significativamente dal passaggio da 6 a 8 core, soprattutto per quello che riguarda i percentili (che danno una buona misura dei frame drop). Tutto questo nonostante la GPU sia ormai arrivata al limite.
Non si può dire lo stesso per Rainbow Six invece, dove il miglioramento c'è ma è meno marcato. E' bene sottolineare però che la GPU arriva al limite quando si usano 8 core (era già al 90% con 6 core), pertanto è chiaramente una situazione GPU limited e molto probabilmente non un limite del gioco.
Venendo ad Assassin's Creed si nota di nuovo un netto miglioramento, sia degli FPS medi che nei percentili.
Hitman 2 invece ha chiaramente un problema nello sfruttare i core, dato che la GPU non viene mai spremuta fino al limite. Direi che questo è l'unico gioco della lista che ha sicuramente un problema nel gestire più di 6 thread in parallelo (parlo di thread perchè questo test è stato eseguito HT disabilitato).
The Witcher 3 mostra di nuovo un aumento delle prestazioni significativo, anche se in parte inficiato dallo sfruttamento della GPU che è già quasi al limite con 6 core.
Aumentando ulteriormente il numero di core non porta benefici tangibili, ma è importante notare che a parte Hitman tutti gli altri giochi arrivano a sfruttare la GPU al massimo già con 8 core.

Non ho detto questo infatti, e anzi avevo detto che "Sulla carta ci sarebbe molto da parallelizzare" a conferma che dovrebbero essere task parallelizzabili.

Ciò che ho detto è che dovrebbero esserci delle sezioni seriali che limitano questa parallelizzazione, alla luce dei risultati visti finora. Quindi c'è qualcosa che, di fatto, limita la scalabilità e quindi lo sfruttamento dei core a disposizione, e in task paralleli dovrebbe essere qualche sezione seriale.

Spero sia chiaro adesso.

Non mi pare di avere mai fatto passare un simile passaggio / conseguenza logica.

La mia posizione rimane sempre la stessa (vedi sotto, dove la riporto nuovamente).
Mi sembra che bene o male stiamo dicendo la stessa cosa, solo che tu vedi il bicchiere mezzo vuoto e io mezzo pieno.

Affermazione che sarebbe vera, invece, alla luce dei risultati che si sono visti finora.

Ma preciso che non ho mai parlato di "8 thread in parallelo", quanto sempre di sfruttamento dei core (a disposizione). Qui trovi uno dei primi commenti in merito (https://www.hwupgrade.it/forum/showpost.php?p=47263476&postcount=129), da cui un estratto:
"La PS3 aveva un processore con 1 core/2 thread hardware, e ben 7 core addizionali. E la XBox360 3 core/6 thread hardware. Quanti giochi li hanno sfruttati tutti?
Infine la PS4 e la XBox4 non solo avevano già 8 core, ma erano persino core x86: quanti loro porting su PC hai visto che sono in grado di sfruttare 8 (o più core)?"
Pensiero nonché posizione coerente che ritrovi in tutti i commenti che ho scritto in merito. Di nuovo (https://www.hwupgrade.it/forum/showpost.php?p=47265062&postcount=131):
"In sintesi, se un gioco per PS4 o XBoxOne è riuscito a fruttare gli 8 core, può fare esattamente lo stesso nei PC (e potenzialmente anche meglio, visto che ci sono più core).
[...]
Infine, e visto che dall'introduzione delle suddette console sono passati ormai PIU' DI 7 (SE-TTE) ANNI, mi aspetterei che tutti gli 8 loro core siano stati spremuti come un limone."
E così via. Evito di riportarli tutti perché con una banale ricerca di "core" nei commenti potrai vedere tu stesso quale, da sempre, sia mia coerente posizione in merito.
Se dici che i giochi non sono riusciti a sfruttare gli 8 core di PS4 e XBoxOne allora stiamo parlando di 8 thread in parallelo, ne più ne meno.
Lascia stare PS3 che era un'architettura completamente diversa, non ha senso paragonarla ai PC moderni.
Affermazione che comunque rimane falsa almeno per un sottoinsieme di giochi (sicuramente Shadow of the Tomb Raider, Battlefield 5, Assassin's Creed Odyssey e The Witcher 3) che come mostrato dai dati sopra sono in grado di sfruttare gli 8 core delle console e trarne un vantaggio significativo.

cdimauro
21-03-2021, 09:04
Quando si fanno affermazioni del genere bisogna quantomeno che siano supportate dai dati.
Mi sono preso la briga di mettere in una tabella i vari valori mostrati dal video per quanto riguarda la differenza tra 6 e 8 core (i valori sono presi all'ultimo frame disponibile):
AVG Δ 1% Δ 0,1% Δ GPU Δ
Battlefield 5 (2018) 167 12% 103 39% 40 43% 98% 38%
Rainbow Six Siege (2015) 329 4% 223 19% 155 8% 94% 4%
Assassin's Creed Odyssey (2018) 109 25% 87 26% 46 7% 88% 17%
HITMAN 2 (2018) 113 5% 79 4% 62 0% 77% 4%
The Witcher 3 (2015) 151 10% 100 19% 71 3% 93% 2%
Come si vede chiaramente Battelfield 5 beneficia significativamente dal passaggio da 6 a 8 core, soprattutto per quello che riguarda i percentili (che danno una buona misura dei frame drop). Tutto questo nonostante la GPU sia ormai arrivata al limite.
Non si può dire lo stesso per Rainbow Six invece, dove il miglioramento c'è ma è meno marcato. E' bene sottolineare però che la GPU arriva al limite quando si usano 8 core (era già al 90% con 6 core), pertanto è chiaramente una situazione GPU limited e molto probabilmente non un limite del gioco.
Venendo ad Assassin's Creed si nota di nuovo un netto miglioramento, sia degli FPS medi che nei percentili.
Hitman 2 invece ha chiaramente un problema nello sfruttare i core, dato che la GPU non viene mai spremuta fino al limite. Direi che questo è l'unico gioco della lista che ha sicuramente un problema nel gestire più di 6 thread in parallelo (parlo di thread perchè questo test è stato eseguito HT disabilitato).
The Witcher 3 mostra di nuovo un aumento delle prestazioni significativo, anche se in parte inficiato dallo sfruttamento della GPU che è già quasi al limite con 6 core.
Aumentando ulteriormente il numero di core non porta benefici tangibili, ma è importante notare che a parte Hitman tutti gli altri giochi arrivano a sfruttare la GPU al massimo già con 8 core.

Mi sembra che bene o male stiamo dicendo la stessa cosa, solo che tu vedi il bicchiere mezzo vuoto e io mezzo pieno.
Credo che il problema principale sia dovuto al fatto che tu tendi a soffermarti sull'utilizzo della GPU, mentre io su quello della CPU.

Quando ho guardato tutto quel video non ho preso soltanto l'ultimo fotogramma di ogni gioco, ma durante lo scorrere del video ho principalmente controllato l'utilizzo della CPU, cercando di dare anche un'occhiata all'utilizzo dei singoli thread hardware, e poi anche gli FPS. L'obiettivo, insomma, è quello che ripeto da parecchio ormai: analizzare lo sfruttamento dei core di una CPU).

Infatti quando ho affermato che il guadagno degli FPS è poco significativo passando da 6 a 8 core, è perché la percezione che ho avuto è stata proprio quella, guardando come si comportavano i vari giochi durante la loro prova.
Cosa peraltro confermata anche dai tuoi stessi dati: soltanto ACO riesce a migliorare gli FPS del 25%, mentre BF5 e TW3 si attesta su 12 e 10% rispettivamente, e ancor peggio fanno RSS e HM2, che sono sul 4 e 5%.

Ma non concordo quando affermi che la GPU verrebbe sfruttata al massimo: soltanto BF5 lo fa (98%), mentre c'è ancora un po' di margine per RSS (94%) e TW3 (93%), molto di più per HM2 (77%), e un bel po' perfino con ACO (88%). D'altra parte anche il delta GPU vs aumenti dei core della CPU mi sembra significativo, mostrando un netto miglioramento soltanto con BF5, mentre già con ACO l'impatto è decisamente minore (pur avendo ancora consistenti margini di miglioramento).

Infine la questione dei percentili: sì, sono certamente importanti, e l'impatto maggiore è sull'1%, ma anche qui con differenze evidenti a seconda del gioco. Se consideriamo lo 0,1%, poi, è soltanto BF5 che ne beneficia nettamente, mentre per gli altri siamo a livelli infimi.
Se dici che i giochi non sono riusciti a sfruttare gli 8 core di PS4 e XBoxOne allora stiamo parlando di 8 thread in parallelo, ne più ne meno.
8 core.
Lascia stare PS3 che era un'architettura completamente diversa, non ha senso paragonarla ai PC moderni.
Se riesci a parallelizzare il codice per sfruttare più core puoi farlo tanto sul PC quanto sulla PS3: saranno poi i mezzi/tool a differenziare le rispettive implementazioni.

Giusto per essere chiari: l'importante è riuscire a "spezzettare" i task.
Affermazione che comunque rimane falsa almeno per un sottoinsieme di giochi (sicuramente Shadow of the Tomb Raider, Battlefield 5, Assassin's Creed Odyssey e The Witcher 3) che come mostrato dai dati sopra sono in grado di sfruttare gli 8 core delle console e trarne un vantaggio significativo.
Affermazione che non ho fai fatto, dunque non può essere falsa per definizione.

L'avevo già scritto e lo ripeto nuovamente: per lo più avevo espresso dubbi, ed erano relativi allo sfruttamento dei core di una CPU. Mi riquoto per l'n-esima volta:
"Quanti giochi li hanno sfruttati tutti?
[...]
mi aspetterei che tutti gli 8 loro core siano stati spremuti come un limone."
:read:

maxsin72
22-03-2021, 13:19
Credo che il problema principale sia dovuto al fatto che tu tendi a soffermarti sull'utilizzo della GPU, mentre io su quello della CPU.

Quando ho guardato tutto quel video non ho preso soltanto l'ultimo fotogramma di ogni gioco, ma durante lo scorrere del video ho principalmente controllato l'utilizzo della CPU, cercando di dare anche un'occhiata all'utilizzo dei singoli thread hardware, e poi anche gli FPS. L'obiettivo, insomma, è quello che ripeto da parecchio ormai: analizzare lo sfruttamento dei core di una CPU).

Infatti quando ho affermato che il guadagno degli FPS è poco significativo passando da 6 a 8 core, è perché la percezione che ho avuto è stata proprio quella, guardando come si comportavano i vari giochi durante la loro prova.
Cosa peraltro confermata anche dai tuoi stessi dati: soltanto ACO riesce a migliorare gli FPS del 25%, mentre BF5 e TW3 si attesta su 12 e 10% rispettivamente, e ancor peggio fanno RSS e HM2, che sono sul 4 e 5%.

Ma non concordo quando affermi che la GPU verrebbe sfruttata al massimo: soltanto BF5 lo fa (98%), mentre c'è ancora un po' di margine per RSS (94%) e TW3 (93%), molto di più per HM2 (77%), e un bel po' perfino con ACO (88%). D'altra parte anche il delta GPU vs aumenti dei core della CPU mi sembra significativo, mostrando un netto miglioramento soltanto con BF5, mentre già con ACO l'impatto è decisamente minore (pur avendo ancora consistenti margini di miglioramento).

Infine la questione dei percentili: sì, sono certamente importanti, e l'impatto maggiore è sull'1%, ma anche qui con differenze evidenti a seconda del gioco. Se consideriamo lo 0,1%, poi, è soltanto BF5 che ne beneficia nettamente, mentre per gli altri siamo a livelli infimi.

8 core.

Se riesci a parallelizzare il codice per sfruttare più core puoi farlo tanto sul PC quanto sulla PS3: saranno poi i mezzi/tool a differenziare le rispettive implementazioni.

Giusto per essere chiari: l'importante è riuscire a "spezzettare" i task.

Affermazione che non ho fai fatto, dunque non può essere falsa per definizione.

L'avevo già scritto e lo ripeto nuovamente: per lo più avevo espresso dubbi, ed erano relativi allo sfruttamento dei core di una CPU. Mi riquoto per l'n-esima volta:
"Quanti giochi li hanno sfruttati tutti?
[...]
mi aspetterei che tutti gli 8 loro core siano stati spremuti come un limone."
:read:

A mio parere Cesare ti sbagli, il punto non è spremere o meno gli 8 core "a limone" bensì vedere i benefici degli fps minimi in primis visto che sono quelli che più influiscono sulla fluidità di gioco e poi degli fps medi e, se con 8 core ci sono benefici tangibili, tutto il resto non conta, tantomeno la "spremuta" di cpu. Se poi alcuni giochi ancora oggi non li sfruttano, non importa perchè il solco è segnato e già nell'immediato futuro saranno sempre di più i titoli a beneficiare di 8 o più core. Sono quindi assolutamente d'accordo con k0nt3.

cdimauro
23-03-2021, 07:41
A mio parere Cesare ti sbagli, il punto non è spremere o meno gli 8 core "a limone" bensì vedere i benefici degli fps minimi in primis visto che sono quelli che più influiscono sulla fluidità di gioco e poi degli fps medi e, se con 8 core ci sono benefici tangibili, tutto il resto non conta, tantomeno la "spremuta" di cpu.
I benefici ci sono, è innegabile, ma non sono generalizzati.
Se poi alcuni giochi ancora oggi non li sfruttano, non importa perchè il solco è segnato e già nell'immediato futuro saranno sempre di più i titoli a beneficiare di 8 o più core. Sono quindi assolutamente d'accordo con k0nt3.
Ma il punto era proprio quello che avevo detto e che ha portato a questa discussione: di strada da fare ce n'è ancora parecchia per lo sfruttamento dei core nei videogiochi, e questo nonostante siano passati tantissimi anni da quando sono apparsi i primi sistemi multicore/thread hardware.

maxsin72
23-03-2021, 14:06
I benefici ci sono, è innegabile, ma non sono generalizzati.

Ma il punto era proprio quello che avevo detto e che ha portato a questa discussione: di strada da fare ce n'è ancora parecchia per lo sfruttamento dei core nei videogiochi, e questo nonostante siano passati tantissimi anni da quando sono apparsi i primi sistemi multicore/thread hardware.

Certamente non sono generalizzati, ma stanno sicuramente aumentando col tempo e comunque molta strada è stata fatta e quella che ancora c'è da fare deve necessariamente passare per una diffusione sempre più capillare di cpu con 8 o più core.

k0nt3
23-03-2021, 14:57
Credo che il problema principale sia dovuto al fatto che tu tendi a soffermarti sull'utilizzo della GPU, mentre io su quello della CPU.

Assolutamente no, io mi sono soffermato sull'utilizzo della CPU, ma qualsiasi analisi che non tenga conto di eventuali colli di bottiglia lato GPU e' praticamente inutile.

Quando ho guardato tutto quel video non ho preso soltanto l'ultimo fotogramma di ogni gioco, ma durante lo scorrere del video ho principalmente controllato l'utilizzo della CPU, cercando di dare anche un'occhiata all'utilizzo dei singoli thread hardware, e poi anche gli FPS. L'obiettivo, insomma, è quello che ripeto da parecchio ormai: analizzare lo sfruttamento dei core di una CPU).
Ho usato l'ultimo fotogramma per un semplice motivo: i percentili piu' passa il tempo e piu' sono corretti. L'utilizzo della GPU non e' molto accurato in questo modo, ma visto che non ci viene fornito un valore medio e' comunque una buona approssimazione.


Infatti quando ho affermato che il guadagno degli FPS è poco significativo passando da 6 a 8 core, è perché la percezione che ho avuto è stata proprio quella, guardando come si comportavano i vari giochi durante la loro prova.
Cosa peraltro confermata anche dai tuoi stessi dati: soltanto ACO riesce a migliorare gli FPS del 25%, mentre BF5 e TW3 si attesta su 12 e 10% rispettivamente, e ancor peggio fanno RSS e HM2, che sono sul 4 e 5%.

Ma non concordo quando affermi che la GPU verrebbe sfruttata al massimo: soltanto BF5 lo fa (98%), mentre c'è ancora un po' di margine per RSS (94%) e TW3 (93%), molto di più per HM2 (77%), e un bel po' perfino con ACO (88%). D'altra parte anche il delta GPU vs aumenti dei core della CPU mi sembra significativo, mostrando un netto miglioramento soltanto con BF5, mentre già con ACO l'impatto è decisamente minore (pur avendo ancora consistenti margini di miglioramento).

Infine la questione dei percentili: sì, sono certamente importanti, e l'impatto maggiore è sull'1%, ma anche qui con differenze evidenti a seconda del gioco. Se consideriamo lo 0,1%, poi, è soltanto BF5 che ne beneficia nettamente, mentre per gli altri siamo a livelli infimi.
Come ho gia' detto non ha nessuna importanza se la CPU viene sfruttata al 100%, un videogame non ha necessariamente bisogno di tutte le risorse costantemente, ma l'importante e' che quando servono siano disponibili per evitare frame drop. I percentili sono un'ottima indicazione di questo.
Dire che passando da 6 core a 8 non c'e' un vantaggio significativo e' quantomeno un'affermazione curiosa. Incremento del 20% nel percentile 1% per te non e' significativo? E' vero che 0,1% non mostra miglioramenti analoghi, ma possiamo affermare con certezza che i rallentamenti sono di gran lunga meno frequenti con 8 core solo guardando l'1%. Tutto questo accompagnato da miglioramenti nell'ordine del 10% sui FPS medi.
Per quanto riguarda la GPU dico che e' arrivata al limite anche se nella tabella vedi 94% per il semplice motivo che l'utilizzo non aumenta nemmeno avendo a disposizione 12 core. Infatti anche per quanto riguarda la GPU non e' pensabile arrivare al 100% di utilizzo per lo stesso motivo per cui non sara' mai cosi' per la CPU (ovvero parallelizzazione imperfetta).


8 core.
8 thread

Se riesci a parallelizzare il codice per sfruttare più core puoi farlo tanto sul PC quanto sulla PS3: saranno poi i mezzi/tool a differenziare le rispettive implementazioni.

Giusto per essere chiari: l'importante è riuscire a "spezzettare" i task.
E' esattamente il motivo per cui continuo a parlare di thread mentre tu parli di core. Pero' non puoi comparare i risultati ottenuti sulla PS3 con quelli ottenuti su PC, perche' la PS3 utilizzava un hardware nettamente sottosfruttato a causa dell'architettura per cosi' dire "esotica" :asd:


Affermazione che non ho fai fatto, dunque non può essere falsa per definizione.

L'avevo già scritto e lo ripeto nuovamente: per lo più avevo espresso dubbi, ed erano relativi allo sfruttamento dei core di una CPU. Mi riquoto per l'n-esima volta:
"Quanti giochi li hanno sfruttati tutti?
[...]
mi aspetterei che tutti gli 8 loro core siano stati spremuti come un limone."
:read:
Che debbano essere spremuti come limoni l'hai aggiunto dopo e ancora fatico a comprenderne il senso. Il punto qui e' che i videogiochi moderni sono assolutamente in grado di sfruttare tutti i core a disposizione delle console di vecchia generazione e trarne un vantaggio significativo. Questo ci fa ben sperare per le console di nuova generazione.

maxsin72
30-03-2021, 18:33
Mah.. in tomb rider e assassin creed si equivalgono o addirittura fa un po' meglio il 10900k perchè non sono 2 fps in meno nel frame rate minimo (che si ha magari solo per qualche frazione di secondo in svariati minuti di gioco eche comunque è sotto le 60 fps anche per l'11900k) o anche nel 1% low che cambiano le cose mentre il frame rate medio del 10900k è addirittura più alto. E comunque l'11900k è tutt'altro che rivoluzionario nel gaming rispetto al 10900K e secondo me è un processore da scaffale perchè, quando uscirà, mancheranno pochi mesi al lancio di Zen4 e Alder Lake con DDR5 e li si che il salto dovrebbe essere molto più netto.
E chi non può aspettare le nuove piattaforme con DDR5, farebbe bene a optare per Zen3 che, a fronte di uno svantaggio praticamente inesistente in ST, supera rocket lake a mani basse in MT.

Mi autoquoto, come volevasi dimostrare, rocket lake nasce morto e anche l'11900k ne esce fuori con le ossa rotte dal 5800x, che costa meno e mediamente va di più consumando nettamente meno. I test di intel come sempre si sono dimostrati, per dirla con un eufemismo, ottimistici. https://www.hwupgrade.it/articoli/cpu/5983/intel-core-i9-11900k-i7-11700k-e-i5-11600k-rocket-lake-in-test_index.html
https://www.hwupgrade.it/articoli/5983/moneybench_medio.png

https://www.hwupgrade.it/articoli/5983/moneybench_giochi_1920.png

StylezZz`
30-03-2021, 19:21
rocket lake nasce morto

È un ottima notizia, così scenderà subito di prezzo e sarò apposto per anni con un 11700 (che si trova già a 316 spedito) :asd:

maxsin72
31-03-2021, 01:43
È un ottima notizia, così scenderà subito di prezzo e sarò apposto per anni con un 11700 (che si trova già a 316 spedito) :asd:

A mio parere non è un buon acquisto, a guardare i risultati della recensione di hwupgrade, rischia di beccarle pure dal 5600x :D

Alekx
31-03-2021, 09:58
La cosa che mi ha lasciato perplesso sono i consumi, ma anche no, che sono motlo alti anche confrontandoli con Ryzen con + cores.

Penso stiano tirando oltre il limite la produzione dei 14nm ma rispetto alle cpu precedenti non vedo miglioramenti tangibili.

Speriamo solo in prezzi piu' aggressivi perche' se costano come i concorrenti rimarranno sugli scaffali.

StylezZz`
31-03-2021, 10:21
A mio parere non è un buon acquisto, a guardare i risultati della recensione di hwupgrade, rischia di beccarle pure dal 5600x :D

Il 5600x è un 6 core, per cui a parità di prezzo scelgo l'11700 che ne ha 8 e avrà sicuramente più vita quando i giochi cominceranno a sfruttarli pienamente.

maxsin72
31-03-2021, 11:08
Il 5600x è un 6 core, per cui a parità di prezzo scelgo l'11700 che ne ha 8 e avrà sicuramente più vita quando i giochi cominceranno a sfruttarli pienamente.

Mah, in firma vedo che hai un 10400 che è molto ben proporzionato alla tua 2070, non so se ne vale la pena cambiarlo adesso oppure aspettare un po' e andare su una nuova piattaforma con DDR5.

StylezZz`
31-03-2021, 11:12
Mah, in firma vedo che hai un 10400 che è molto ben proporzionato alla tua 2070, non so se ne vale la pena cambiarlo adesso oppure aspettare un po' e andare su una nuova piattaforma con DDR5.

No ma infatti non intendo cambiarlo adesso, con il 10400 vado da dio (gioco a 1440p), ma appena l'11700 scenderà di prezzo ci farò un pensierino.

Punterò alle DDR5 in futuro, ma parliamo di anni, considera che fino a pochi mesi fa andavo ancora benissimo con un 3770k...