PDA

View Full Version : Il Pentium Silver J5005 (Atom) va come il Core2 Quad Q6600 (ma consuma un decimo)


Redazione di Hardware Upg
29-05-2018, 07:21
Link alla notizia: https://www.hwupgrade.it/news/cpu/il-pentium-silver-j5005-atom-va-come-il-core2-quad-q6600-ma-consuma-un-decimo_76163.html

Il Core2 Quad Q6600 ha rappresentato per molti il primo processore con quattro core; a distanza di quasi 10 anni dall'esordio, il "mitico" processore viene eguagliato da un Atom con un TDP pari a un decimo

Click sul link per visualizzare la notizia.

massidifi
29-05-2018, 07:27
Io ho ancora un Q6600... :(

ombra666
29-05-2018, 07:35
9 anni fa?
porca paletta, quando penso ai q6600 mi sembra l'altro ieri :cry:

Paganetor
29-05-2018, 07:37
Be' dai, sono tecnologie che hanno 9 anni di differenza tra loro e il paragone è OVVIAMENTE impietoso...

probabilmente abbiamo mandato sulla Luna gente con minore potenza di calcolo di una moderna calcolatrice :D

gd350turbo
29-05-2018, 07:46
Confermo....
Ne ho preso uno per un mediaserver casalingo, va una bomba !

mattia.l
29-05-2018, 07:49
aggiornate il titolo, non si parla di core2duo ma di quad

Slater91
29-05-2018, 07:58
aggiornate il titolo, non si parla di core2duo ma di quad

Grazie della segnalazione, corretto!

Opteranium
29-05-2018, 08:04
notevole. Lo avevo adocchiato per un nuc a basso costo tuttofare, adesso sono ancora più convinto.

paolodekki
29-05-2018, 08:17
ma è strabiliaaante!

spedake
29-05-2018, 08:17
Be' dai, sono tecnologie che hanno 9 anni di differenza tra loro e il paragone è OVVIAMENTE impietoso...

probabilmente abbiamo mandato sulla Luna gente con minore potenza di calcolo di una moderna calcolatrice :D

:D Verissimo...se ben ricordo alcuni articoli letti anni fa indicavano che la potenza di calcolo dei computer erano equiparabili a 2 Commodore 64.
Forse sarò un pò nostalgico (e un pò vecchietto) ma nel 1997 per la missione Mars Pathfinder usarono un rover (il robottino a guida autonoma) dotato di cpu 80x86 nonostante all'epoca fossero disponibili pentium 2 e 3. Alla fine per scopi scentifici si fanno bastare cpu lente ma affidabili, su cui ottimizzano il Sw...
ovviamente l'80x86 aveva qualche leggerissima difficoltà ad elaborare le immagini ad alta definizione :stordita:
io con tale cpu giocavo a stento al primo monkey island :ciapet:

Opteranium
29-05-2018, 08:30
Alla fine per scopi scentifici si fanno bastare cpu lente ma affidabili, su cui ottimizzano il Sw...
più che altro è la resistenza alle radiazioni a fare da padrona. La sonda Juno, che pure è un progetto del 2005, ha un hardware stile metà anni '90, ma capace di reggere livelli di radiazione che fondono il metallo ;) https://www.tomshw.it/com-fatta-sonda-juno-viaggio-verso-giove-78376-p4

Marco71
29-05-2018, 08:30
...cadute dalle solite nuvole...si constata l'ovvio ovvero che tra un Q6600 ed oggi sono esistite quante, nuove, microarchitetture e refresh vari. Paragoni poi molto omogenei dato che il Q6600 era dotato di comunicazione tramite front side bus, aveva il controllore di memoria non integrato ed altri "dettagli".
Tra l'altro se non ho visto male anche Intel stessa ha omesso il valore di TDP https://ark.intel.com/products/29765/Intel-Core2-Quad-Processor-Q6600-8M-Cache-2_40-GHz-1066-MHz-FSB per lo step G0 che era di 95 Watt e non 105 valore per lo step B3.
Quanto alla sonda diretta verso Marte citata solo il rover Sojourner utilizzò un 80C85; il lander Pathfinder era dotato di una versione schermata contro le radiazioni "cosmiche" derivato dall'IBM Risc 6000.
Grazie.

Marco71.

gigioracing
29-05-2018, 08:51
a dire il vero il nuovo pentium silver va come un i5 750 stock dati alla mano...

e cmq boosta a 2.7ghz su tutti i core ,quindi ha piu frequenza di un q6600

Orei
29-05-2018, 09:23
quindi il mio p9600 dell'xps16 potrebbe esser surclassato da un semplice atom????

Nurgiachi
29-05-2018, 09:41
C'è gente che ancora si sveglia nel cuore della notte tutta sudata perché ha sognato un Q6600. Due E6600 incolati senza troppa grazia, un forno energivoro come pochi accompagnato da basse frequenze. Inutile anche pensare ad un overclock visto il moltiplicatore bloccato a 9x con frequenze già alte.
Ne vendettero valanghe negli ipermercati sbandierando il fatto che fosse un potente quad-core. Crysis fece una mattanza di quei computer da 1600€.

Non capisco quale mente sadica abbia pensato che fosse una buona idea rievocare il Q6600, lui e l'Atom Z270 sono tra i prodotti più inadeguati della storia di Intel. :doh:

PsychoWood
29-05-2018, 09:49
Considerando che c'è una Asrock mITX a 100€ in vendita, direi che è un sostituto papabile per il mio Celeron J1900, sembra abbia delle performance esattamente doppie o giù di lì...

gd350turbo
29-05-2018, 09:52
Considerando che c'è una Asrock mITX a 100€ in vendita, direi che è un sostituto papabile per il mio Celeron J1900, sembra abbia delle performance esattamente doppie o giù di lì...

Ho fatto anch'io lo stesso cambio, infatti nei prossimi giorni metto il j1900 nel mercatino, e si va un tot più forte, si nota chiaramente anche solo cliccando tra le finestre di windows.

D4N!3L3
29-05-2018, 10:01
Quanti ricordi il Q6600, gran processore, lo utilizzai fino allo stremo. :D

gigioracing
29-05-2018, 10:20
il mio ex q6600 se lo mangia il pentium gold :-)

http://it.tinypic.com/r/jhrd5d/9

http://i65.tinypic.com/jhrd5d.jpg

andbad
29-05-2018, 10:25
:D Verissimo...se ben ricordo alcuni articoli letti anni fa indicavano che la potenza di calcolo dei computer erano equiparabili a 2 Commodore 64.
Forse sarò un pò nostalgico (e un pò vecchietto) ma nel 1997 per la missione Mars Pathfinder usarono un rover (il robottino a guida autonoma) dotato di cpu 80x86 nonostante all'epoca fossero disponibili pentium 2 e 3. Alla fine per scopi scentifici si fanno bastare cpu lente ma affidabili, su cui ottimizzano il Sw...
ovviamente l'80x86 aveva qualche leggerissima difficoltà ad elaborare le immagini ad alta definizione :stordita:
io con tale cpu giocavo a stento al primo monkey island :ciapet:

I computer (perché erano più d'uno) a bordo dell'Apollo erano veramente poco potenti (ma molto specializzati, quindi andavano bene). In ogni caso il grosso dei calcoli venivano fatti a terra da "supercomputer" (per l'epoca).
La storia dei computer della missione Apollo è molto nerd ma molto interessante.
https://dev.infomedia.it/i-computer-della-nasa-il-progetto-apollo-f2e78f21b064 (per cominciare).

Tempo fa hanno pubblicato su GitHuib il codice sorgente dell'AGC:
https://attivissimo.blogspot.it/2016/07/pubblicato-il-codice-sorgente-di-apollo.html

Tornando IT, a casa ho ancora 4 o 5 Q6600, uno era in produzione fino a qualche mese fa (forse un anno). Il mio serverino casalingo ha invece un q8600, nettamente meno energivoro.

By(t)e

kamon
29-05-2018, 10:41
Io ho ancora un Q6600... :(

Beato te :D...

https://i.imgur.com/N3RECAm.jpg

Gello
29-05-2018, 11:13
Gia gli Apollo Lake era mini bombette, comunque il j5005 per come lo classificano non e' ne' un Atom ne' un Celeron.

biffuz
29-05-2018, 11:32
Ma fatemi il piacere... chi se ne frega di 1/10 di consumi, piuttosto avreste dovuto darci delle CPU 10 volte più potenti con gli stessi! Anzi, dovevate darcele 5 anni fa, ormai dovremmo essere a 100. RIVOGLIO GLI ANNI '90 :cry:

Seriamente, ho un Q9650 come muletto ed è ancora una bestia. Se non fosse stato per i problemi di mobo probabilmente lo avrei ancora come main. Adesso ho un 3770K, e chissà tra quanto lo cambierò...

EDIT: mi autocorreggo, non è un Q9550, è un Q9650, ancora meglio :D

capitan_crasy
29-05-2018, 11:45
Correggetemi se sbaglio, quindi in 10 anni hanno fatto appena un 10x nel perf/watt? con in mezzo decine di revisioni architetturali e innumerevoli salti di nodo??? quanto meno in mezzo ci piazzano pure una igpu, ma è imbarazzante altro che strabiliante la lentezza del progresso informatico, mi chiedo se a questo punto stia proprio morendo lentamente la tecnologia x86-64.

In realtà questa news dal sapore puramente "revival" su una delle CPU più amate non serviva affatto, soprattutto quando si parla di bench generici come il CPU Mark, fatto da un utente qualsiasi di reddit...:asd:
Poi vabbeh elementi secondari come il clock, silicio, TDP, istruzioni, architettura mettiamoli pure da parte e parliamo di come le CPU di una volta calcolavano "meglio"...:D :ciapet:

D4N!3L3
29-05-2018, 11:45
Ma fatemi il piacere... chi se ne frega di 1/10 di consumi, piuttosto avreste dovuto darci delle CPU 10 volte più potenti con gli stessi! Anzi, dovevate darcele 5 anni fa, ormai dovremmo essere a 100. RIVOGLIO GLI ANNI '90 :cry:

Seriamente, ho un Q9550 come muletto ed è ancora una bestia. Se non fosse stato per i problemi di mobo probabilmente lo avrei ancora come main. Adesso ho un 3770K, e chissà tra quanto lo cambierò...

Anche io ho tenuto il 3770K oer un sacco di tempo, ancora oggi va benissimo.

Ho dovuto cambiare per esigenze di workstation.

PsychoWood
29-05-2018, 12:54
10X in 10 anni e' tantissimo :rolleyes: non c'e' molto da discutere.

Che poi se consideriamo anche tutto il resto che è stato integrato come GPU (che è ricompresa nei 10W immagino), controller di memoria, probabilmente anche altra robetta, credo siamo ben oltre il 10x.

Saturn
29-05-2018, 13:00
Anche io ho tenuto il 3770K oer un sacco di tempo, ancora oggi va benissimo.

Ho dovuto cambiare per esigenze di workstation.

i7 980 @4,3 ghz - e pensa ancora non vedo l'esigenza di sostituirlo. Il q6600 lavora invece tutt'ora nel mediacenter collegato al televisore...:)

Opteranium
29-05-2018, 13:05
Correggetemi se sbaglio, quindi in 10 anni hanno fatto appena un 10x nel perf/watt? con in mezzo decine di revisioni architetturali e innumerevoli salti di nodo??? quanto meno in mezzo ci piazzano pure una igpu, ma è imbarazzante altro che strabiliante la lentezza del progresso informatico, mi chiedo se a questo punto stia proprio morendo lentamente la tecnologia x86-64.
Guarda che tra un 2600k e un 7700k, nonostante ci corrano 6 anni, c'è poco meno del raddoppio di prestazioni agli stessi watt. Tanto per dire.

La tecnologia non è magia. A me sembra un gran bel risultato.

gd350turbo
29-05-2018, 13:08
Anche io ho tenuto il 3770K oer un sacco di tempo, ancora oggi va benissimo.



Quello in firma raggiunge i 5 ghz, fa un pò te se ho voglia di cambiare !

Avatar0
29-05-2018, 13:37
la versione mobile consuma ancora meno e dovrebbe andare tale e quale.
Con il j5005 o il j4205 della generazione prima trovo solo barebone incompleti.
Le versioni mobili invece si trova l' n4200 nei minipc su amazon già completi a 170€ ma con 4gb di ram.
Se tirano fuori l' n5000 e riescono a fare un minipc con 8gb di ram a 200€ lo prendo. Per ora non ho trovato niente
Ma soprattutto da kaby lake in poi hanno convertito tutta la famiglia in dual core+HT, quindi andrà sempre peggio :muro:

Opteranium
29-05-2018, 13:48
Quindi, è follia quello che dichiara AMD nelle intenzioni di fare 25x in 7 anni, o è poco 10x in 10 anni?
a occhio direi la prima

CrapaDiLegno
29-05-2018, 20:22
Resta pure convinto. Una progressione esponenziale nella tecnologia e' sempre una condizione temporanea, perche' a un certo punto sbatti contro i limiti fisici del dispositivo che stai migliorando.

Se AMD riesce a fare un 25X in 7 anni ancora ben per lei. Non e' scontato che tutti ci riescano a farlo su tutti i tipi/classi di IC/processori. Ma in ogni caso questo processore e' qui gia' oggi disponibile. Quelli AMD si vedra'.

In nessun contesto tecnologico (neanche l'elettronica), qualcosa che migliora di 10X in 10 anni e' un miglioramento lento. Vuol dire che se mantieni il passo dopo un secolo hai un miglioramento di dieci miliardi di volte LOL.

EDIT: senza contare che dal grafico che hai postato non si vede come viene contata l'efficienza. Se in questa c'e', come penso, anche la gpu integrata allora grazie al piffero, visto che l'efficienza delle GPU e' molto piu' facilmete migliorabile rispetto a quella delle CPU.

:stordita:
Quante sciocchezze che sono presenti in questo post.
Dalla "situazione temporanea" quando storicamente è solo adesso che abbiamo un rallentamento quando dagli anni '70 a oggi la legge di Moore è stata messa in pratica, ovvero raddoppio ogni 18 mesi che implica che il progresso dopo 10 anni dovrebbe essere 100 volte, non 10.
La legge era valida quando è stato messo il Q6600 sul mercato, per cui a quel tempo uno si sarebbe aspettato dopo 10 anni un miglioramento di 100, non 10, quindi è più che giustificato chiunque dica che non c'è niente di eccezionale in questo risultato.
Il Q6600, rispetto ai processori di 10 anni prima, era 100 volte più veloce, quindi ci stiamo solo glorificando di qualcosa che è andato storto, non come ci si aspettava.

Inoltre le GPU avanzano esattamente come tutte le altre tecnologie legate al silicio, ovvero raddoppia(va)no le prestazioni ad ogni presentazione di un nuovo PP.
Ultimamente ho letto un paio di articoli interessanti su un sito legato a questo:
https://www.appuntidigitali.it/19057/introduzione-ai-processi-produttivi-prima-parte/

Magari date loro una lettura. Potreste rimanere stupiti di quanto è semplice la questione, sopratutto quando è spiegata in quel modo. Qualcuno di voi potrebbe anche capirci qualcosa :D

CrapaDiLegno
29-05-2018, 20:46
E tu chi saresti? un troll da sbarco? Ascolta cocco abbassa la cresta a lightspeed ok ? ;) Che tra le altre cose la legge di moore parla di numero di transistor e non di efficienza.

La legge di Moore dice che c'è un dimezzamento della dimensione dei transistor che permette il raddoppio di densità. Io non ho mai parlato di efficienza, che è comunque insita nella riduzione della dimensione del transistor.
Il troll da sbarco qui presente ti ha dato dei numeri che puoi (se sei capace) verificare e un paio di letture da fare. Le hai lette prima di venire a fare il saputello qui
Resta il fatto che l'affermazione "Una progressione esponenziale nella tecnologia e' sempre una condizione temporanea" è una sciocchezza che non ha alcuna validità storica che ti sei inventato di sana pianta leggendo non so quale libro di fumetti.
Leggi i post sopra linkati e poi torna a farci vedere cosa hai capito di tutto il discorso.

kernelex
29-05-2018, 20:47
sto campando ancora con q8300 e un dual monitor: tv 40 + 20 pollici a 1600x900

https://i.imgur.com/HqNTyXV.png

questo atom con la sua gpu mi tenta :eek:

CrapaDiLegno
29-05-2018, 21:32
Se poi credi anche tu che una qualsiasi tecnologia possa indefinitivamente avere una crescita esponenziale o che un miglioramento di 10X in dieci anni sia un miglioramento mediocre amen. Rientrerai anche tu nella folta schiera di persone che si riempiono la bocca e gonfiano il petto non sapendo un tubo di tecnologia. Chiamami quando riuscirai a fare un transistor su silicio di un fm (https://it.wikipedia.org/wiki/Femtometro) eh! :D Dovresti farcela agilmente in poche decine di anni a botte di riduzioni del 2X ogni 18 mesi :D :D

E con questo ciao. Ho di meglio da fare che rispondere a qualcuno che sfoga le sue brutte giornate facendo flame
Qualcuno ha ordinato "alla tecnologia" di avanzare necessariamente usando il silicio? Purtroppo quello che ha una visione piccola dell'avanzamento tecnologico sei tu.
La legge di Moore è stata tirata in ballo perché è stata la causa n.1 del progresso precedente (non per altro ho detto "messa in pratica", ovvero volutamente pilotata per ragioni prettamente economiche) quando si progrediva 2x ad ogni shrink (e siccome i consumi non sono passati da 100W a 1000W ne deriva che anche l'efficienza è andata di pari passo, ora che te l'ho scritto magari ci sei arrivato anche tu).
E' così difficile capire che dal 1996 al 2007 le prestazioni sono diventate 100x e i consumi rimasti invariati mentre dal 2007 al 2018 i consumi sono sì rimasti invariati ma le prestazioni non sono diventati SOLO 10x e qui, questo stesso articolo, sta comparando 2 processori con presunte stesse prestazioni a distanza di oltre 11 anni (il Q6600 è dell'inizio del 2007)?

Oggi abbiamo un rallentamento (anzi direi frenata) proprio per la stessa legge di Moore, o meglio, per le stesse identiche ragioni che hanno pilotato negli anni passati la legge di Moore. Tutti gli investimenti sul silicio, quello che tu credi dovrebbe continuare ad essere usato fino al fn per progredire, non si vuole buttarli (per mille buone e cattive ragioni) e ci si sta accanendo come su un malato terminale. Ma è ovvio che non può durare.
Quindi il progresso può avanzare in maniera esponenziale se si vuole trovare una alternativa. E verrà senza dubbio, a meno di conflitti catastrofici per cui un processore 10x quelli che abbiamo oggi avrà meno importanza e valore di una patata bollita con cui sfamarsi, e inizierà una nuova era delle legge di Moore con numeri diversi ma sempre pilotata.

Ora torna a leggere i suddetti articoli e impara le fondamenta delle necessità del progresso tecnologico e a cosa è legato. Poi puoi tornare a parlare di come superarle.
Tutto sto parlare per discutere con uno che dice che il progresso finirà con la fine della miniaturizzazione del silicio... e da del troll agli altri :rolleyes:

P.S: sei una ulteriore conferma che ormai essere appassionato significa parlare di tecnologia senza conoscere come funziona...

P.P.S: rimango in attesa che il sapientone mi dia le informazioni che sostengano l'affermazione che la crescita esponenziale sia temporanea.

CrapaDiLegno
29-05-2018, 22:18
Bella arrampicata sugli specchi :mc: senza dire e aggiungere nulla troll . Solo un sacco di supposizioni su tecnologie che ancora non ci sono e che in ogni caso, anche nella migliore delle ipotesi, avranno anche loro dei limiti superiori con cui confrontarsi molto rapidamente se si mantengono ritmi di crescita esponenziali a botta di 2X ogni 18 mesi. Difficile accettare che non tutto cio' che si vuole e' effettivamente realizzabile.

Ma non mi stupisce da chi ha poca cultura in fisica.

E comunque https://jobs.intel.com/



Rimango in attesa che il professore mi dia indicazione di quale sia questa tecnologia post-silicio che sicuramente avra' sicuramente un evoluzione esponenziale che permettera' un miglioramento indefinito ed esponenziale delle performance su watt

Guarda, la :mc: la stai facendo tu quando hai capito che non eri arrivato al fatto che il Q6600 è 100x un K5 consumando uguale, quindi con efficienza 100x e quindi non ti sei spiegato perché c'era l'accenno alla legge di Moore che parla di densità e non di efficienza.
Se c'è qualcuno che non capisce molto se non quanto legge ciò che già scritto ed elaborato da altri e non è capace di estrapolare un risultato in maniera indipendente da 2 numeri per altro dati, non sono certo io.

Per la questione "avanzamento tecnologico", caro il mio sapientone, non hai fatto altro che dire quello che sta accadendo, cosa che sanno anche i somari che pascolano nelle malghe, io ti ho detto il perché sta accadendo e perché non è scritto "nel silicio" che il progresso finirà con esso.
Non chiedere a me quali saranno le nuove tecnologie (altrimenti non sarei su questo forum a discorrere con chi crede solo nel futuro del silicio), ma già ce ne sono di conosciute (scartate per alti costi, fino ad ora, vedremo quando diverranno competitive con i costi del silicio) e altre sono in sviluppo compreso il tanto vituperato grafene, o il fullerene, o la luce (IBM sono 20 anni che fa ricerca sui chip ottici) o i nanotubi come quelli che Intel ha usato per le sue memorie Xpoint o derivati più "tradizionali" degli sviluppi dei computer quantici, o un insieme di tutto questo. O un nuovo paradigma che non usa più transistor come li conosciamo oggi.
Di tecnologie possibili ce ne sono.
Non ci fermeremo quando tutti scopriremo che Bellaz89 ha svelato al mondo che il transistor da 1fn su silicio è impossibile e quindi smetteremo di progredire piangendoci addosso e ricordando i bei tempi in cui il progresso era almeno 10x in 10 anni.

Quindi se c'è una cosa che si può dire oggi, guardando ai fatti passati e a quello che può ancora avvenire, è l'opposto di quanto hai affermato: cioè che il rallentamento è solo temporaneo e che l'avanzamento esponenziale, che prevede un semplice avanzamento uniforme nel tempo, cioè la capacità di migliorare della stessa proporzione nella stessa unità di tempo seguendo una più semplice legge economica, è normale.

Se poi vuoi dare del troll a gratis a chiunque, nel bene o nel male, è in grado di discorrere di quel che dice, be', fai pure, sai che importanza ha dato da uno che crede che l'avanzamento sarà solo dovuto all'uso del silicio perché imposto da qualcosa che neanche lui sa spiegare e che questo 10x è già un miracolo.
So che ci sei rimasto male, ma sparare parole a caso perché non sei in grado di spiegare le affermazioni stupide che hai fatto non migliora la tua posizione.

P.S: la li hai letto gli articoli che ti ho linkato almeno? La base te la sei fatta? Hai capito quali sono i problemi per l'avanzamento tecnologico e come possono essere superati?

Opteranium
29-05-2018, 23:27
E' così difficile capire che dal 1996 al 2007 le prestazioni sono diventate 100x e i consumi rimasti invariati
Per nulla.

Un pentium II 300 mhz (anno '97) non consumava certo come un q6600.

Sinceramente non saprei neanche quantificarlo ma limitiamoci a guardare il TDP: quello del pentium era 20W quindi, anche se con con molta approssimazione, possiamo dire che il q6600 consumasse 5 volte tanto.

Per quanto riguarda le prestazioni, anche lì è un discorso fine a sé stesso, dato che non sono paragonabili ma diciamo che un banale prodotto di frequenza per core, arrotondato in eccesso, sia realistico.
Il q6600 era a 2,4 ghz quindi 8 volte superiore e aveva 4 core, il che farebbe 32 volte più potente. Ma stiamo larghi e diciamo 40. Anzi, sono generoso, 50.

Ciò premesso, e considerato l'assorbimento 5 volte maggiore, possiamo dire che - a parità di consumo - anche tra un pentium II e un q6600 ci sia lo stesso rapporto di 10 come aumento di prestazioni.

E questo è quanto. Saluti.

Opteranium
30-05-2018, 08:27
ma quali 20watt:
http://www.cpu-world.com/CPUs/Pentium-II/Intel-Pentium%20II%20266%20-%2080522PX266512%20(B80522P266512).html
21,5 Watt https://ark.intel.com/it/products/49937/Intel-Pentium-II-Processor-300-MHz-512K-Cache-66-MHz-FSB
si ma non è che vale prendere processori e valori a caso, e con prezzi a caso.
da quando è diventata una questione di prezzo?
superfluo continuare se continui a cambiare le carte in tavola. Adios.

gigioracing
30-05-2018, 10:40
aspettiamo i nanotubi in carbonio:D . se non sbaglio un transistor a 1nm gia e stato fatto

carlone88
28-03-2019, 21:50
Sul po della mia ragazza c’e Un Q6600 un pelo overcloccato ed una Gtx di qualche annetto fa; con un Ssd il pc è davvero prestante . Per l’uso di un utente come lei che non sa (ad esempio) cosa sia un “driver” e usa al 99,9 per 100 chrome come software , non c’e Bisogno di potenza di calcolo ulteriore . Anche un c2d le sarebbe ridondante ...
le discussioni sulle leggi del progresso tecnologico non hanno tenuto conto del fatto che da 10 anni a questa parte le esigenze di un utente basico non sono aumentate...

marchigiano
28-03-2019, 23:34
uso degli apollo lake (che hanno lo stesso ipc e architettura di questo, solo cloccati a 1.7ghz) e hanno evidenti problemi prestazionali, già una pagina internet pesante li mette in ginocchio... ora lasciamo che 2.8ghz siano ben diversi rispetto 1.7ghz, ma davvero un q6600 si impalla in queste situazioni? diciamo pure che il benchmark che hanno usato vale meno di zero dai... :rolleyes:

gigioracing
08-04-2019, 08:13
uso degli apollo lake (che hanno lo stesso ipc e architettura di questo, solo cloccati a 1.7ghz) e hanno evidenti problemi prestazionali, già una pagina internet pesante li mette in ginocchio... ora lasciamo che 2.8ghz siano ben diversi rispetto 1.7ghz, ma davvero un q6600 si impalla in queste situazioni? diciamo pure che il benchmark che hanno usato vale meno di zero dai... :rolleyes:

Io con il mio pc in firma e 20 pagine Chrome aperte, non vedo rallentamenti